如何用python实现自动回复功能

Python012

如何用python实现自动回复功能,第1张

先学smtp,我用的qq,python的smtplib有接受和回复的功能。

至于选择名字回复的功能用os.listdir来获取文件夹里的东西,返回值是一个列表,然后用路径加文件名操作字符串访问。注意文件是文件夹的问题。

这里分享下Python如何识别表情包并回复文字,操作方法如下。

设备:联想电脑

系统:win8

软件:Python

1、首先通过pip install emoji,来安装emoji包。

2、安装完成后,打开pycharm,利用import emoji,来导入emoji包。

3、定义一个变量emotion,利用emoji.emojize()方法来获取表情

4、在括号中输入':red_heart:',表示爱心表情的意思。

5、print(emotion)打印一个爱心表情,并运行代码。

6、这时就可以看到一个爱心表情就被打印出来了。

# coding=utf-8

import re

import sys

import time

 

import requests

from lxml import etree

 

import importlib

importlib.reload(sys)

 

#定义一个爬虫

class spider(object):

    def __init__(self):

        print('开始爬取内容。。。')

 

#getsource用来获取网页源代码

    def getsource(self,url):

        html = requests.get(url)

        return html.text

 

#changepage用来生产不同页数的链接

    def changepage(self,url,total_page):

        if re.search('index_(\d+)',url,re.S):

            now_page = int(re.search('index_(\d+)',url,re.S).group(1))   #可修改

        else:

            now_page = 0

        page_group = []

        for i in range(now_page,total_page+1):

            link = re.sub('index_\d+','index_%s'%i,url,re.S)       #可修改

            page_group.append(link)

        return page_group

 

#getpic用来爬取一个网页图片

    def getpic(self,source):

        selector = etree.HTML(source)

        pic_url = selector.xpath('//ul[@class="ali"]/li/div/a/img/@src')   #可修改

        return pic_url

 

#savepic用来保存结果到pic文件夹中

    def savepic(self,pic_url):

        picname=re.findall('(\d+)',link,re.S)    #可修改

        picnamestr = ''.join(picname)

        i=0

        for each in pic_url:

            print('now downloading:{}'.format(each)) 

            pic = requests.get(each)

            fp = open('pic\\'+picnamestr +'-'+str(i)+ '.jpg', 'wb')

            fp.write(pic.content)

            fp.close()

            i += 1

 

#ppic集合类的方法

    def ppic(self, link):

        print('正在处理页面:{}'.format(link))

        html = picspider.getsource(link)

        pic_url = picspider.getpic(html)

        picspider.savepic(pic_url)

 

if __name__ == '__main__':

    start = time.time()

    url = 'http://www.baidu.com/'   #可修改

    picspider = spider()

    all_links = picspider.changepage(url,3)     #可修改

    for link in all_links:

        picspider.ppic(link)

    end = time.time()

    print('耗时:{}'.format(start-end))

代码质量很一般,都懒得细看了,直接给你加了个if判断。

建议看看嵩天教授的爬虫课,那个水平高一点。