用python爬取关键词并解释

Python025

用python爬取关键词并解释,第1张

Copyright © 1999-2020, CSDN.NET, All Rights Reserved

python

打开APP

小羊努力搞代码

关注

学习日志:Python 实现网络爬虫——提取关键字 原创

2022-06-19 13:02:38

小羊努力搞代码

码龄174天

关注

编写一段Python代码,向百度提交查询关键词“桃花源记”,抓取百度的查询结果,要求有文字、链接,可以在浏览器中打开抓取的链接,或者调用浏览器打开抓取的链接。

红框内是根据网站信息需要更改的内容。57031baa3a394395be479ad89f1ff15e.png

附上完整代码:

import json

import requests

from lxml import etree

headers = {

"User-Agent":"Mozilla/5.0 (Windows NT 10.0WOW64) AppleWebKit/537.36 (KHTML, like Gecko) "

"Chrome/88.0.4324.104 Safari/537.36"

}

response = requests.get('https://www.baidu.com/s?wd=桃花源记&lm=0', headers=headers)

r = response.text

html = etree.HTML(r, etree.HTMLParser())

r1 = html.xpath('//h3')

r2 = html.xpath('//*[@class="content-right_8Zs40"]')

r3 = html.xpath('//*[@class="c-row source_1Vdff OP_LOG_LINK c-gap-top-xsmall"]/a/@href')

for i in range(4):

r11 = r1[i].xpath('string(.)')

r22 = r2[i].xpath('string(.)')

r33 = r3[i]

with open('桃花源记.txt', 'a', encoding='utf-8') as c:

c.write(json.dumps(r11,ensure_ascii=False) + '\n')

c.write(json.dumps(r22, ensure_ascii=False) + '\n')

c.write(json.dumps(r33, ensure_ascii=False) + '\n')

print(r11, end='\n')

print('------------------------')

print(r22, end='\n')

print(r33)

8684公交线路爬取

import requests

from lxml import etree

items=[]

headers={

"User-Agnet":"Mozilla/5.0 (MacintoshIntel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36"

}

def parse_navigation():

url=' https://beijing.8684.cn/'

r=requests.get(url,headers=headers)

#解析内容,获取所有的导航链接#

tree=etree.HTML(r.text)

#查找以数字开头的所有链接#

number_href_list=tree.xpath('//div[@class="depth"]/div[2]/div[1]/div/a/@href')

#查找以字母开头的所有链接

char_href_list=tree.xpath('//div[@class="depth"]/div[2]/div[2]/div/a/@href')

#将需要爬取的所有链接返回

return number_href_list+char_href_list

def parse_erji_route(content):

tree=etree.HTML(content)

#写xpath,获取每一个线路

route_list=tree.xpath('//div[@class="cc-content"]/div[2]/a/@href')

route_name=tree.xpath('//div[@class="cc-content"]/div[2]/a/text()')

i=0

#遍历上面这个列表

for route in route_list:

print('开始爬取%s线路'%route_name[i])

route=' https://beijing.8684.cn'+route

r=requests.get(url=route,headers=headers)

#解析内容,获取每一路公交的详细信息

parse_sanji_route(r.text)

print('结束爬取%s线路'%route_name[i])

i+=1

def parse_sanji_route(content):

tree=etree.HTML(content)

#依次获取内容

bus_number=tree.xpath('//div[@class="bus-lzinfo mb20"]/div[2]/h1/text()')[0]

#获取运行时间

run_time=tree.xpath('//div[@class="bus-lzinfo mb20"]/div[2]/ul/li[1]/text()')[0]

#获取票价信息

ticket_info=tree.xpath('//div[@class="bus-lzinfo mb20"]/div[2]/ul/li[2]/text()')[0]

#获取更新时间

gxsj=tree.xpath('//div[@class="bus-lzinfo mb20"]/div[2]/ul/li[4]/text()')[0]

#获取上行总站数

total_list=tree.xpath('//div[@class="bus-excerpt mb15"]/div[2]/div/text()')

up_total=total_list[0]

#将里面的空格给去掉

up_total=up_total.replace('\xa0','')

print(up_total)

#获取上行所有站名

up_site_list=tree.xpath('//div[@class="bus-lzlist mb15"][1]//li/a/text()')

print(up_site_list)

exit()

try:

#获取下行总站数

down_total=total_list[1]

#获取下行所有站名

down_site_list=tree.xpath('//div[@class="bus-lzlist mb15"][2]//li/a/text()')

except Exception as e:

down_total=''

down_site_list=[]

#将每一条公交线路信息放到字典中

item={

'线路名':bus_number,

'运行时间':run_time,

'票价信息':ticket_info,

'更新时间':gxsj,

'上行站数':up_total,

'上行站点':up_site_list,

'下行站数':down_total,

'下行站点':down_site_list,

}

items.append(item)

def parse_erji(navi_list):

#遍历上面的列表,依次发送请求,解析内容,获取每一个页面所有的公交路线url

print(navi_list)

for first_url in navi_list:

first_url=' https://beijing.8684.cn'+first_url

print('开始爬取%s所有的公交信息'%first_url)

r=requests.get(url=first_url,headers=headers)

#解析内容,获取每一路公交的详细url

parse_erji_route(r.text)

print('结束爬取%s所有的公交信息'%first_url)

def main():

#爬取第一页所有的导航链接#

navi_list=parse_navigation()

#爬取二级页面,需要找到以1开头的所有公交路线

parse_erji(navi_list)

#爬取完毕

fp=open('文件保存路径','w',encoding='utf8')

for item in items:

fp.write(str(item)+'\n')

fp.close()

if name ==' main ':

main()