文章目录
- Requests
* - 常用的 Response 属性
r.encoding
与r.apparent_encodeing
区别- Requests库异常
- requests 通用的一个代码框架
- requests 7个主要方法与13个访问控制参数
- requests.request() 方法
- requests.get()
- robots 协议
- 实例
– - Beautiful Soup4
* - 简单使用
- bs4库四种解析器
- bs4 库 基本元素
- 基于bs4 遍历
– - prettify 格式化 HTML 信息 以增加可读性
- 信息组织与提取
* - 信息标记
- 信息提取
- 实例
– - bs4 库的html 内容查找 find_all
– - bs4 库的 CSS 选择器 select
- 实例
- 校友会中国高等职业院校2021排名定向爬取
- 淘宝商品信息定向爬虫
- Scrapy 爬虫框架
* - Scrapy 爬虫 提取信息的方法
- 框架 5+2 结构
- 框架的数据路径
- requests 和 scrapy
- scrapy 命令行
– - 实例
- yield 关键字
- 摘录
Requests
import requests
url = 'http://blog.wpnet.info'
r = requests.get(url)
print('URL内容:',r.text)
print("Response:",type(r))
print('状态码',r.status_code)
print('头部:',r.headers)
print('编码格式:',r.encoding)
print('分析编码方式',r.apparent_encoding)
print('二进制方式显示HTTP响应:',r.content)
r = requests.get(url)
返回一个 Response 类
r.status_code
返回一个状态码
r.headers
返回页面的头部信息
这个头部信息其实就是浏览器中 response headers
中的信息
而 Response 对象包含服务器返回的所有信息,也包含我们向服务器请求信息
常用的 Response 属性
属性说明r.status_code返回HTTP状态码r.text访问的URL页面内容r.encoding猜测相应编码方式r.apparent_encodeing从内容中分析相应编码方式(备用)r.contentHTTP响应以二进制方式显示(图片等)
r.encoding
与 r.apparent_encodeing
区别
r.encoding
是 从 头部 得到的,而 r.apparent_encodeing
是 分析内容得到的,并不是所有服务器都有这个头部信息,如果没有这个头部信息,它会返回一个国际标准编码 ISO-8859-1
它不支持中文。
; Requests库异常
异常说明requests.ConnectionError网络连接异常,拒绝连接等requests.HTTPErrorHTTP 错误异常requests.URLRequiredURL 缺失异常requests.TooManyRedirects超过最大重定向,重定向异常requests.ConnectionError连接服务器超时异常requests.Timeout请求URL超时异常
requests.Timeout 表示整个过程超时
requests.ConnectionError 只是连接异常
requests 通用的一个代码框架
import requests
def getText(url):
try:
r = requests.get(url,timeout = 5)
r.raise_for_status()
r.encoding = r.apparent_encoding
return r.text
except Exception as exc:
print('异常:',exc)
exit(0)
if __name__ == '__main__':
url = 'http://blog.wpnet.info'
text = getText(url)
print(text)
requests 7个主要方法与13个访问控制参数
方法说明requests.request()构造一个请求,支撑以下各种方法的基础方法requests.get()HTTP get方式requests.post()HTTP post 方式requests.head()获取请求头requests.putHTTP put 方式requests.patch()向网页局部修改请求requests.delete()向网页提交删除请求
; requests.request() 方法
requests.request() 方法有三个参数,分别是
- method:请求方式(get,post,put 等)
- url:目标
- **kwargs(13个控制访问参数)
- params:( 字典或字节序列)作为参数增加到url中(get)
import requests
url = 'http://blog.wpnet.info'
mdict = {
'key1': 'value1',
'key2': 'value2'
}
r = requests.request('GET',url,params=mdict)
print(r.url)
- data:( 字典,字节序列,文件对象,文件是通过post传递的)类似params一样的功能与参数,不过它放在post的body里(post)
- json:( json格式)数据传递
- headers:( 字典)自定义HTTP头
import requests
url = 'http://blog.wpnet.info'
mdict = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36'
}
r = requests.request('get',url,headers= mdict)
print(r.text)
1. cookies:( 字典或CookieJar)自定义Cookie
2. auth:( 元组)HTTP 认证功能
3. files:( 字典)传输文件
import requests
url = 'http://blog.wpnet.info'
fp = {
'file':open('test.txt','rb')
}
r = requests.request('POST',url,files=fp)
print(r.text)
1. timeout:( 数值)超时,单位秒
2. proxies:( 字典)设置代理服务器
3. allow_redirects:( 布尔)默认为True,重定向开关
4. stream:( 布尔)默认为True,获取内容立即下载开关
5. verify:( 布尔)默认为True,认证 SSL 证书开关
6. cert:( 字符串)本地 SSL 证书路径
requests.get()
requests.get() 方法提供三个参数
- url:(字符串)目标
- params:(字典,字节流)参数
- **kwargs:12个访问控制参数
import requests
url = 'http://blog.wpnet.info'
mdict = {
'key1':'value1',
'key2':'value2'
}
r = requests.get(url,params=mdict)
print(r.text)
其它方法基本与 requests.request() 参数与控制参数基本上一致
robots 协议
通过基本语法告知爬虫那些目录可以访问,那些不能访问,robots.txt 一定放网站根目录,如果没有robots.txt,代表允许无限制访问以及爬取内容
https://www.baidu.com/robots.txt
- 代表所有
/ 代表根目录
User-agent 代表那些爬虫
Disallow 代表不允许爬虫访问的目录
; 实例
爬取京东商品
https://item.jd.com/2967929.html
import requests
def getjd(url):
header = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.77 Safari/537.36'
}
r = requests.request('GET',url,headers = header)
status = r.status_code
if status != 200:
print('状态码错误')
exit(0)
if r.encoding == 'ISO-8859-1':
r.encoding = r.apparent_encoding
print(r.text[:1000])
if __name__ == '__main__':
url = 'https://item.jd.com/2967929.html'
getjd(url)
百度360 搜索关键词提交
百度&360api:
https://www.baidu.com/s?wd=keyword
https://www.so.com/s?q=keyword
import requests
def getsearch(url,keyword,select):
header = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36'
}
if select == '1':
keyword = {'wd':keyword}
elif select == '2':
keyword = {'q':keyword}
r = requests.get(url,params = keyword,headers = header)
if r.status_code != 200:
print('状态错误:',r.status_code)
exit(0)
elif r.encoding == 'ISO-8859-1':
r.encoding = r.apparent_encoding
print(r.text)
if __name__ == '__main__':
baidu_url = 'https://www.baidu.com/s'
qihu_url = 'https://www.so.com/s'
keyword = str(input('关键词: '))
while True:
select = input('百度:1 360:2 :')
if select == '2':
url = qihu_url
break
elif select == '1':
url = baidu_url
break
elif select == 'exit':
exit(0)
elif select != '1' or '2' or 'exit':
print('输入无效重新输入(exit退出)')
print(select)
getsearch(url,keyword,select)
爬取一个站点的所有图片
import requests
import bs4
import os
def getimage(url):
header = {
'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/99.0.3538.77 Safari/537.36'
}
r = requests.request('GET',url,headers = header)
if r.encoding == 'ISO-8859-1':
r.encoding = r.apparent_encoding
elif r.status_code != 200:
print('状态错误: ',r.status_code)
exit(0)
src = bs4.BeautifulSoup(r.text,'html.parser')
listsrc = src.find_all('img')
listimg = []
for i in listsrc:
listimg.append(i.attrs['src'])
dir = os.getcwd() + r'\images'
if not os.path.exists(dir):
os.mkdir(dir)
for i in listimg:
image = dir + '\\' + i.split(r'/')[-1]
if not os.path.exists(image):
if i.split(r'/')[0] != 'http' or 'https':
i = url + i
image_download = requests.get(i,headers=header)
if image_download.status_code == 200:
try:
with open(image,'wb') as file:
file.write(image_download.content)
except Exception as exc:
print('异常:',exc)
print('正在下载: ',i)
print('ok')
if __name__ == '__main__':
url = 'https://cc.cqcet.edu.cn/'
getimage(url)
API接口解析
接口一般不需要 header 头,数据返回的一般是json格式,进行json反序列化取出即可
import requests
import json
def getipaddr(ip):
key = 'null'
url = f'https://binstd.apistd.com/ip/location?ip={ip}&key={key}'
r = requests.request('GET',url)
if r.status_code != 200:
print('网络故障或 key 错误')
exit(0)
info = r.text
info = json.loads(info)
country = info['result']['country']
ip = info['result']['ip']
addr = info['result']['area']
types = info['result']['type']
info = [
country,
ip,
addr,
types
]
return info
if __name__ == '__main__':
ip = input('查询IP: ')
info = getipaddr(ip)
print('国家: ' + info[0] + ' IP: ' + info[1] + ' 地址: ' + info[2] + ' 类型: ' + info[3])
Beautiful Soup4
bs4 一般搭配 requests 使用或者直接解析 .html 文件,对bs4 中,在实例化之后对自己的处理就是对 html 内容的处理。
简单使用
import requests
import bs4
def getimage(url):
r = requests.request("GET",url)
url_text = r.text
soup = bs4.BeautifulSoup(url_text,'html.parser')
print(soup.prettify())
if __name__ == '__main__':
url = 'http://blog.wpnet.info/'
getimage(url)
soup = bs4.BeautifulSoup(url_text,'html.parser')
使用 Bs4中 BeautifulSoup 以 html解析的方式解析 url_text
bs4库四种解析器
解析器条件bs4的HTML解析器(bs4.BeautifulSoup(url_text,’html.parser’))bs4库自带lxml的HTML解析器 (bs4.BeautifulSoup(url_text,’lxml’))安装 lxmllxml的XML解析器 (bs4.BeautifulSoup(url_text,’xml’))安装 lxmlhtml5lib的解析器 (bs4.BeautifulSoup(url_text,’html5lib’))安装 html5lib
bs4 库 基本元素
五种基本元素
基本元素说明tag标签name标签名,格式:.nameattributes标签属性,格式:.attrsnavigablestring标签内非属性字符串,格式:.stringcomment标签内注释的内容,特殊类型
import requests
import bs4
def getimage(url):
r = requests.request("GET",url)
url_text = r.text
soup = bs4.BeautifulSoup(url_text,'html.parser')
print(soup.a)
print(soup.a.parent.name)
print(soup.a.attrs)
print(soup.a.string)
if __name__ == '__main__':
url = 'http://blog.wpnet.info/'
getimage(url)
基于bs4 遍历
bs4 的 HTML 标签的遍历分为
- 向下遍历
- 向上遍历
- 平行遍历
向下遍历
向上遍历
平行遍历
向下遍历
属性说明.contents一个节点的子节点的列表,将所有子节点存列表.children一个节点的子节点的迭代类型,与 contents 类似.descendants一个节点后所有的子孙节点的迭代类型,包含所有子孙节点
import requests
import bs4
def getimage(url):
r = requests.request("GET",url)
url_text = r.text
soup = bs4.BeautifulSoup(url_text,'html.parser')
print(soup.head.contents)
print(len(soup.head.contents))
print(soup.head.contents[1])
for label in soup.head.children:
print(label)
if __name__ == '__main__':
url = 'http://blog.wpnet.info/'
getimage(url)
向上遍历
属性说明.parent节点的父亲标签.parents父亲节点的迭代,用于遍历
import requests
import bs4
def getimage(url):
r = requests.request("GET",url)
url_text = r.text
soup = bs4.BeautifulSoup(url_text,'html.parser')
print(soup.html.parent)
print('--------------------------------')
for label in soup.a.parents:
if label == None:
print(label)
else:
print(label.name)
if __name__ == '__main__':
url = 'http://blog.wpnet.info/'
getimage(url)
平行遍历
平行遍历需要同一个父类标签
平行遍历的下一数据不一定是标签
属性说明.next_sibling按HTML 文本顺序的下个平行节点标签.pravious_sibling按HTML 文本顺序的上一个平行标签.next_siblings迭代类型,按HTML 顺序的后续所有平行标签.previous_siblings迭代类型,按HTML 文本顺序的前序所有平行标签
prettify 格式化 HTML 信息 以增加可读性
prettify()
函数可以在每个标签后面加上换行,从而格式化有些不标准的html 信息,让数据具有跟高的可读性。
import requests
import bs4
def getimage(url):
r = requests.request("GET",url)
url_text = r.text
soup = bs4.BeautifulSoup(url_text,'html.parser')
print(soup)
print('--------------------------------------------')
print(soup.prettify())
if __name__ == '__main__':
url = 'https://python123.io/ws/demo.html'
getimage(url)
信息组织与提取
- 标记后的信息可以形成组织结构,增加信息纬度
- 标记后的信息用于通信,存储
- 标记后的信息便于人类理解
信息标记
国际信息标记一般三种形式
- xml
- json
- yaml
信息提取
信息提取一般方法
- 完整提取信息,在提取关键信息
– 优点:信息解析准确
– 缺点:效率低,需完全了解信息结构 - 无视标记形式,通过正则等关键字提取
– 优点:提取效率高
– 缺点:需要调试正确内容 - 结合前两种方法
实例
提取一个HTML 中的所有超连接
import requests
import bs4
def getinfo(url):
r = requests.request('GET',url)
if r.status_code != 200:
print('status error:',r.status_code)
exit(0)
r_text = r.text
soup = bs4.BeautifulSoup(r_text,'html.parser')
for i in soup.find_all('a'):
add = str(i.get('href'))
if add.split('//')[0] == 'https:' or add.split('//')[0] == 'http:':
print(add)
else:
print(url+add)
if __name__ == '__main__':
url = 'http://blog.wpnet.info'
getinfo(url)
bs4 库的html 内容查找 find_all
ba4 库中有个 f ind_all
方法,用于查找对应结果 ,它有 五个参数
find_all(name,attrs,recursive,string,**kwargs)
参数作用name对标签名称进行检索attrs对标签属性值检索recursive是否对子孙标签全部检索(默认True)string对标签中字符串区域检索
find_all 方法的简写
<tag>(...) === <tag>.find_all(...)</tag></tag>
soup(...) === soup.find_all(...)
虽然可以这样写,但不建议这样写,可读性并不高
import requests
import bs4
def getinfo(url):
r = requests.request('GET',url,timeout = 5)
if r.status_code != 200:
print('status error:',r.status_code)
exit(0)
r_text = r.text
soup = bs4.BeautifulSoup(r_text,'html.parser')
print(soup.find_all('a','hover-underline'))
print(soup.find_all(string = '信息安全'))
print(soup(string='信息安全'))
if __name__ == '__main__':
url = 'http://blog.wpnet.info'
getinfo(url)
bs4 find 系列的其它 七个 方法
除了常用的 find_all() 方法以外的七种方法
方法描述find()搜索但只返回一个结果,返回字符串find_parents()在先辈节点中搜索,返回列表find_parent()在先辈节点中搜索但只返回一个结果,返回字符串find_next_siblings()在后续平行节点中搜索,返回列表find_next_sibling()在后续平行节点中搜索但只返回一个结果,返回字符串find_previous_siblings()在前序平行节点中搜索,返回列表find_previous_sibling()在前序平行节点中搜索但只返回一个结果,返回字符串
bs4 库的 CSS 选择器 select
soup.select('title')
soup.select('html body p')
soup.select('div [class="text"]')[0]
soup.select('div [class="text"]')
实例
校友会中国高等职业院校2021排名定向爬取
ps:截至2021/07/10 校友会 无robots信息,可以合法爬取。
http://www.cuaa.net/paihang/news/news.jsp?information_id=137267
假设我们只需要 2021校友会中国高职院校排名(I类) 这个表里面的信息
import requests
import bs4
import re
def gettext(url):
header = {
'user-agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36'
}
r = requests.request('GET',url,headers = header,timeout = 10)
if r.status_code != 200:
print('status error :',r.status_code)
exit(0)
r.encoding = r.apparent_encoding
url_text = r.text
return url_text
def gethtmllist(html_text):
soup = bs4.BeautifulSoup(html_text,'html.parser')
div_att = soup.find_all(attrs={'class':'text'})[0]
selecttag = div_att.find_all()
for i in selecttag:
if "2021校友会中国高职院校排名(I类)" == i.get_text():
value = bs4.BeautifulSoup(str(selecttag[selecttag.index(i)+6]),'html.parser')
getvalue = value.find(attrs={'align':'center'})
return str(getvalue)
def reg(getvalue):
info_dict = []
rank = re.compile(r'>(.*\d))
rank = rank.findall(getvalue)
name = re.compile(r'\n(.*)')
name = name.findall(getvalue)
name.pop(0)
num = re.compile(r'(\d*.*) ')
num = num.findall(getvalue)
chenci = re.compile(r'(.*)')
chenci = chenci.findall(getvalue)
chenci.pop(0)
for n in range(len(name)):
info_dict.append({"校名": name[n], "名次": rank[n],"分数":num[n],"层次":chenci[n]})
sorted(info_dict, key=lambda i: (i["名次"]))
return info_dict
if __name__ == '__main__':
url = 'http://www.cuaa.net/paihang/news/news.jsp?information_id=137267'
html_text = gettext(url)
getvalue = gethtmllist(html_text)
info = reg(getvalue)
print(info)
淘宝商品信息定向爬虫
ps:截至2021/07/10 淘宝网 robots信息仅不允许
baiduspider爬取,其它爬虫可以合法爬取。
假设我需要爬取鼠标相关信息,分析 url,每个页面为 44个 商品,参数变量 s 就是商品的编号
第一页:
第二页:
第三页
import requests
import re
def get_text(url):
cookie_str = 'null'
header = {
'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Brave Chrome/90.0.4430.72 Safari/537.36'
}
cookie = {
}
for i in cookie_str.split(';'):
key,value = i.strip().split('=',1)
cookie[key] = value
r = requests.request('GET',url,headers=header,cookies=cookie)
if r.status_code != 200:
print('status_error:',r.status_code)
exit(0)
r.encoding = r.apparent_encoding
return r.text
def get_info(url_text):
price = re.compile(r'\"view_price\":\"(\d+\.\d*)')
price = price.findall(url_text)
area = re.compile(r'\"item_loc\":\"(\D+)\",')
area = area.findall(url_text)
paynum = re.compile(r'\"view_sales\":\"(.+?)\"')
paynum = paynum.findall(url_text)
name = re.compile(r'\"nick\":\"(\D*)\",')
name = name.findall(url_text)
print(price)
print(area)
print(name)
print(paynum)
print(len(name))
def main():
depth = 2
findname = '鼠标'
url = "https://s.taobao.com/search?q={}".format(findname)
for i in range(depth):
try:
url = url + '&s=' + str(44*i)
url_text = get_text(url)
get_info(url_text)
except:
print('error')
if __name__ == '__main__':
main()
Scrapy 爬虫框架
- Request 类
Request 类 和 Request 库不是一个东西,但跟request库相似
属性或方法说明.urlrequest对应请求的URL地址.method对应的请求方法,’GET”POST’等.headers请求头.body请求内容主体,字符串类型.meta用户添加扩展信息,在scrapy内部模块传递使用.copy()复制该请求
- Response类
对应一个HTTP响应,由downloader生成,由 spider 处理
属性或方法说明.urlResponse对应的URL地址.statusHTTP状态码.headers响应头.bodyResponse响应内容,字符串类型.flags标记.request产生Response类的对应Request对象.copy()复制该响应
- Item类
表示一个HTML页面中提取的信息内容
由 spider 生成,由 Item Pipeline 处理
Item类似字典类型
Scrapy 爬虫 提取信息的方法
- Bs4
- lxml
- re
- Xpath
- CSS select
框架 5+2 结构
五个主要模块
其中 ENGINE
SCHEDULER
DOWNLOADER
一般无需用户修改
- SPIDERS(常用)
解析downloader返回的 response ,产生爬取项,请求 - ENGINE(核心)
控制所有模块的数据流 - SCHEDULER
调度管理 - DOWNLOADER
根据请求下载网页 - INTERNET
两个中间件
- MIDDLEWARE
对 ENGINE SCHEDULER DOWNLOADER 模块进行用户可配置控制(修改,丢弃,新增请求) - ITEM PIPELINES
以流水线处理 SPIDERS 的 爬取项
框架的数据路径
路径1
REQUESTS
转发
SPIDERS
ENGINE
SCHEDULER
对爬取请求进行调度
路径2
REQUESTS 步骤1
REQUESTS 步骤2
RESPONSE 步骤3
RESPONSE 步骤4
SCHEDULER
ENGINE
DOWNLOADER
SPIDERS
requests 和 scrapy
相同点
- 可用性好,文档丰富
- 均为爬虫
不同点
requestsscrapy网页级爬虫网站级爬虫功能库框架并发性不足性能高重点页面下载重点爬虫结构定制灵活一般定制灵活,深度困难简单相对requests困难
scrapy 命令行
scrapy
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-U9K0EIlI-1626343395582)(en-resource://database/1681:1)]
常用命令
命令说明格式startproject创建一个新工程scrapt startproject [dir]genspider创建一个爬虫scrapy genspider [options] settings获得爬虫配置信息scrapy settings [option]crawl运行一个爬虫scrapy crawl list列出工程中所有爬虫scrapy listshell启动 URL 调试命令行scrapy shell [url]
实例
- 新建 scrapy 工程
scrapy startproject wpsecblog
- 编写 scrapy 爬虫
scrapy genspider wpsec blog.wpnet.info
创建一个工程后会生成一些目录
- scrapy.cfg
部署scrapy爬虫的配置文件 - wpsecblog外层目录
– init.py 初始化脚本
– items.py Items 代码模板(继承类)
– middlewares.py Middlewares代码模板(继承类)
– pipelines.py Pipelines代码模板(继承类)
– settings.py scrapy爬虫配置文件
– spiders/ 当前工程的爬虫
创建爬虫后会在 spiders 目录下生成一个你的爬虫
- 修改 spider 内容
爬取一个页面并保存它
import scrapy
class WpsecSpider(scrapy.Spider):
name = 'wpsec'
allowed_domains = ['blog.wpnet.info']
start_urls = ['http://blog.wpnet.info/index.html']
def parse(self, response):
fname = response.url.split('/')[-1]
with open(fname, 'wb') as file:
file.write(response.body)
pass
- 运行
scrapy crawl wpsec
爬取并保存的相关文件
yield 关键字
yield
- 生成器就是一个不断生产的函数
- 包含yield语句的函数是一个生成器
- 生成器每次生产一个值(yield语句),函数被冻结,被唤醒后再生产一个值
摘录
北京理工大学 嵩天-Python网络爬虫与信息提取
Original: https://blog.csdn.net/qq_38626043/article/details/118658685
Author: _abcdef
Title: Python 开发-网络爬虫与信息提取(Requests,Beautiful Soup4,Scrapy)
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/789596/
转载文章受原作者版权保护。转载请注明原作者出处!