python网络爬虫(二)requests库的基本介绍和使用
一、requests库的七个重要方法
(1)最常用方法:requests.get(url,params=None,**kwargs)//对应HTTP协议的GET()操作 (请求获得URL位置的资源)
① url:拟获取页面的url链接。url:在WWW上,每一信息资源都有统一的且在网上唯一的地址,
该地址就叫URL(Uniform Resource Locator,统一资源定位符),它是WWW的统一资源定
位标志,就是指网络地址。例:http://baidu.com
② params:url中的额外参数,字典或字节流格式,可选字段
③ **kwargs:12个控制访问的参数(在下一篇文章会具体介绍参数的具体内容哦~)
(2)最基础的方法:requests.request()
构造一个请求,支撑6个剩余方法的基础方法,查看其他6个方法的解释(用help函数)
会发现基本上是由request()方法写的
(3)requests.head()
对应HTTP协议的HEAD操作 (请求获取URL位置的资源的响应消息报告,即获得该资源的头部信息)
head() 反馈头部信息
(4)requests.post()
对应HTTP协议的POST操作 (请求向URL位置的资源后附加新数据)
post()方法向服务器提交新增数据
例:向URL post一个字典时自动编码为form(表单)
向URL post一个字符串时自动编码为data
(5)requests.put()
对应HTTP协议的PUT操作(请求向URL位置存储资源(覆盖原URL位置资源))
(6)requests.patch()
对应HTTP协议的PATCH操作(请求局部更新URL位置的资源)
post()方法向服务器提交新增局部数据,和put不同的是,只修改某个参数,其他的和之前的
一样;但是post()会覆盖之前的数据,若提交了修改的数据,则其他的就相当于丢失.
(7)requests.delete()
对应HTTP协议的DELETE操作(请求删除URL位置存储的资源)
delete()删除资源
--------------------??????我也是初学 python爬虫博客园小白一枚~~~~??????--------------------
--------------------??????-只是希望能够加强自己记忆的同时帮助到他人??????------------------
--------------------??????如果有错误请在评论区温柔指出哦~~~~谢谢~~??????-----------------
---------下篇将更新具体requests库的13个控制访问参数的使用和简单的5个爬虫小案例----------