python访问抓取网页常用命令总结
python访问抓取网页常用命令
简单的抓取网页:
import urllib.request url="http://google.cn/" response=urllib.request.urlopen(url) #返回文件对象 page=response.read()
直接将URL保存为本地文件:
import urllib.request url="http://google.cn/" response=urllib.request.urlopen(url) #返回文件对象 page=response.read()
POST方式:
import urllib.parse import urllib.request url="http://liuxin-blog.appspot.com/messageboard/add" values={"content":"命令行发出网页请求测试"} data=urllib.parse.urlencode(values) #创建请求对象 req=urllib.request.Request(url,data) #获得服务器返回的数据 response=urllib.request.urlopen(req) #处理数据 page=response.read()
GET方式:
import urllib.parse import urllib.request url="http://www.google.cn/webhp" values={"rls":"ig"} data=urllib.parse.urlencode(values) theurl=url+"?"+data #创建请求对象 req=urllib.request.Request(theurl) #获得服务器返回的数据 response=urllib.request.urlopen(req) #处理数据 page=response.read()
有2个常用的方法,geturl(),info()
geturl()的设置是为了辨别是否有服务器端的网址重定向,而info()则包含了一系列的信息。
中文问题的处理,会用到 encode()编码 dencode()解码:
感谢阅读,希望能帮助到大家,谢谢大家对本站的支持!
相关推荐
HopKins 2017-09-26
andrewwf 2020-11-11
AI启蒙研究院 2020-10-23
kkkmmmjjjj 2020-10-22
huang00 2020-10-12
Safari浏览器 2020-01-18
登峰小蚁 2020-01-11
chouliqingke 2019-12-17
haocxy 2013-12-12
Batkid0 2015-03-04
javaraylu 2012-06-19
YichengGu 2010-12-21
greatking 2010-07-22
小方哥哥 2019-07-01
aikaibo 2013-04-05
fangjack 2012-02-01