[windows] anaconda 安装 scrapy
本文记录使用 anaconda 安装 scrapy.
下载和安装 anaconda
https://docs.anaconda.com/anaconda/install/
我的环境是 windows. 所以安装过程比较简单. 在这里我勾选了两个 checkbox
然后持续点击 next, 直到安装完成.
安装 scrapy
打开 anaconda cmd
执行
conda install scrapy
此时输入
scarpy
会看到
通常会一次成功,在安装过程中,一定不要中断,否则下次安装因之前的文件不会删除,会提示失败。可能需要执行一次
conda clean --lock
使用 scrapy 创建第一个爬虫项目
scrapy startproject tutorial
然后使用 vs code 打开文件夹
创建爬虫文件, 代码如下
import scrapy class QuotesSpider(scrapy.Spider): name = "quotes" def start_requests(self): urls = [ ‘http://quotes.toscrape.com/page/1/‘, ‘http://quotes.toscrape.com/page/2/‘, ] for url in urls: yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): page = response.url.split("/")[-2] filename = ‘quotes-%s.html‘ % page with open(filename, ‘wb‘) as f: f.write(response.body) self.log(‘Saved file %s‘ % filename)
你可能会发现 import scrapy
报错: Unable to import scrapy package, 解决方案如下:
此处需要为 vs code 指定一个解释器, 来自 Stack Overflow 的解释: Unable to import scrapy package
ctrl + shift + p
输入
Python: Select Interpreter
我选 anaconda
进入顶层folder目录执行
scrapy crawl quotes
useful links
http://www.scrapyd.cn/doc/124.html
https://www.jianshu.com/p/6bc5a4641629
相关推荐
jameslaughing 2020-07-04
NANGEBOKE 2020-06-08
pointfish 2020-05-19
ujm0 2020-05-07
magicandy 2020-05-01
chongtianfeiyu 2020-04-27
流云追风 2020-04-25
AndesStay 2020-04-24
Dimples 2020-04-07
shawroad 2020-02-21
zcyuefan 2020-02-20
JackLang 2020-02-18
JamesRayMurphy 2020-02-15
lybbb 2020-02-02
lybbb 2020-01-12
amazingbo 2020-01-08
singer 2020-01-05
taiyangshenniao 2019-12-07
yangj0 2019-12-02