下载及使用Scrapy进行爬虫

Windows环境下

安装wheel:pip install wheel
安装scrapy: pip install scrapy
安装成功测试

下载及使用Scrapy进行爬虫
做个Demo
首先建立 项目包
下载及使用Scrapy进行爬虫
cd SZPT 切换到此目录

创建srcapy工程:命令行输入命令
scrapy startproject szpt
在当前目录下创建如图所示的工程文件。
2.

切换到当前工程目录,
cd szpt

下载及使用Scrapy进行爬虫
3.

打开spiders目录下的szptcrawler.py文件,修改加入如下代码:

    def parse(self, response):
        fname = 'szpt.html'
        with open(fname, 'wb') as f:
            f.write(response.body)
        self.log('saved file %s' % fname);

4
命令行窗口输入命令:scrapy crawl szptcrawler。
可以看到当前工作目录下由scrapy下载的学校首页网页文件。

我的目录

下载及使用Scrapy进行爬虫

最后可以看到 szpt.html 已经生成了!!!

注意事项

第二点如果没有切换到正确的目录 szptcrawler会生成在根目录下面

Original: https://blog.csdn.net/csnz123123/article/details/116244268
Author: CSNZのBlog
Title: 下载及使用Scrapy进行爬虫

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/792382/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球