【scrapy专题】搭建环境

目录

安装依赖包

  1. lxml
  2. twisted
  3. cryptography
  4. pyOpenSSL
  5. w3lib
  6. parsel

安装package–scrapy

通过镜像源网址下载

前往https://www.lfd.uci.edu/~gohlke/pythonlibs/下载下述包进行安装注意选择适合自己的python环境

  1. lxml
  2. Twisted
  3. scrapy

通过conda 下载

conda install -c conda-forge scrapy

通过pip下载

pip install Scrapy

生成scrapy工程

  1. cd 到工程目录下
  2. scrapy startproject ArticleSpider
  3. cd ArticleSpider
  4. scrapy genspider cnblogs www.cnblogs.com
    【scrapy专题】搭建环境

; 运行

指令运行

切换到刚刚生成工程的路径下
scrapy crawl cnblogs

pycharm中运行

【scrapy专题】搭建环境

Original: https://blog.csdn.net/qq_34954047/article/details/122251962
Author: 域中四大
Title: 【scrapy专题】搭建环境

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/790014/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球