爬虫日记(13):scrapy提取超级连接

爬虫能够不断地向各个地方漫游,得益于它有识别道路的能力,这里所谓的道路就是超级连接。虽然从种子的网页出发,它就会根据下载的网页来识别下一个网页,通过这样的方式,就可以遍历整个网站,从而把所有网页分析一遍,从中拿到我们需要信息。比如你想下载一部网上的小说,而这本小说有1000页,如果你让从头点到尾,需要点击1000次。如果采用爬虫来解决,只需要给出首页,就可以解决了。不过,你需要指定爬虫怎么样从首页里拿到下一页的超级连接。本文将要来学习这方面的内容,这是编写爬虫的基本知识。

继续从前面的抓取名言为例,之前只是爬取了 http://quotes.toscrape.com的两个页面,如果让你爬取整个网站,又需要怎么来处理呢。

上一篇已经学习了从网页里抓取数据,这次继续来学习抓取超级连接。首要的任务就是抓取下一页的超级连接,回过头来查看网页的源码,会发现下一页的超级连接是这样的:

Next

Original: https://blog.csdn.net/caimouse/article/details/114712279
Author: caimouse
Title: 爬虫日记(13):scrapy提取超级连接

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/791691/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球