微信文章关键词爬虫教程原创 什么是爬虫计划?

[更新]
·
·
分类:互联网
4165 阅读

微信文章关键词爬虫教程原创

什么是爬虫计划?

什么是爬虫计划?

爬虫计划是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。
另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。
例如传统的通用搜索引擎AltaVista,Yahoo和Google等,作为一个辅助人们检索信息的工具成为用户访问万维网的入口和指南。
但是,这些通用性搜索引擎也存在着一定的局限性,如:
(1)不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。
(2)通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。
(3)万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。
(4)通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。
为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。
聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。
与通用爬虫不同,聚焦爬虫并不追求大的覆盖,而将目标定为抓取与某一特定主题内容相关的网页,为面向主题的用户查询准备数据资源。

用Python写一个爬虫,做一个冷门行业的搜索引擎,能实现吗?

可以实现,先说一下思路。首先我们要通过爬虫把这些冷门行业的相关数据都爬下来,然后把这个行业相关的数据库存储到数据库,做一个分类,之后在数据库这边做一个查询。
在开始之前需要了解的一些东西:搜索引擎主要有两部分:
1.爬虫:也就是离线以获取数据
2.检索系统:在线查询数据,完成用户交互
开源工具:
Python爬虫Scrapy
Java检索系统:Elasticsearch/Solr
Python相关知识点:
如果只是用Python实现爬虫的这样的项目的话,需要学习的内容是上图当中的Python基础知识,python高级,前端开发以及爬虫开发。Python爬虫的重点是不在于Python,而是网络爬虫。
下面说该问题原理:向浏览器请求文档
分析分类我们所返回的文档
从中提取中自己想要的信息
针对上述上个步骤:
首先要了解HTTP,这里可以用Python的requests库,要知道GET和POST请求页面
对响应的文档做分析,所以必须要知道的是HTML,这个很简单;在处理HTML文档可以用库有BesutifulSoup和lxml等等,搜索一下这些库的DOC
学习BesutifulSoup等库,用select等方法提取你要的信息,在这中间可能会碰到编码问题或者要学习正则表达式。