一个爬取百度的利器
简体中文
|
繁體中文
|
English
快速上手 »
查看示例
·
报告问题
·
请求需求
搜索引擎是一个十分强大的工具,如果能让其他工具集成搜索引擎的众多强大功能,那么这些工具必将变得更加强大。但目前我没有找到一个可以精准提取搜索引擎搜索结果的开源爬虫。于是,我便编写了这个爬取百度搜索引擎的项目:BaiduSpider。
BaiduSpider 的独特功能:
-
节省提取数据的时间,对于类似深度学习项目的数据模型建立与训练起到了良好的帮助。
-
精准提取数据,并删除广告。
-
搜索结果大而全,支持多种搜索类型,支持多种返回类型。
当然,没有一个项目是完美的。任何一个项目的发展都需要社区的帮助。你可以通过发布 Issue 或提交 PR 来帮助 BaiduSpider 进步!:smile:
一些比较有帮助的文档或工具将在最后的致谢部分中列出。
一些 BaiduSpider 使用的主要开源依赖库。
为了安装 BaiduSpider,请按照以下几个步骤操作。
在安装 BaiduSpider 之前,请确保你安装了Python3.6+
:
$ python --version
若版本小于3.6.0
,请到Python官网下载并安装 Python。
请在命令行中键入:
$ pip install baiduspider
$ git clone [email protected]:BaiduSpider/BaiduSpider.git
# ...
$ python setup.py install
你可以使用以下代码,通过 BaiduSpider 获取百度的网页搜索结果:
# 导入BaiduSpider
from baiduspider import BaiduSpider
from pprint import pprint
# 实例化BaiduSpider
spider = BaiduSpider()
# 搜索网页
pprint(spider.search_web(query='Python'))
更多样例和配置,请参照文档
请参考 Opening Issues 以获取最新的项目规划以及已知问题。
社区的贡献是开源项目的灵魂所在,也是整个开源社区学习、交流、获得灵感的方式。我们极力欢迎任何人参与本项目的开发与维护。
具体参与步骤如下:
- Fork 此项目
- 创建 Feature 分支 (
git checkout -b NewFeatures
) - 在每次修改代码后,提交你的更改 (
git commit -m 'Add some AmazingFeature'
) - 将更改推送到自己的远程仓库 (
git push origin username/BaiduSpider
) - 在 GitHub 上打开你的仓库,根据指引提交 PR
本项目基于GPL-V3
开源,详情请参见LICENSE
。
samzhangjy - @samzhangjy - [email protected]
项目链接:https://github.com/BaiduSpider/BaiduSpider
此项目仅作为学习用途,不可商用或用于爬取百度大量数据。此外,本项目使用GPL-V3
版权协议,意味着涉及(使用)此项目的任何其它项目必须开源且注明出处,并且本项目作者不承担滥用导致的任何法律风险。特此说明,违者后果自负。