Pyspider框架 —— Python爬虫实战之爬取 V2EX 网站帖子

news/2024/4/27 2:18:58/文章来源:https://blog.csdn.net/weixin_33908217/article/details/89201394

背景:

PySpider:一个国人编写的强大的网络爬虫系统并带有强大的WebUI。采用Python语言编写,分布式架构,支持多种数据库后端,强大的WebUI支持脚本编辑器,任务监视器,项目管理器以及结果查看器。在线示例: http://demo.pyspider.org/

官方文档: http://docs.pyspider.org/en/l...

Github : https://github.com/binux/pysp...

本文爬虫代码 Github 地址:https://github.com/zhisheng17...

更多精彩文章可以在微信公众号:猿blog 阅读到,欢迎关注。

说了这么多,我们还是来看正文吧!

前提:

你已经安装好了Pyspider 和 MySQL-python(保存数据)

如果你还没安装的话,请看看我的前一篇文章,防止你也走弯路。

  1. Pyspider 框架学习时走过的一些坑

  2. HTTP 599: SSL certificate problem: unable to get local issuer certificate错误

我所遇到的一些错误:

首先,本爬虫目标:使用 Pyspider 框架爬取 V2EX 网站的帖子中的问题和内容,然后将爬取的数据保存在本地。

V2EX 中大部分的帖子查看是不需要登录的,当然也有些帖子是需要登陆后才能够查看的。(因为后来爬取的时候发现一直 error ,查看具体原因后才知道是需要登录的才可以查看那些帖子的)所以我觉得没必要用到 Cookie,当然如果你非得要登录,那也很简单,简单地方法就是添加你登录后的 cookie 了。

我们在 https://www.v2ex.com/ 扫了一遍,发现并没有一个列表能包含所有的帖子,只能退而求其次,通过抓取分类下的所有的标签列表页,来遍历所有的帖子: https://www.v2ex.com/?tab=tech 然后是 https://www.v2ex.com/go/progr... 最后每个帖子的详情地址是 (举例): https://www.v2ex.com/t/314683...

创建一个项目

在 pyspider 的 dashboard 的右下角,点击 “Create” 按钮

替换 on_start 函数的 self.crawl 的 URL:

@every(minutes=24 * 60)def on_start(self):self.crawl('https://www.v2ex.com/', callback=self.index_page, validate_cert=False)
  • self.crawl 告诉 pyspider 抓取指定页面,然后使用 callback 函数对结果进行解析。

  • @every) 修饰器,表示 on_start 每天会执行一次,这样就能抓到最新的帖子了。

  • validate_cert=False 一定要这样,否则会报 HTTP 599: SSL certificate problem: unable to get local issuer certificate错误

首页:

点击绿色的 run 执行,你会看到 follows 上面有一个红色的 1,切换到 follows 面板,点击绿色的播放按钮:

第二张截图一开始是出现这个问题了,解决办法看前面写的文章,后来问题就不再会出现了。

Tab 列表页 :

在 tab 列表页 中,我们需要提取出所有的主题列表页 的 URL。你可能已经发现了,sample handler 已经提取了非常多大的 URL

代码:

@config(age=10 * 24 * 60 * 60)def index_page(self, response):for each in response.doc('a[href^="https://www.v2ex.com/?tab="]').items():self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False)
  • 由于帖子列表页和 tab列表页长的并不一样,在这里新建了一个 callback 为 self.tab_page

  • @config (age=10 24 60 * 60) 在这表示我们认为 10 天内页面有效,不会再次进行更新抓取

Go列表页 :

代码:

@config(age=10 * 24 * 60 * 60)def tab_page(self, response):for each in response.doc('a[href^="https://www.v2ex.com/go/"]').items():self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)

帖子详情页(T):

你可以看到结果里面出现了一些reply的东西,对于这些我们是可以不需要的,我们可以去掉。

同时我们还需要让他自己实现自动翻页功能。

代码:

@config(age=10 * 24 * 60 * 60)def board_page(self, response):for each in response.doc('a[href^="https://www.v2ex.com/t/"]').items():url = each.attr.hrefif url.find('#reply')>0:url = url[0:url.find('#')]self.crawl(url, callback=self.detail_page, validate_cert=False)for each in response.doc('a.page_normal').items():self.crawl(each.attr.href, callback=self.board_page, validate_cert=False) #实现自动翻页功能

去掉后的运行截图:

实现自动翻页后的截图:

此时我们已经可以匹配了所有的帖子的 url 了。

点击每个帖子后面的按钮就可以查看帖子具体详情了。

代码:

@config(priority=2)def detail_page(self, response):title = response.doc('h1').text()content = response.doc('div.topic_content').html().replace('"', '\\"')self.add_question(title, content)  #插入数据库return {"url": response.url,"title": title,"content": content,}

插入数据库的话,需要我们在之前定义一个add_question函数。

#连接数据库
def __init__(self):self.db = MySQLdb.connect('localhost', 'root', 'root', 'wenda', charset='utf8')def add_question(self, title, content):try:cursor = self.db.cursor()sql = 'insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)' % (title, content, random.randint(1, 10) , 'now()');   #插入数据库的SQL语句print sqlcursor.execute(sql)print cursor.lastrowidself.db.commit()except Exception, e:print eself.db.rollback()

查看爬虫运行结果:

  • 先debug下,再调成running。pyspider框架在windows下的bug

  • 设置跑的速度,建议不要跑的太快,否则很容易被发现是爬虫的,人家就会把你的IP给封掉的

  • 查看运行工作

  • 查看爬取下来的内容

然后再本地数据库GUI软件上查询下就可以看到数据已经保存到本地了。

自己需要用的话就可以导入出来了。

在开头我就告诉大家爬虫的代码了,如果详细的看看那个project,你就会找到我上传的爬取数据了。(仅供学习使用,切勿商用!)

当然你还会看到其他的爬虫代码的了,如果你觉得不错可以给个 Star,或者你也感兴趣的话,你可以fork我的项目,和我一起学习,这个项目长期更新下去。

最后:

代码:


# created by 10412
# !/usr/bin/env python
# -*- encoding: utf-8 -*-
# Created on 2016-10-20 20:43:00
# Project: V2EXfrom pyspider.libs.base_handler import *import re
import random
import MySQLdbclass Handler(BaseHandler):crawl_config = {}def __init__(self):self.db = MySQLdb.connect('localhost', 'root', 'root', 'wenda', charset='utf8')def add_question(self, title, content):try:cursor = self.db.cursor()sql = 'insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)' % (title, content, random.randint(1, 10) , 'now()');print sqlcursor.execute(sql)print cursor.lastrowidself.db.commit()except Exception, e:print eself.db.rollback()@every(minutes=24 * 60)def on_start(self):self.crawl('https://www.v2ex.com/', callback=self.index_page, validate_cert=False)@config(age=10 * 24 * 60 * 60)def index_page(self, response):for each in response.doc('a[href^="https://www.v2ex.com/?tab="]').items():self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False)@config(age=10 * 24 * 60 * 60)def tab_page(self, response):for each in response.doc('a[href^="https://www.v2ex.com/go/"]').items():self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)@config(age=10 * 24 * 60 * 60)def board_page(self, response):for each in response.doc('a[href^="https://www.v2ex.com/t/"]').items():url = each.attr.hrefif url.find('#reply')>0:url = url[0:url.find('#')]self.crawl(url, callback=self.detail_page, validate_cert=False)for each in response.doc('a.page_normal').items():self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)@config(priority=2)def detail_page(self, response):title = response.doc('h1').text()content = response.doc('div.topic_content').html().replace('"', '\\"')self.add_question(title, content)  #插入数据库return {"url": response.url,"title": title,"content": content,}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_832840.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

小白node怎么做网站_从一个小白程序员,到建立自己的个人博客网站,我是怎么做的...

从2017年建立博客网站以来,我总共花费在上面的时间不超过两个月(算上杂七杂八的时间,购买服务器,装环境,部署项目等),其实我一有空就对我的博客网站进行优化和增加新的内容,从首页的下拉无限加载到博客文章…

vue seo关键词设置_SEO关键词优化有哪些技巧

关键词是网站优化必须要考虑分析的,SEO网站优化过程中,网站的文章内容和标题优化,然后必须考虑网站的主要关键词和长尾关键词。所以,SEO关键词优化排名的技巧是什么?以下就和大家分享一下SEO关键词的快速排名技巧&…

中小型网站集群拓扑图

中小型网站集群拓扑图 中小型网站集群拓扑图 中小型网站集群拓扑图 nginx集群前端分发: mysql集群配置: zabbix监控服务器

买空间做网站_这些网站建设基础知识,做SEO前就要知道!

企业或个人在做网站建设之前,必须要做好前期准备,事先考虑到一些问题。比如:确定网站定位、确定网站栏目页面、如何降低跳出率、如何管理网站等等。掌握下面这些基本的网站建知识,可以帮助我们更好地培养SEO思维,也就能…

网站Web业务架构从小到大演变

有一天,我突发奇想创建了一个站点,基于 LNMP 架构,起初只有我自己访问,后来因为我点儿正,访问量越来越大,所以最终导致下面的架构演变。 1、单台机器 单台机器因为只是一个小站,访问量一天也没有…

行云海cms mysql检测不出版本_PHP行云海CMS(XYHCMS)内容治理系统网站源代码 v3.5和安装教程...

PHP行云海 CMS(XYHCMS)内容治理系统网站源代码 v3.5和安装教程登录后端后,宁静问题[√] 修正后端任意文件读取(有模板治理权限地)[√]模板里禁止用原生 php[√]“后端任意文件下载”(预留下载功能)清除[√] 网站设置限制上传图片格式设置(全局禁止上传 php 文件)[√…

Win7/Win2008下IIS配置Asp网站启用父路径的设置方法(已解决)

Win7/Win2008下IIS配置Asp网站启用父路径的设置方法(已解决) 在Win7/Win2008下IIS配置Asp网站启用父路径的设置方法与win2003下不同,看看下图就知道了。

搭载网站的云服务器需要空间备案,网站空间要备案吗

网站空间要备案吗 内容精选换一换HLL(HyperLoglog)是统计数据集中唯一值个数的高效近似算法。它有着计算速度快,节省空间的特点,不需要直接存储集合本身,而是存储一种名为HLL的数据结构。每当有新数据加入进行统计时,只需要把数据…

智齿客服Android集成流程,智齿客服接入_智齿客服客服系统如何接入网站_智齿客服接入流程_企业服务汇...

编者按:网站是在线客服最普遍的应用场景,因此如何给网站添加客服功能是企业在选择客服系统时最为关注的问题。那么如何将智齿客服系统接入网站,智齿客服接入网站的方式有哪些,智齿在网站客服接入方面有哪些优劣势呢?以…

写个软件来防止服务器网站CPU百分百

问题: 大概每隔两个星期左右,秋色园上服务器就会来一次CPU百分百,由于问题发生的概率极低,要它重现也难,所以只能意淫是内存太少的原故。以前出现,远程上去结束掉进程,就正常了,悲剧的是最近秋色…

为你的网站加上SSL,可以使用HTTPS进行访问

首先,我们使用的是nginx 将域名证书文件1_www.domain.com_bundle.crt 、私钥文件2_www.domain.com.key保存到同一个目录,例如/usr/local/nginx/conf目录下。 在ngxin配置中,添加如下: server {listen 443;server_name www.domain.…

《SEO的艺术(原书第2版)》——1.5 人们如何搜索

1.5 人们如何搜索 为了让人们得到更好(也就是更快、更新鲜和更相关)的搜索结果,搜索引擎投入大量资源了解人们的搜索方式。对于网站发布者来说,关于人们如何搜索的信息有助于改进网站的易用性和搜索引擎兼容性。根据comScore的数据…

网站服务器排名,网站的服务器对排名有影响吗?

web服务器就是我们所说的web服务器。网站的速度和稳定性直接影响网站的用户体验,也对网站排名有一定的影响。让我们来谈谈以下几点:网站的服务器对排名有影响吗?速度是我们在选择空间时首先考虑的因素之一。我们在购买主机时使用服务器来测试站点。保持主…

网站不收录 服务器,新网站不收录该怎么办?

原标题:新网站不收录该怎么办?百度反馈网站链接就目前所有方法来说,这个办法是最实用的,而且是最安全的,怎么操作呢?首先我们要在百度站长进行站点绑定,这个就不详细说了,不懂的大家…

seowhy论坛 seo技术 seo搜索引擎排名 seo交流学习 网站快速收录操作方法

SEO论坛 百度站长平台社区 百度官方论坛,时不时有官方人员回答问题。而且也是目前比较所剩不多的SEO论坛了。 站长世界WebmasterWorld.com 如果你只有时间看一个英文论坛和博客,那就看这个。站长世界包含的不仅仅是SEO,还有很多关于建站的…

hviewer添加新站点_使用Hugo+Netlify 5分钟部署一个网站 NanoDM站点迁移到Netlify记

友情提示:微信公众号文章发布后无法修改更新。如有更新,会在原文更新和修正。如需查看原文请点击底部的“前言此前老灯介绍过最麻烦的Hugo站点部署方法,很多人可能光看配置文件就头疼了,这次老灯借着给NanoDM站点迁移的机会&#…

linux国外脚本网站,Shell脚本实现防止国外ip访问服务器

客户的要求,不想让外国的ip来访问服务器,本来要让机房在上端路由解决,但是那些人不鸟你!!!~~~~这样的话,只能自己用iptables解决了~~~~~~~~~关于 ip库 大家可以去 http://www.ipdeny.com/ipblo…

某食品公司网站存在SQL注入

错误链接:http://www.shenggu2006.com/news1.php?id5 在id后传参6-1,回显页面与id5相同,放入sqlmap跑包,存在sql注入 甚至可以爆出数据库名

下载英文图书的几个网站

★ 1. https://ebooks.adelaide.edu.au/ 按作者:https://ebooks.adelaide.edu.au/meta/authors 按书名:https://ebooks.adelaide.edu.au/meta/titles/A.html 按类别: https://ebooks.adelaide.edu.au/meta/collections 界面下方的几个按钮…

ASP网站搭建

Windows2003IIS6.0环境搭建 集成IIS6.0的Windows2003虚拟机 链接:https://pan.baidu.com/s/1rMb9-6A_Oc2luTwtoaB2VA 提取码:8d1o 安装好IIS组件后 管理工具->Internet信息服务(IIS)管理器 网站->新建->网站 意思就是备注,随便填,点击下一步 …