爬虫笔记25补充:scrapy爬取古诗文网站(爬取原文和译文时,遇到‘展开阅读全文’的处理)

news/2024/5/8 13:44:39/文章来源:https://blog.csdn.net/weixin_49167820/article/details/118465213

如图:
kenne在这里插入图片描述
我们点击查看网页原代码,发现隐藏的数据并不在原代码中,
在这里插入图片描述
我们点击检查-network-再点击展开阅读全文
在这里插入图片描述
在又加载出来的数据中,找到下图椭圆框中的Response,发现这里有完整的译文及注释。由此我打开其Headers中的url,并确认这就是完整的译文及注释的目标url:
https://so.gushiwen.cn/nocdn/ajaxfanyi.aspx?id=C72E5FE381F0B4E0
我们再找一个:https://so.gushiwen.cn/nocdn/ajaxfanyi.aspx?id=F1E16D76441AA037

发现目标url的后缀没有什么数学规律,那么我们要去哪里获取后缀呢?
在网页原代码中,我们发现了该后缀。
在这里插入图片描述
所以,方法就是获取原代码的response后用正则表达式匹配获取完整译文及注释的url后缀,拼接出该目标url。

完整代码如下:

import re
from lxml import etree
import scrapy
import requests
from gsSpider.items import GsspiderItemclass GsSpider(scrapy.Spider):name = 'gs'allowed_domains = ['gushiwen.cn']start_urls = ['https://www.gushiwen.cn/default_1.aspx']def parse_data(self, response):html_text = response.xpath('//div[@id="sonsyuanwen"][1]/div[@class="cont"]')title = html_text.xpath('./h1/text()').get()author = html_text.xpath('./p[@class="source"]/a[1]/text()').get()dynasty = html_text.xpath('./p[@class="source"]/a[2]/text()').get()content_list = html_text.xpath('./div[@class="contson"]//text()').getall()content = ''.join(content_list).strip()# 取得“展开阅读全文”链接,如果有则提取ajax页的译文和注释,没有则提取本页上的译文和注释html_href = response.xpath('//a[@style="text-decoration:none;"]/@href').get()if html_href:html_href_id = re.match(r"javascript:.*?,'(.*?)'.*?", str(html_href)).group(1)html_href_url = 'https://so.gushiwen.cn/nocdn/ajaxfanyi.aspx?id=' + html_href_idparse_html = etree.HTML(requests.get(html_href_url).text)html_fanyi = parse_html.xpath('//div[@class="contyishang"]//text()')else:html_fanyi = response.xpath('//div[@class="left"]/div[@class="sons"][2]/div[@class="contyishang"]//text()').getall()html_fanyi = ''.join(html_fanyi).replace('\n', '').replace('译文及注释', '').replace('译文', '').replace('注释', '|')if html_fanyi:fanyi = html_fanyi.split('|')translation = fanyi[0]notes = fanyi[1]else:translation = ''notes = ''item = GswItem(title=title,author=author,dynasty=dynasty,content=content,translation=translation,notes=notes)yield itemdef parse(self, response):html = response.xpath('//div[@class="left"]/div[@class="sons"]')gsw_divs = html.xpath('./div[@class="cont"]')# 过滤非正常诗文,并提取诗文详细内容链接if gsw_divs:for gsw_div in gsw_divs:if gsw_div.xpath('./div[@class="yizhu"]'):href = gsw_div.xpath('./p/a/@href').get()href_url = response.urljoin(href)yield scrapy.Request(url=href_url, callback=self.parse_data)# 取得下一页链接next_page = response.xpath('//a[@id="amore"]/@href').get()if next_page:next_url = response.urljoin(next_page)yield scrapy.Request(url=next_url, callback=self.parse)

结果:
在这里插入图片描述
补充:

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_851027.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微信开放平台---网站应用开发---微信登录功能 简介

1 微信开放平台:https://open.weixin.qq.com/ 2 开通流程: 3 微信官方教程:https://open.weixin.qq.com/cgi-bin/showdocument?actiondir_list&tresource/res_list&verify1&idopen1419316505&token&langzh_CN 4 效果展示…

抓取某一个网站整站的记录 【记录】

经常由于某些原因我们需要爬取某一个网站或者直接复制某一个站点,到网上找了很多工具进行测试,试了很多各有各的问题,最终选择了Teleport Ultra,用起来效果很好;具体的操作手册等东西就不在这里说了,网上搜…

谈谈个人网站的建立(三)—— 定时任务

欢迎访问我的网站http://www.wenzhihuai.com/ 。谢谢啊,如果可以,希望能在GitHub上给个star,GitHub地址https://github.com/Zephery/newblog 。 Quartz 先看一下Quartz的架构图:一.特点: 强大的调度功能,例…

同步、异步方式对SEO搜索引擎优化的影响

本人昨天去面试了,面试官问了这样一个问题“你知道SEO不?同步、异步对SEO有什么影响?”,我当时就懵了,这几个名词SEO、同步、异步我都知道,但是。SEO和同步异步有什么关系呢?面试官人很nice&…

记录使用scrapy爬取新闻网站最新新闻存入MySQL数据库,每天定时爬取自动更新

爬取每天更新的新闻,使用scrapy框架,Python2.7,存入MySQL数据库,将每次的爬虫日志和爬取过程中的bug信息存为log文件下。定义bat批处理文件,添加到计划任务程序中,自动爬取。 额… 1.在items文件中&#x…

6个线上视频音频转换网站

1.Zamzar Zamzar是一项免费的线上转换格式网站,把歌曲、图档、影像和文件转变成不同的格式。其服务特点是高品质的文件格式转换。基本的免费服务,可以让您转换的文件大小为100MB 。如果想拥有更多功能的服务,你可以注册成为基础会员&#xff…

四年大学下那些让我欲罢不能的网站

在本科学习期间,通过Google/百度搜索接触了各种各样的学习网站,收益匪浅,现在来分享一下吧 分为三种类型,“课程网站”,“编程网站”,“社区网站”,贵精不贵多,每种分享几个 课程网站…

Github Pages + jekyll 全面介绍极简搭建个人网站和博客

本文将会全面介绍一下如何使用Github Pages jekyll搭建个人站点,所谓极简的意思就是不用使用git和本地构建jekll服务,直接在Github网站上编辑设置即可,但会涉及到jekll的一些配置和编程控制。可以参看我的网站模板:https://scott…

css可以对网页干什么,css对网页的优势-专业SEO技术教程(33)

css对网页的优势-专业SEO技术教程(33)采用css布局相对于传统的table网页布局的显著优势1.表现和内容相分离将设计部分剥离出来的放在一个独立样式文件中,HTML文件中只存放文本信息。这样的页面对搜索引擎更加友好。2.提高页面浏览速度对于同一个页面视觉效果&#x…

【转载】IIS网站如何同时解析带www和不带www的域名

针对公网上线的网站系统,很多网站的域名会同时含有带www和不带www的域名解析记录,如果需要同时解析带www和不带www的域名信息,则需要在相应的域名解析平台(如阿里云域名解析平台、腾讯云域名解析平台)设置不带www的主域名以及带www的域名解析…

搜索引擎优化:常用的SEO六个指标

在做网站推广过程中,搜索引擎优化是一个重要点,绝大部分行业来自自然搜索的流量都是非常大的,正因为如此,一般企业隔一段时间就对网站自然搜索的情况作一个KPI考核,而这些重点指标不外乎:网页的收录数量、网…

阿里云上发布自己的网站的方法

在阿里云上发布自己的网站的方法: 一、在阿里云上发布自己的网站的方法: 进入我的电脑,在头部输入ftp://60.205.48.122(IP地址为自己注册的阿里云账号上的IP地址) 进入以后登录自己的账号 用户名&#x…

java使用HttpURLConnection检索网站时403错误处理方式

java使用HttpURLConnection检索网站时403错误处理方式: 我们通过代码方式访问网站时会报错: 此种情况分2中类型, 1.需要登录才可以访问; 2.需要设置User-Agent来欺骗服务器。 connection.setRequestProperty("User-Agent", &qu…

解决某些网站,图片不能下载

如下图,右键图片,没有保存图片的选项 按下F12 拷贝src中的地址,输入到浏览器,这时候就可以保存图片了

给duckling网站加上cnzz网站统计信息

第一,注册cnzz帐号,网址http://www.cnzz.com/ 第二,登录帐号,获取代码; 第三,根据自己的需要,将代码加入网站的公共页面,比如说head、foot、version页面都可以。 第四&#xff0c…

网站压力测试工具Jmeter安装与使用

系统是Windows XP 配置此工具前,需要先在机器上安装jdk 如下是在jdk1.7的基础上配置的; 安装步骤如下: 第一步:解压apache-jmeter-2.8.zip文件至c盘,本文解压至C:\jmeter2.8目录下。 第二步:桌面上选择“我…

十大抢手的网站压力测试工具

原文链接:http://blog.163.com/weiwenjuan_bj/blog/static/1403503362010621111052355/ 两天,jnj在本站发布了《如何在低速率网络中测试 Web 应用》,那是测试网络不好的情况。而下面是十个免费的可以用来进行Web的负载/压力测试的工具&#x…

使用WinSCP 上传 jeecms 到linux centos中 显示乱码问题,网站无法使用的解决方法

第一、设置WinSCP上传时的编码为utf-8如下: 第二、将linux的默认字符集设置为zh_CN.UTF-8 vi /etc/sysconfig/i18n 内容如下: LANG"zh_CN.UTF-8" SUPPORTED"zh_CN.UTF-8:zh_CN:zh" SYSFONT"latarcyrheb-sun16" [rootcan…

如何使用firefox浏览器查看记住的网站密码

工具——》选项——》安全 如下图: 点击就出现浏览器记住的登录网站、帐号、密码了,密码是明码。

如何使用遨游浏览器查看记住的网站密码

点击“显示密码”即可,密码是明码!