【爬虫学习笔记day10】1.8. 参考阅读:urllib:GET请求和POST请求+批量爬取贴吧页面数据+有道词典翻译网站+获取AJAX加载的内容+ 处理HTTPS请求 +SSL证书验证 关于CA

news/2024/5/14 2:33:51/文章来源:https://vicky.blog.csdn.net/article/details/104110794

文章目录

  • 1.8. 参考阅读:urllib:GET请求和POST请求
    • **urllib默认只支持HTTP/HTTPS的GET和POST方法**
      • urllib.parse.urlencode()
          • 一般HTTP请求提交数据,需要编码成 URL编码格式,然后做为url的一部分,或者作为参数传到Request对象中。
  • Get方式
    • 批量爬取贴吧页面数据
          • 简单写一个小爬虫程序,来爬取百度LOL吧的所有网页。
  • POST方式:
      • 有道词典翻译网站:
          • 发送POST请求时,需要特别注意headers的一些属性:
  • 获取AJAX加载的内容
    • 处理HTTPS请求 SSL证书验证
    • 关于CA

1.8. 参考阅读:urllib:GET请求和POST请求

在这里插入图片描述

urllib默认只支持HTTP/HTTPS的GET和POST方法

urllib.parse.urlencode()

  • 编码工作使用urllib.parse的urlencode()函数,帮我们将key:value这样的键值对转换成"key=value"这样的字符串,解码工作可以使用urllib.parse的unquote()函数。
# IPython3 中的测试结果
In [1]: import urllib.parseIn [2]: word = {"wd" : "传智播客"}# 通过urllib.urlencode()方法,将字典键值对按URL编码转换,从而能被web服务器接受。
In [3]: urllib.parse.urlencode(word)  
Out[3]: "wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2"# 通过urllib.unquote()方法,把 URL编码字符串,转换回原先字符串。
In [4]: print urllib.parse.unquote("wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2")
wd=传智播客
一般HTTP请求提交数据,需要编码成 URL编码格式,然后做为url的一部分,或者作为参数传到Request对象中。

Get方式

GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索传智播客:https://www.baidu.com/s?wd=传智播客

浏览器的url会跳转成如图所示:

在这里插入图片描述

https://www.baidu.com/s?wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2

在其中我们可以看到在请求部分里,http://www.baidu.com/s? 之后出现一个长长的字符串,其中就包含我们要查询的关键词传智播客,于是我们可以尝试用默认的Get方式来发送请求。

# urllib_get.pyurl = "http://www.baidu.com/s"
word = {"wd":"传智播客"}
word = urllib.parse.urlencode(word) #转换成url编码格式(字符串)
newurl = url + "?" + word    # url首个分隔符就是 ?headers={ "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}request = urllib.request.Request(newurl, headers=headers)response = urllib.request.urlopen(request)print (response.read())

批量爬取贴吧页面数据

首先我们创建一个python文件, tiebaSpider.py,我们要完成的是,输入一个百度贴吧的地址,比如:

百度贴吧LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0

第二页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50

第三页: http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100

发现规律了吧,贴吧中每个页面不同之处,就是url最后的pn的值,其余的都是一样的,我们可以抓住这个规律。

简单写一个小爬虫程序,来爬取百度LOL吧的所有网页。
  • 先写一个main,提示用户输入要爬取的贴吧名,并用urllib.urlencode()进行转码,然后组合url,假设是lol吧,那么组合后的url就是:http://tieba.baidu.com/f?kw=lol
# 模拟 main 函数
if __name__ == "__main__":kw = raw_input("请输入需要爬取的贴吧:")# 输入起始页和终止页,str转成int类型beginPage = int(raw_input("请输入起始页:"))endPage = int(raw_input("请输入终止页:"))url = "http://tieba.baidu.com/f?"key = urllib.parse.urlencode({"kw" : kw})# 组合后的url示例:http://tieba.baidu.com/f?kw=lolurl = url + keytiebaSpider(url, beginPage, endPage)
  • 接下来,我们写一个百度贴吧爬虫接口,我们需要传递3个参数给这个接口, 一个是main里组合的url地址,以及起始页码和终止页码,表示要爬取页码的范围。
def tiebaSpider(url, beginPage, endPage):"""作用:负责处理url,分配每个url去发送请求url:需要处理的第一个urlbeginPage: 爬虫执行的起始页面endPage: 爬虫执行的截止页面"""for page in range(beginPage, endPage + 1):pn = (page - 1) * 50filename = "第" + str(page) + "页.html"# 组合为完整的 url,并且pn值每次增加50fullurl = url + "&pn=" + str(pn)#print fullurl# 调用loadPage()发送请求获取HTML页面html = loadPage(fullurl, filename)# 将获取到的HTML页面写入本地磁盘文件writeFile(html, filename)
  • 我们已经之前写出一个爬取一个网页的代码。现在,我们可以将它封装成一个小函数loadPage,供我们使用。
def loadPage(url, filename):'''作用:根据url发送请求,获取服务器响应文件url:需要爬取的url地址filename: 文件名'''print ("正在下载" + filename)headers = {"User-Agent": "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;"}request = urllib.request.Request(url, headers = headers)response = urllib.request.urlopen(request)return response.read()
  • 最后如果我们希望将爬取到了每页的信息存储在本地磁盘上,我们可以简单写一个存储文件的接口。
def writeFile(html, filename):"""作用:保存服务器响应文件到本地磁盘文件里html: 服务器响应文件filename: 本地磁盘文件名"""print ("正在存储" + filename)with open(filename, 'w') as f:f.write(html)print "-" * 20

其实很多网站都是这样的,同类网站下的html页面编号,分别对应网址后的网页序号,只要发现规律就可以批量爬取页面了。


POST方式:

上面我们说了Request请求对象的里有data参数,它就是用在POST里的,我们要传送的数据就是这个参数data,data是一个字典,里面要匹配键值对。

有道词典翻译网站:

输入测试数据,再通过使用Fiddler观察,其中有一条是POST请求,而向服务器发送的请求数据并不是在url里,那么我们可以试着模拟这个POST请求。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lFbKHsLQ-1580306550287)(../images/youdaopost.png)]

于是,我们可以尝试用POST方式发送请求。

import urllib# POST请求的目标URL
url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"headers={"User-Agent": "Mozilla...."}formdata = {"type":"AUTO","i":"i love python","doctype":"json","xmlVersion":"1.8","keyfrom":"fanyi.web","ue":"UTF-8","action":"FY_BY_ENTER","typoResult":"true"
}data = urllib.parse.urlencode(formdata)request = urllib.request.Request(url, data = data, headers = headers)
response = urllib.request.urlopen(request)
print (response.read())
发送POST请求时,需要特别注意headers的一些属性:

Content-Length: 144: 是指发送的表单数据长度为144,也就是字符个数是144个。

Content-Type: application/x-www-form-urlencoded : 表示浏览器提交 Web 表单时使用,表单数据会按照 name1=value1&name2=value2 键值对形式进行编码。

X-Requested-With: XMLHttpRequest :表示Ajax异步请求。

获取AJAX加载的内容

有些网页内容使用AJAX加载,这种数据无法直接对网页url进行获取。只要记得,AJAX一般返回的是JSON,只要对AJAX地址进行post或get,就能返回JSON数据了。

如果非要从HTML页面里获取展现出来的数据,也不是不可以。但是要记住,作为一名爬虫工程师,你更需要关注的是数据的来源。

import urllib# demo1url = "https://movie.douban.com/j/chart/top_list?type=11&interval_id=100%3A90&action"headers={"User-Agent": "Mozilla...."}# 变动的是这两个参数,从start开始往后显示limit个
formdata = {'start':'0','limit':'10'
}
data = urllib.parse.urlencode(formdata)request = urllib.request.Request(url, data = data, headers = headers)
response = urllib.request.urlopen(request)print (response.read())# demo2url = "https://movie.douban.com/j/chart/top_list?"
headers={"User-Agent": "Mozilla...."}# 处理所有参数
formdata = {'type':'11','interval_id':'100:90','action':'','start':'0','limit':'10'
}
data = urllib.parse.urlencode(formdata)request = urllib.request.Request(url, data = data, headers = headers)
response = urllib.request.urlopen(request)print (response.read())
  • GET方式是直接以链接形式访问,链接中包含了所有的参数,服务器端用Request.QueryString获取变量的值。如果包含了密码的话是一种不安全的选择,不过你可以直观地看到自己提交了什么内容。
  • POST则不会在网址上显示所有的参数,服务器端用Request.Form获取提交的数据,在Form提交的时候。但是HTML代码里如果不指定 method 属性,则默认为GET请求,Form中提交的数据将会附加在url之后,以?分开与url分开。
  • 表单数据可以作为 URL 字段(method=“get”)或者 HTTP POST (method=“post”)的方式来发送。比如在下面的HTML代码中,表单数据将因为 (method=“get”) 而附加到 URL 上:
<form action="form_action.asp" method="get"><p>First name: <input type="text" name="fname" /></p><p>Last name: <input type="text" name="lname" /></p><input type="submit" value="Submit" />
</form>

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-vCwcD51j-1580306550287)(../images/doubanajax.png)]

处理HTTPS请求 SSL证书验证

现在随处可见 https 开头的网站,urllib可以为 HTTPS 请求验证SSL证书,就像web浏览器一样,如果网站的SSL证书是经过CA认证的,则能够正常访问,如:https://www.baidu.com/等…

如果SSL证书验证不通过,或者操作系统不信任服务器的安全证书,比如浏览器在访问12306网站如:https://www.12306.cn/mormhweb/的时候,会警告用户证书不受信任。(据说 12306 网站证书是自己做的,没有通过CA认证)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CelMwaLh-1580306550288)(../images/12306zhengshu.png)]

urllib在访问的时候则会报出SSLError:

import urlliburl = "https://www.12306.cn/mormhweb/"headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}request = urllib.request.Request(url, headers = headers)response = urllib.request.urlopen(request)print (response.read())

运行结果:

URLError: <urlopen error [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:749)>

所以,如果以后遇到这种网站,我们需要单独处理SSL证书,让程序忽略SSL证书验证错误,即可正常访问。

import urllib
# 1. 导入Python SSL处理模块
import ssl# 2. 表示忽略未经核实的SSL证书认证
context = ssl._create_unverified_context()url = "https://www.12306.cn/mormhweb/"headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}request = urllib.request.Request(url, headers = headers)# 3. 在urlopen()方法里 指明添加 context 参数
response = urllib.request.urlopen(request, context = context)print (response.read().decode())

关于CA

CA(Certificate Authority)是数字证书认证中心的简称,是指发放、管理、废除数字证书的受信任的第三方机构,如北京数字认证股份有限公司、上海市数字证书认证中心有限公司等…

CA的作用是检查证书持有者身份的合法性,并签发证书,以防证书被伪造或篡改,以及对证书和密钥进行管理。

现实生活中可以用身份证来证明身份, 那么在网络世界里,数字证书就是身份证。和现实生活不同的是,并不是每个上网的用户都有数字证书的,往往只有当一个人需要证明自己的身份的时候才需要用到数字证书。

普通用户一般是不需要,因为网站并不关心是谁访问了网站,现在的网站只关心流量。但是反过来,网站就需要证明自己的身份了。

比如说现在钓鱼网站很多的,比如你想访问的是www.baidu.com,但其实你访问的是www.daibu.com”,所以在提交自己的隐私信息之前需要验证一下网站的身份,要求网站出示数字证书。

一般正常的网站都会主动出示自己的数字证书,来确保客户端和网站服务器之间的通信数据是加密安全的。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_738525.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【爬虫学习笔记day25】3.3. 案例一:网站模拟登录

文章目录3.3. 案例一&#xff1a;网站模拟登录案例一&#xff1a;网站模拟登录3.3. 案例一&#xff1a;网站模拟登录 案例一&#xff1a;网站模拟登录 # -*- coding:utf-8 -*-# douban.py #codingutf-8 import time from selenium import webdriver from selenium.webdriver.c…

【爬虫学习笔记day28】3.6. 处理一些格式规范的文字+格式规范文字的理想示例+通过Python代码实现+对图片进行阈值过滤和降噪处理(了解即可)+从网站图片中抓取文字

文章目录3.6. 处理一些格式规范的文字处理给规范的文字格式规范文字的理想示例通过Python代码实现对图片进行阈值过滤和降噪处理&#xff08;了解即可&#xff09;从网站图片中抓取文字3.6. 处理一些格式规范的文字 处理给规范的文字 处理的大多数文字最好都是比较干净、格式规…

监控器材律师网站制作_盈信动态 | 制作法律检索报告,律师的必备技能!

为统一法律适用&#xff0c;提升司法公信力&#xff0c;最高人民法院发布《关于统一法律适用加强类案检索的指导意见》&#xff0c;该意见自2020年7月31日起试行。法律检索技能可以帮助律师快速定位关键信息&#xff0c;运用得当&#xff0c;更可促成法律服务成交&#xff0c;提…

vue 同一个域名移动端pc端两套代码跳转_移动端SEO优化与PC端SEO优化的不同点

随着移动互联网的快速发展&#xff0c;用户从PC端向移动端迁移的大趋势更加明显&#xff0c;但这也使得移动手机网站的SEO优化工作还处于探索阶段&#xff0c;很多SEO和站长也都有了一些疑问&#xff0c;移动端需要做SEO优化吗&#xff1f;移动端该怎么做SEO优化&#xff1f;我…

“安利”一个CDN服务商网站

一、CDN简介 CDN的全称是Content Delivery Network&#xff0c;即内容分发网络。CDN是构建在网络之上的内容分发网络&#xff0c;依靠部署在各地的边缘服务器&#xff0c;通过中心平台的负载均衡、内容分发、调度等功能模块&#xff0c;使用户就近获取所需内容&#xff0c;降低…

产品必备技能(三):互联网数据分析师、产品经理和运营常用数据网站合集

文章目录中国互联网络消息中心百度指数阿里指数腾讯大数据友盟DCCI互联网数据中心艾瑞咨询TalkingData易观App StoreApp AnnieAPPDUU清源火眼ASO100IT桔子91助手今日报告网大数据导航中国互联网络消息中心 中国互联网络消息中心 中国互联网络消息中心&#xff08;China Intern…

启明星Portal企业内部网站V4.3版 附演示地址 http://demo.dotnetcms.org

下载地址&#xff1a;http://www.dotnetcms.org/download/portal/PortalV4.3.0.0.rar 启明星Portal系统是一款基于微软ASP.NET平台开发的&#xff0c;集成内容发布、文章、产品、图片、招聘、留言、自定义模型、采集等功能于一体的企业网站管理系统。启明星Portal是构建企业内网…

使用IIS部署网站步骤

安装和打开IIS&#xff08;以WIN8为例&#xff09; 一、打开&#xff1a;控制面板 二、点击&#xff1a;程序 三、点击&#xff1a;启用或关闭Windows功能 四、勾选全部&#xff1a;Internet Information Services 五、等待重启&#xff0c;重启完成后&#xff0c;开始栏菜单…

php robot.txt,WordPress网站SEO优化——Robot.txt文件编写

一、robots 介绍Robots 协议(也称为爬虫协议、机器人协议等)的全称是 “网络爬虫排除标准”(Robots Exclusion Protocol)&#xff0c;网站通过 Robots 协议告诉来访网站的搜索引擎&#xff0c;此网站的哪些页面可以抓取&#xff0c;哪些页面不能抓取。robots.txt 是搜索引擎来访…

php代码分析工具,php性能优化分析工具XDebug 大型网站调试工具

大型网站调试工具之一(php性能优化分析工具XDebug) ,开发php的朋友可以参考下。有助于解决php代码的多种问题。一、安装配置1、下载PHP的XDebug扩展&#xff0c;网址&#xff1a;http://xdebug.org/2、在Linux下编译安装XDebug引用tar -xzf xdebug-2.0.0RC3.gzcd xdebug-2.0.0R…

dw怎么保存HTML手机可以看,【dw网页制作】如何使用Dreamweaver制作网页?如何用Dreamweaver制作个人虚拟网站?dreamweaver如何制作手机网站?...

【dw网页制作】如何使用Dreamweaver制作网页?如何用Dreamweaver制作个人虚拟网站?dreamweaver如何制作手机网站?下面就和小编一起来看看吧!如何使用Dreamweaver制作网页?1.建立新的ASP网页并保存2.连接数据库3.在网页中插入模板内容&#xff0c;添加各超链接4.页面设计后&a…

基于机器学习预测Lending Club网站贷款申请结果

前提简介&#xff1a;Lending Club是美国的一家贷款公司&#xff0c;自2007年以来&#xff0c;致力于将借款人和投资者聚集在一起&#xff0c;改变人们获得信贷的方式。在过去的十年中&#xff0c;帮助数百万人控制了他们的债务&#xff0c;发展了他们的小企业并为未来投资。本…

medusa测试网站弱口令简单示例

Medusa 百度百科&#xff1a;希腊神话中的女妖 Medusa(美杜莎)是一个速度快&#xff0c;支持大规模并行&#xff0c;模块化的爆力破解工具。可以同时对多个主机&#xff0c;用户或密码执行强力测试。 Medusa和hydra一样&#xff0c;同样属于在线密码破解工具。但官网着重说明了…

vue页面锚文本_「网站优化」网站优化宝典之描文本优化

相信大家看过我前两天写的网站优化中的标题优化和内容优化&#xff1b;肯定想知道除了标题优化和内容优化还可以优化什么&#xff1f;站内优化之描文本优化&#xff0c;真正好的文章内的描文本可以说是很多人写文章的目标&#xff0c;因为描文本对网站的抓取有一定的帮助。描文…

爱了!安利一个相见恨晚的可视化学习网站

最近日常逛逛技术平台&#xff0c;偶然间发现了一个非常牛逼的可视化学习网站。东哥之前在公众号和技术群里也推荐过一些&#xff0c;但和这个相比我觉得真是太逊色了。 好了&#xff0c;话不多说&#xff0c;我迫不及待地想分享下这个神器。 这个网站的名字叫 图之典&#x…

从机械转行数据科学,吐血整理了这些白嫖的学习网站

作者&#xff1a;东哥起飞 Python数据科学 大家好&#xff0c;我是东哥。 前方高能&#xff0c;准备开启收藏夹吃灰模式。 本篇东哥分享几个数据科学入门的学习网站&#xff0c;全部免费资源&#xff0c;且内容优质&#xff0c;是小白入门的不二选择。东哥当年从机械转行也从…

Python最简洁生成网站二维码的代码

学术网站BalMind的二维码1、共建纯学术网站BalMind2、代码如下&#xff1a;生成BalMind网站二维码 同步佐佑思维公众号二维码如下&#xff1a;1、共建纯学术网站BalMind 2、代码如下&#xff1a;生成BalMind网站二维码 import qrcode qrqrcode.QRCode(version6, #二维码的尺寸…

论文阅读及文献综述 AI辅助网站

目录Web1: 总结文献要点1.1. What this paper is about&#xff1f;1.2. What you can learn&#xff1f;Web2: 文献综述2.1. Related Work2.2. Summary of the Related WorkWeb1: 总结文献要点 https://www.paper-digest.com/ 举例&#xff1a;Robot education peers in a sit…

最大的脚本网站_2020年网站速度优化全面指南

网站速度对于网站而言非常重要&#xff0c;以至于搜索引擎使其成为实际的排名因素。如果您想改善网站速度&#xff0c;第一步就需要对网站进行检测&#xff0c;了解影响您网站速度的因素。其实很多工具都可以为开发人员和网站管理员提供网站速度检测。这里我们推荐的检测工具是…

设计电子商务网站建设方案_涨知识|网站建设方案的设计思路解析

在网站设计方案中关于网站首页的设计思路和解决方案是最重要的&#xff0c;因为用户来到网站后看到的第一个页面基本上都是首页&#xff0c;也是企业网站所有信息的聚集地。所以网站首页大部分情况下决定着用户对网站产生第一印象&#xff0c;是整个网站的门户页面。一、网站开…