怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

news/2024/5/9 21:59:38/文章来源:https://blog.csdn.net/weixin_37988176/article/details/109433080

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑

一:本代码是我研究了好久才写出来,七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载!

首先,搬上我们的主角网址,http://lavteam.org/,进去一看,是一个俄罗斯人创建的网站,七内容让我们不亦乐乎。

二:登陆

要进行分析,首先要注册一个账号,账号各位自己注册。

抓包发现,他的登陆请求地址为http://www.lavteam.org/,其中表单:

none.gif

QQ图片20190508090034.png (14.08 KB, 下载次数: 1)

2019-5-8 09:01 上传

我们构造表单,进行请求,其函数为:

def login():

print('正在登陆......')

req = session.get(first_url)

data = {

'login_name': '账号',

'login_password':'密码',

'login': 'submit',

'image.x': '43',

'image.y': '11',

}

req = session.post(first_url,data = data)

三:查询

登陆进去就需要查找自己想要的内容,比如我们输入ventsim,然后进行抓包,抓包得到:

Request URL:http://lavteam.org/

Request Method:POST

其表单为:

none.gif

QQ图片20190508090733.png (11.58 KB, 下载次数: 1)

2019-5-8 09:08 上传

接着我们再构造其请求,请求返回的内容列表我把他整理成字典的格式,方便在于我只要输入软件编号,就可以对该内容进行深入操作,我对多页内容都进行了遍历,所有的内容链接都整理了出来,代码如下:

def reach(ventsim):

data = {

'do': 'search',

'subaction': 'search',

'story': ventsim,

'x': '42',

'y':'9' ,

}

req = session.post(first_url,data = data).text

html = etree.HTML(req)

url = html.xpath('//div[@class="text-left"]/a/@href')

name = html.xpath('//div[@class="text-left"]/a/text()')

num = html.xpath('//div[@class="navigation ignore-select"]/a/text()')[-2]

f = {}

for i in range(len(name)):

f= urlprint(i,name)

for k in range(int(num)-1):

search_start = 2 + k

result_from = 11 + 10*k

data = {

'do': 'search',

'subaction': 'search',

'search_start': str(search_start),

'full_search':'0' ,

'result_from': str(result_from),

'story': ventsim

}

req = session.post('http://www.lavteam.org/index.php?do=search', data=data).text

html = etree.HTML(req)

url = html.xpath('//div[@class="text-left"]/a/@href')

name = html.xpath('//div[@class="text-left"]/a/text()')

for j in range(len(name)):

f[(k+1)*10+j] = url[j]

print((k+1)*10+j,name[j])

return f

四:进入详情界面

我们从上一步查询的返回值中,找到软件详情页面的链接,然后进行请求,抓包得到的结果:

Request URL:http://lavteam.org/2018/04/02/howden-group-ventsim-visual-premium-v4869.html

Request Method:GETIDA Console, Courier New, monospace">然后再用python进行构造这个请求,代码如下:

def intopage(url):

page = session.get(url).text

html = etree.HTML(page)

url = html.xpath('//a[@target="_blank" and @Class = "medium blue awesome"or @class = "medium red awesome" or @class = "small blue awesome" or @class = "small red awesome" or @class = "large blue awesome" or @class = "large red awesome"]/@href')

return url五、下载页面

分析可知,其点击进入下载页面的链接在下载页面可以抓包抓到,他是一个get请求,其抓包得到的headers如下:

Request URL:http://files.lavteam.org/leech?cat=warez%2FPrograms%2FVentSim&file=Howden.Ventsim.Visual.Premium.v4.8.6.9.rar

Request Method:GET其构造的代码如下:

def dawnload(url,path,Referer):

headers = {

'Host': 'files.lavteam.org',

'Referer': Referer,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',

}

rep = session.get(url,headers = headers).text

pat = 'accesskey="p">'

session_html = re.compile(pat).findall(rep)[0][2:-2].split('=')

session_url = 'http://files.lavteam.org/download/'+session_html[1][:-4]+'/'+session_html[3]

name = session_html[3]

# print(session_url)

yanzheng(url,path,session_url,name)

六、验证

验证码的验证,我们需要请求获取验证码图片,然后我是介入百度的文字识别接口,自动识别验证码内容,然后作为请求验证的表单进行求求验证,如果验证码不正确,则再次进行验证,如果验证码正确,则等待5s,进行下载,代码如下:def yanzheng(url,path,session_url,name):

img_url = 'http://files.lavteam.org/img.php?size=3'

res = session.get(img_url)

with open('img.jpg', 'wb') as f:

f.write(res.content)

img = shibie('img.jpg')

data = {

'vImageCodP': img,

'checkimagecode': '(unable to decode value)',

}

header = {

'Host': 'files.lavteam.org',

'Origin': 'http://files.lavteam.org',

'Referer': url,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',

}

res = session.post(url, data=data, headers=header).text

html = etree.HTML(res)

l = html.xpath('//div/@id')

if "downloadhtml" in l:

print('验证码正确!')

print('请等待10s!')

time.sleep(10)

if not os.path.exists(path):

os.makedirs(path)

data = {

'download': '(unable to decode value)',

}

heade = {

'Connection': 'keep-alive',

'Host': 'files.lavteam.org',

'Origin': 'http://files.lavteam.org',

'Referer': url,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36',

}

print('开始下载'+ name +',可能需要很长时间,请耐心等待...')

res = session.post(session_url, data=data, headers=heade)

with open(path + name, 'wb') as f:

f.write(res.content)

print('下载完成!')

else:

print('验证码错误,请重新输入验证码!!!')

yanzheng(url,path,session_url,name)七、百度识别接口

在用百度文字是别的时候,我还对图片当中的早点进行了去燥,位的是识别率更高,其整体代码如下:

def shibie(img):

# 下面3个变量请自行更改

APP_ID = '11620307'

API_KEY = 'Nl2oc5uuoPPkGMtoLGCUGgVj'

SECRET_KEY = 'bF48ggt4d891NFhDHPmfjzGR3DvY4XLO'

aipOcr = AipOcr(APP_ID, API_KEY, SECRET_KEY)

filePaths = img

filePath = Image.open(filePaths)

filePath = filePath.convert('L')

threshold = 127

table = []

for i in range(256):

if i < threshold:

table.append(0)

else:

table.append(2)

filePath = filePath.point(table, '1')

filePath.save("imgage.png")

def get_file_content(filePath):

with open(filePath, 'rb') as fp:

return fp.read()

# 定义参数变量

options = {

'detect_direction': 'true',

'language_type': 'CHN_ENG',

}

# 调用通用文字识别接口

filePathss = "imgage.png"

result = aipOcr.basicAccurate(get_file_content(filePathss), options)

img = result['words_result'][0]['words']

imgs = img.replace(' ','')

print(imgs)

return imgsrar.gif

lavteamshibie.rar

(2.26 KB, 下载次数: 78)

2019-5-8 09:33 上传

点击文件名下载附件

详细代码

下载积分: 吾爱币 -1 CB希望得到大家的热心于评分。

4.gif

4.gif

4.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_703489.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题&#xff1a;不踩坑的Python爬虫&#xff1a;如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察&#xff0c;就不难发现&#xff0c;懂爬虫、学习爬虫的人越来越多&#xff0c;一方面&#xff0c;互联网可以获取的数据越来越多&#xff0c;另一方面…

《大型网站技术架构》-读书笔记四:高可用架构

一、网站可用性的度量与考核 1、可用性度量:通常用多少个9来形容网站的可用性 2、可用性考核&#xff1a;可用性指标是网站架构设计的重要指标&#xff0c;对外是服务承诺&#xff0c;对内是考核指标。 二、高可用的网站架构 三、高可用的应用 1、通过负载均衡进行无状态服务的…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

各种大型网站技术架构

引言近段时间以来&#xff0c;通过接触有关海量数据处理和搜索引擎的诸多技术&#xff0c;常常见识到不少精妙绝伦的架构图。除了每每感叹于每幅图表面上的绘制的精细之外&#xff0c;更为架构图背后所隐藏的设计思想所叹服。个人这两天一直在搜集各大型网站的架构设计图&#…

自学python推荐书籍同时找哪些来实践-Python学习路上有这些论坛、网站、书籍与你同行...

Python学习路上有这些论坛、网站、书籍与你同行 2019-05-03 18:24:41 613点赞 9508收藏 164评论 创作立场声明&#xff1a;希望我的一些经验可以给你少走一些弯路&#xff0c;但人总得走点弯路才可以成长。别怕&#xff0c;在学习python的路上有我陪着你。人生苦短&#xff0c;…

怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑 一&#xff1a;本代码是我研究了好久才写出来&#xff0c;七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载&#xff01; 首先&#xff0c;搬上我们的主角网址&#xff0c;http://lavteam.org/&#xff…

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题&#xff1a;不踩坑的Python爬虫&#xff1a;如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察&#xff0c;就不难发现&#xff0c;懂爬虫、学习爬虫的人越来越多&#xff0c;一方面&#xff0c;互联网可以获取的数据越来越多&#xff0c;另一方面…

理解大型分布式网站你应该知道这些概念

2019独角兽企业重金招聘Python工程师标准>>> 1. I/O优化 增加缓存&#xff0c;减少磁盘的访问次数。 优化磁盘的管理系统&#xff0c;设计最优的磁盘方式策略&#xff0c;以及磁盘的寻址策略&#xff0c;这是在底层操作系统层面考虑的。 设计合理的磁盘存储数据块&a…

Drupal 网站漏洞修复以及网站安全防护加固方法

2019独角兽企业重金招聘Python工程师标准>>> drupal是目前网站系统使用较多一个开源PHP管理系统&#xff0c;架构使用的是php环境mysql数据库的环境配置&#xff0c;drupal的代码开发较为严谨&#xff0c;安全性较高&#xff0c;但是再安全的网站系统&#xff0c;也…

搭建“双11”大型网站架构必须掌握的 5 个核心知识

2019独角兽企业重金招聘Python工程师标准>>> 每年电商双11大促对背后技术人都是一次大考&#xff0c;阿里数据库团队表示。经过9年的发展&#xff0c;双11单日交易额从2009年的0.5亿一路攀升到2017年的1682亿&#xff0c;秒级交易创建峰值达到了32.5万笔/秒。支撑这…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

如何使用在线网站绘制基本的流程图

相信很多朋友都绘制过流程图&#xff0c;但是每个人绘制成功的流程图却不都是精美好看的&#xff0c;下面给大家分享使用在线网站绘制基本的流程图的操作方法介绍&#xff0c;希望可以帮助到大家。 ** 绘制工具&#xff1a;迅捷画图 绘制方法&#xff1a; 1.点击选择的迅捷画图…

电商总结(八)如何打造一个小而精的电商网站架构

前面写过一些电商网站相关的文章&#xff0c;这几天有时间&#xff0c;就把之前写得网站架构相关的文章&#xff0c;总结整理一下。把以前的一些内容就连贯起来&#xff0c;这样也能系统的知道&#xff0c;一个最小的电商平台是怎么一步步搭建起来的。对以前的文章感兴趣的朋友…

自学python推荐书籍同时找哪些来实践-Python学习路上有这些论坛、网站、书籍与你同行...

Python学习路上有这些论坛、网站、书籍与你同行 2019-05-03 18:24:41 613点赞 9508收藏 164评论 创作立场声明&#xff1a;希望我的一些经验可以给你少走一些弯路&#xff0c;但人总得走点弯路才可以成长。别怕&#xff0c;在学习python的路上有我陪着你。人生苦短&#xff0c;…

怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑 一&#xff1a;本代码是我研究了好久才写出来&#xff0c;七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载&#xff01; 首先&#xff0c;搬上我们的主角网址&#xff0c;http://lavteam.org/&#xff…

国内外免费PHP开源建站程序

互联网上有很多开源建站程序供站长选择&#xff0c;做社区时你在Discuz和PHPWind之间做比较&#xff0c;做资讯网时你在DedeCMS、PHPCMS和Wordpress之间比较&#xff0c;虽然如此&#xff0c;你依然不知道选择什么程序好&#xff0c;折腾好几个来回。 但还好你有得选&#xff0…

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题&#xff1a;不踩坑的Python爬虫&#xff1a;如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察&#xff0c;就不难发现&#xff0c;懂爬虫、学习爬虫的人越来越多&#xff0c;一方面&#xff0c;互联网可以获取的数据越来越多&#xff0c;另一方面…

2019值得每天闲逛的网站

2019独角兽企业重金招聘Python工程师标准>>> https://betalist.com 转载于:https://my.oschina.net/lilugirl2005/blog/3028940