怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

news/2024/5/14 0:03:09/文章来源:https://blog.csdn.net/weixin_37988176/article/details/109429656

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑

一:本代码是我研究了好久才写出来,七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载!

首先,搬上我们的主角网址,http://lavteam.org/,进去一看,是一个俄罗斯人创建的网站,七内容让我们不亦乐乎。

二:登陆

要进行分析,首先要注册一个账号,账号各位自己注册。

抓包发现,他的登陆请求地址为http://www.lavteam.org/,其中表单:

none.gif

QQ图片20190508090034.png (14.08 KB, 下载次数: 1)

2019-5-8 09:01 上传

我们构造表单,进行请求,其函数为:

def login():

print('正在登陆......')

req = session.get(first_url)

data = {

'login_name': '账号',

'login_password':'密码',

'login': 'submit',

'image.x': '43',

'image.y': '11',

}

req = session.post(first_url,data = data)

三:查询

登陆进去就需要查找自己想要的内容,比如我们输入ventsim,然后进行抓包,抓包得到:

Request URL:http://lavteam.org/

Request Method:POST

其表单为:

none.gif

QQ图片20190508090733.png (11.58 KB, 下载次数: 1)

2019-5-8 09:08 上传

接着我们再构造其请求,请求返回的内容列表我把他整理成字典的格式,方便在于我只要输入软件编号,就可以对该内容进行深入操作,我对多页内容都进行了遍历,所有的内容链接都整理了出来,代码如下:

def reach(ventsim):

data = {

'do': 'search',

'subaction': 'search',

'story': ventsim,

'x': '42',

'y':'9' ,

}

req = session.post(first_url,data = data).text

html = etree.HTML(req)

url = html.xpath('//div[@class="text-left"]/a/@href')

name = html.xpath('//div[@class="text-left"]/a/text()')

num = html.xpath('//div[@class="navigation ignore-select"]/a/text()')[-2]

f = {}

for i in range(len(name)):

f= urlprint(i,name)

for k in range(int(num)-1):

search_start = 2 + k

result_from = 11 + 10*k

data = {

'do': 'search',

'subaction': 'search',

'search_start': str(search_start),

'full_search':'0' ,

'result_from': str(result_from),

'story': ventsim

}

req = session.post('http://www.lavteam.org/index.php?do=search', data=data).text

html = etree.HTML(req)

url = html.xpath('//div[@class="text-left"]/a/@href')

name = html.xpath('//div[@class="text-left"]/a/text()')

for j in range(len(name)):

f[(k+1)*10+j] = url[j]

print((k+1)*10+j,name[j])

return f

四:进入详情界面

我们从上一步查询的返回值中,找到软件详情页面的链接,然后进行请求,抓包得到的结果:

Request URL:http://lavteam.org/2018/04/02/howden-group-ventsim-visual-premium-v4869.html

Request Method:GETIDA Console, Courier New, monospace">然后再用python进行构造这个请求,代码如下:

def intopage(url):

page = session.get(url).text

html = etree.HTML(page)

url = html.xpath('//a[@target="_blank" and @Class = "medium blue awesome"or @class = "medium red awesome" or @class = "small blue awesome" or @class = "small red awesome" or @class = "large blue awesome" or @class = "large red awesome"]/@href')

return url五、下载页面

分析可知,其点击进入下载页面的链接在下载页面可以抓包抓到,他是一个get请求,其抓包得到的headers如下:

Request URL:http://files.lavteam.org/leech?cat=warez%2FPrograms%2FVentSim&file=Howden.Ventsim.Visual.Premium.v4.8.6.9.rar

Request Method:GET其构造的代码如下:

def dawnload(url,path,Referer):

headers = {

'Host': 'files.lavteam.org',

'Referer': Referer,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',

}

rep = session.get(url,headers = headers).text

pat = 'accesskey="p">'

session_html = re.compile(pat).findall(rep)[0][2:-2].split('=')

session_url = 'http://files.lavteam.org/download/'+session_html[1][:-4]+'/'+session_html[3]

name = session_html[3]

# print(session_url)

yanzheng(url,path,session_url,name)

六、验证

验证码的验证,我们需要请求获取验证码图片,然后我是介入百度的文字识别接口,自动识别验证码内容,然后作为请求验证的表单进行求求验证,如果验证码不正确,则再次进行验证,如果验证码正确,则等待5s,进行下载,代码如下:def yanzheng(url,path,session_url,name):

img_url = 'http://files.lavteam.org/img.php?size=3'

res = session.get(img_url)

with open('img.jpg', 'wb') as f:

f.write(res.content)

img = shibie('img.jpg')

data = {

'vImageCodP': img,

'checkimagecode': '(unable to decode value)',

}

header = {

'Host': 'files.lavteam.org',

'Origin': 'http://files.lavteam.org',

'Referer': url,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',

}

res = session.post(url, data=data, headers=header).text

html = etree.HTML(res)

l = html.xpath('//div/@id')

if "downloadhtml" in l:

print('验证码正确!')

print('请等待10s!')

time.sleep(10)

if not os.path.exists(path):

os.makedirs(path)

data = {

'download': '(unable to decode value)',

}

heade = {

'Connection': 'keep-alive',

'Host': 'files.lavteam.org',

'Origin': 'http://files.lavteam.org',

'Referer': url,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36',

}

print('开始下载'+ name +',可能需要很长时间,请耐心等待...')

res = session.post(session_url, data=data, headers=heade)

with open(path + name, 'wb') as f:

f.write(res.content)

print('下载完成!')

else:

print('验证码错误,请重新输入验证码!!!')

yanzheng(url,path,session_url,name)七、百度识别接口

在用百度文字是别的时候,我还对图片当中的早点进行了去燥,位的是识别率更高,其整体代码如下:

def shibie(img):

# 下面3个变量请自行更改

APP_ID = '11620307'

API_KEY = 'Nl2oc5uuoPPkGMtoLGCUGgVj'

SECRET_KEY = 'bF48ggt4d891NFhDHPmfjzGR3DvY4XLO'

aipOcr = AipOcr(APP_ID, API_KEY, SECRET_KEY)

filePaths = img

filePath = Image.open(filePaths)

filePath = filePath.convert('L')

threshold = 127

table = []

for i in range(256):

if i < threshold:

table.append(0)

else:

table.append(2)

filePath = filePath.point(table, '1')

filePath.save("imgage.png")

def get_file_content(filePath):

with open(filePath, 'rb') as fp:

return fp.read()

# 定义参数变量

options = {

'detect_direction': 'true',

'language_type': 'CHN_ENG',

}

# 调用通用文字识别接口

filePathss = "imgage.png"

result = aipOcr.basicAccurate(get_file_content(filePathss), options)

img = result['words_result'][0]['words']

imgs = img.replace(' ','')

print(imgs)

return imgsrar.gif

lavteamshibie.rar

(2.26 KB, 下载次数: 78)

2019-5-8 09:33 上传

点击文件名下载附件

详细代码

下载积分: 吾爱币 -1 CB希望得到大家的热心于评分。

4.gif

4.gif

4.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_703615.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题&#xff1a;不踩坑的Python爬虫&#xff1a;如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察&#xff0c;就不难发现&#xff0c;懂爬虫、学习爬虫的人越来越多&#xff0c;一方面&#xff0c;互联网可以获取的数据越来越多&#xff0c;另一方面…

白帽社区“乌云”已超9小时无法访问 公告称网站服务升级

7月20日&#xff0c;国内知名白帽子社区“乌云”&#xff08;http://www.wooyun.org/&#xff09;今日已无法正常访问&#xff0c;网站挂出公告称“进行升级”。 7月19日晚间23点&#xff0c;微博“互联网的那件事”曝出乌云官方网站显示无法访问。由此算来&#xff0c;截至发稿…

网站发布

转载于:https://www.cnblogs.com/defineconst/p/6380324.html

增长黑盒:零代码基础做智能电商网站,不要重复发明轮子

增长黑盒&#xff1a;零代码基础做智能电商网站 Step0&#xff0c;不破不立&#xff0c;走上增长黑客之路 很多卖货的人最大的问题就是整个团队没有一个懂代码的&#xff0c;更不懂电商网站制作。此时贸然出去外包一个电商网站&#xff0c;问题可能会越来越多。 《增长黑客》中…

【校园先行者】曲径通幽,我用阿里云部署的个人网站及挂机实践分享

未见意趣&#xff0c;必不乐学。目前大二的田程&#xff0c;出于对软件编程的爱好用ECS云服务器部署了一个个人网站。最初使用虚拟机服务的他&#xff0c;认为阿里云服务器的高性价比、丰富的云市场以及详备的售后完美满足了个人需求。 项目初衷 我叫田程&#xff0c;是四川理工…

借助URLOS快速安装python3网站环境

环境需求 1. 最低硬件配置&#xff1a;1核CPU&#xff0c;1G内存&#xff08;11&#xff09;提示&#xff1a;如果你的应用较多&#xff0c;而主机节点的硬件配置较低&#xff0c;建议在部署节点时开通虚拟虚拟内存&#xff1b;2. 生产环境建议使用2G或以上内存&#xff1b;3. …

免费猪八戒网站软件任务小助手--小八戒更新版本1.5

前段时间猪八戒网站改版了&#xff0c;我把小八戒也更新了一下&#xff0c;以适应他们新的版面。 界面还是那样&#xff0c;没有做其它的更改。其实本来打算做出来2.0之后再发布的&#xff0c;但是因为这段时间太忙&#xff0c;没有时间去开发2.0&#xff0c;就先把1.5放出来了…

Docker部署网站之后映射域名

Docker中部署tomcat相信大家也都知道&#xff0c;不知道的可以google 或者bing 一下。这里主要是为了记录在我们启动容器之后&#xff0c;tomcat需要直接定位到网站信息&#xff0c;而不是打开域名之后&#xff0c;还得加个blog后缀才能访问到我们的网站首页。 Docker exec -it…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

CentOS LAMP一键安装网站环境及添加域名

一般的VPS用户普遍使用一键安装包和WEB管理面板居多&#xff0c;在一键安装包中&#xff0c;使用LAMP和LNMP的普遍居多。 第一个版本的LAMP环境包安装过程以及建站过程分享出来。 第一、LAMP一键包环境的安装 目前这个环境包是 wget http://soft.laozuo.org/lamp/lamp_centos1.…

网站入口页双栏对称布局实现思路

先来一张预览图。 接下来说一说这种页面布局的实现思路&#xff0c;因为自己是从零开始的&#xff0c;所以着实花了好几天功夫才实现了这么一个看起来很简单的布局&#xff0c;所有东西都要自己一点点摸索&#xff0c;不过这种经历对于自己的成长也是很有帮助的。好了&#xff…

使用php与mysql构建我们的网站

技术这个玩意就是要不断的去使用&#xff0c;才能够熟能生巧。今天我记录的使用php与mysql构建我们的网站&#xff0c;其实是我两年前的时候写的项目。 现在看看自己以前写的个人项目&#xff0c;也会感叹时间究竟带走了什么&#xff1f;好记性不如烂笔头&#xff0c;常写常练&…

自学python推荐书籍同时找哪些来实践-Python学习路上有这些论坛、网站、书籍与你同行...

Python学习路上有这些论坛、网站、书籍与你同行 2019-05-03 18:24:41 613点赞 9508收藏 164评论 创作立场声明&#xff1a;希望我的一些经验可以给你少走一些弯路&#xff0c;但人总得走点弯路才可以成长。别怕&#xff0c;在学习python的路上有我陪着你。人生苦短&#xff0c;…

学习编程可以参考哪些网站?

1、Free Online Course Materialshttps://ocw.mit.edu/index.htm免费的麻省理工学院课程&#xff0c;有各种视频讲座、笔记和资源。2、codecademyhttps://www.codecademy.com/catalog/subject/web-development非常有名的学习代码的网站&#xff0c;对于计算机科学家、web开发人…

怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑 一&#xff1a;本代码是我研究了好久才写出来&#xff0c;七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载&#xff01; 首先&#xff0c;搬上我们的主角网址&#xff0c;http://lavteam.org/&#xff…

大型网站应用中MySQL的架构演变史

没有什么东西是一成不变的&#xff0c;包含我们的理想和生活&#xff01;MySQL作为一个免费的开源的关系型数据库&#xff0c;深受大家喜爱&#xff0c;从最初的无人问津到当下的去IOE&#xff0c;都体现出了MySQL举足轻重的作用。今天我们就从淘宝的发展来阐述MySQL在大型网站…

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题&#xff1a;不踩坑的Python爬虫&#xff1a;如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察&#xff0c;就不难发现&#xff0c;懂爬虫、学习爬虫的人越来越多&#xff0c;一方面&#xff0c;互联网可以获取的数据越来越多&#xff0c;另一方面…

python、语言的主网站网址是-国产编程语言木兰被网友扒皮:原来是Python语言打包...

日前中科院计算所下属单位发布了编程语言木兰&#xff0c;号称计算所编译实验室完全自主设计、开发和实现的编程语言&#xff0c;与之配套的编译器与集成开发工具也完全由团队自主实现。不过该语言发布之后&#xff0c;网友发现它其实是Python语言打包的&#xff0c;很多函数都…

python写网站和java写网站的区别-为什么说Java和Python现阶段并不适合普通网站建设...

经过20多年的发展&#xff0c;网站开发技术已经非常成熟&#xff0c;用于网站制作的程序语言也有很多。常见的当然是php和asp.net&#xff0c;特别是php程序语言&#xff0c;虽然其已经有很多年历史也历经多次迭代升级&#xff0c;但在凭借其开源、轻巧等优势&#xff0c;在网站…