怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

news/2024/5/14 0:03:53/文章来源:https://blog.csdn.net/weixin_37988176/article/details/109428749

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑

一:本代码是我研究了好久才写出来,七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载!

首先,搬上我们的主角网址,http://lavteam.org/,进去一看,是一个俄罗斯人创建的网站,七内容让我们不亦乐乎。

二:登陆

要进行分析,首先要注册一个账号,账号各位自己注册。

抓包发现,他的登陆请求地址为http://www.lavteam.org/,其中表单:

none.gif

QQ图片20190508090034.png (14.08 KB, 下载次数: 1)

2019-5-8 09:01 上传

我们构造表单,进行请求,其函数为:

def login():

print('正在登陆......')

req = session.get(first_url)

data = {

'login_name': '账号',

'login_password':'密码',

'login': 'submit',

'image.x': '43',

'image.y': '11',

}

req = session.post(first_url,data = data)

三:查询

登陆进去就需要查找自己想要的内容,比如我们输入ventsim,然后进行抓包,抓包得到:

Request URL:http://lavteam.org/

Request Method:POST

其表单为:

none.gif

QQ图片20190508090733.png (11.58 KB, 下载次数: 1)

2019-5-8 09:08 上传

接着我们再构造其请求,请求返回的内容列表我把他整理成字典的格式,方便在于我只要输入软件编号,就可以对该内容进行深入操作,我对多页内容都进行了遍历,所有的内容链接都整理了出来,代码如下:

def reach(ventsim):

data = {

'do': 'search',

'subaction': 'search',

'story': ventsim,

'x': '42',

'y':'9' ,

}

req = session.post(first_url,data = data).text

html = etree.HTML(req)

url = html.xpath('//div[@class="text-left"]/a/@href')

name = html.xpath('//div[@class="text-left"]/a/text()')

num = html.xpath('//div[@class="navigation ignore-select"]/a/text()')[-2]

f = {}

for i in range(len(name)):

f= urlprint(i,name)

for k in range(int(num)-1):

search_start = 2 + k

result_from = 11 + 10*k

data = {

'do': 'search',

'subaction': 'search',

'search_start': str(search_start),

'full_search':'0' ,

'result_from': str(result_from),

'story': ventsim

}

req = session.post('http://www.lavteam.org/index.php?do=search', data=data).text

html = etree.HTML(req)

url = html.xpath('//div[@class="text-left"]/a/@href')

name = html.xpath('//div[@class="text-left"]/a/text()')

for j in range(len(name)):

f[(k+1)*10+j] = url[j]

print((k+1)*10+j,name[j])

return f

四:进入详情界面

我们从上一步查询的返回值中,找到软件详情页面的链接,然后进行请求,抓包得到的结果:

Request URL:http://lavteam.org/2018/04/02/howden-group-ventsim-visual-premium-v4869.html

Request Method:GETIDA Console, Courier New, monospace">然后再用python进行构造这个请求,代码如下:

def intopage(url):

page = session.get(url).text

html = etree.HTML(page)

url = html.xpath('//a[@target="_blank" and @Class = "medium blue awesome"or @class = "medium red awesome" or @class = "small blue awesome" or @class = "small red awesome" or @class = "large blue awesome" or @class = "large red awesome"]/@href')

return url五、下载页面

分析可知,其点击进入下载页面的链接在下载页面可以抓包抓到,他是一个get请求,其抓包得到的headers如下:

Request URL:http://files.lavteam.org/leech?cat=warez%2FPrograms%2FVentSim&file=Howden.Ventsim.Visual.Premium.v4.8.6.9.rar

Request Method:GET其构造的代码如下:

def dawnload(url,path,Referer):

headers = {

'Host': 'files.lavteam.org',

'Referer': Referer,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',

}

rep = session.get(url,headers = headers).text

pat = 'accesskey="p">'

session_html = re.compile(pat).findall(rep)[0][2:-2].split('=')

session_url = 'http://files.lavteam.org/download/'+session_html[1][:-4]+'/'+session_html[3]

name = session_html[3]

# print(session_url)

yanzheng(url,path,session_url,name)

六、验证

验证码的验证,我们需要请求获取验证码图片,然后我是介入百度的文字识别接口,自动识别验证码内容,然后作为请求验证的表单进行求求验证,如果验证码不正确,则再次进行验证,如果验证码正确,则等待5s,进行下载,代码如下:def yanzheng(url,path,session_url,name):

img_url = 'http://files.lavteam.org/img.php?size=3'

res = session.get(img_url)

with open('img.jpg', 'wb') as f:

f.write(res.content)

img = shibie('img.jpg')

data = {

'vImageCodP': img,

'checkimagecode': '(unable to decode value)',

}

header = {

'Host': 'files.lavteam.org',

'Origin': 'http://files.lavteam.org',

'Referer': url,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36',

}

res = session.post(url, data=data, headers=header).text

html = etree.HTML(res)

l = html.xpath('//div/@id')

if "downloadhtml" in l:

print('验证码正确!')

print('请等待10s!')

time.sleep(10)

if not os.path.exists(path):

os.makedirs(path)

data = {

'download': '(unable to decode value)',

}

heade = {

'Connection': 'keep-alive',

'Host': 'files.lavteam.org',

'Origin': 'http://files.lavteam.org',

'Referer': url,

'Upgrade-Insecure-Requests': '1',

'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.92 Safari/537.36',

}

print('开始下载'+ name +',可能需要很长时间,请耐心等待...')

res = session.post(session_url, data=data, headers=heade)

with open(path + name, 'wb') as f:

f.write(res.content)

print('下载完成!')

else:

print('验证码错误,请重新输入验证码!!!')

yanzheng(url,path,session_url,name)七、百度识别接口

在用百度文字是别的时候,我还对图片当中的早点进行了去燥,位的是识别率更高,其整体代码如下:

def shibie(img):

# 下面3个变量请自行更改

APP_ID = '11620307'

API_KEY = 'Nl2oc5uuoPPkGMtoLGCUGgVj'

SECRET_KEY = 'bF48ggt4d891NFhDHPmfjzGR3DvY4XLO'

aipOcr = AipOcr(APP_ID, API_KEY, SECRET_KEY)

filePaths = img

filePath = Image.open(filePaths)

filePath = filePath.convert('L')

threshold = 127

table = []

for i in range(256):

if i < threshold:

table.append(0)

else:

table.append(2)

filePath = filePath.point(table, '1')

filePath.save("imgage.png")

def get_file_content(filePath):

with open(filePath, 'rb') as fp:

return fp.read()

# 定义参数变量

options = {

'detect_direction': 'true',

'language_type': 'CHN_ENG',

}

# 调用通用文字识别接口

filePathss = "imgage.png"

result = aipOcr.basicAccurate(get_file_content(filePathss), options)

img = result['words_result'][0]['words']

imgs = img.replace(' ','')

print(imgs)

return imgsrar.gif

lavteamshibie.rar

(2.26 KB, 下载次数: 78)

2019-5-8 09:33 上传

点击文件名下载附件

详细代码

下载积分: 吾爱币 -1 CB希望得到大家的热心于评分。

4.gif

4.gif

4.gif

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_703637.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题&#xff1a;不踩坑的Python爬虫&#xff1a;如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察&#xff0c;就不难发现&#xff0c;懂爬虫、学习爬虫的人越来越多&#xff0c;一方面&#xff0c;互联网可以获取的数据越来越多&#xff0c;另一方面…

切换节点服务器网站,服务器手动切换节点

服务器手动切换节点 内容精选换一换1、集群当前的节点数较多&#xff0c;可以选择将部分节点进行删除&#xff0c;对集群进行缩容操作以同时节省费用。2、集群中某个节点出现异常且无法手动恢复后&#xff0c;可使用节点删除将该节点进行删除操作&#xff0c;随后根据需要再重新…

网站访问过程理解(一点记录)

一个普通网站访问的过程 简单概括一下&#xff0c;对于我们普通的网站访问&#xff0c;涉及到的技术就是&#xff1a;用户操作浏览器访问&#xff0c;浏览器向服务器发出一个 HTTP 请求&#xff1b;服务器接收到 HTTP 请求&#xff0c;Web Server 进行相应的初步处理&#xff0…

【错误记录】GitHub 网站和仓库无法访问 ( 域名重定向 | 检查 C:\Windows\System32\drivers\etc\hosts 配置文件中的 GitHub 地址域名配置 )

文章目录一、报错信息二、解决方案一、报错信息 在家里的电脑中 , 出现 无法访问 GitHub 网站 , 使用任何手段都无法访问 GitHub ; 二、解决方案 家里的电脑比较乱 , 使用了各种游戏加速器 , 梯子等工具 , 另外为了解决某些特定问题 , 手动修改 C:\Windows\System32\drivers\et…

SEO优化简要工作流程

SEO技术是复杂的&#xff0c;知识体系也是非常庞大的&#xff0c;但是知识相比实战技巧&#xff0c;知识就显得次要了。SEO初学者往往重知识&#xff0c;却往往忽视其中的技巧&#xff0c;实战技巧也绝非短期内可积累到的。本人其实也是一个SEO新手&#xff0c;虽然有6-7年做站…

webzip下载整个网站工具-WebZip

2019独角兽企业重金招聘Python工程师标准>>> WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,也可以下载到你电脑的文件夹当中&#xff0c;可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来&#xff0c;可供你日后快速浏览这个网站。且新一版的功能包括可…

网站自动登录功能的设计[转]

网站的自动登录一直都是有利于提高用户体验的功能&#xff0c;如果设计不好&#xff0c;也非常容易泄漏用户的账户信息。 比较常见的功能实现方案是将用户的登录信息保存在浏览器的Cookie中。看到一些设计有缺陷的网站会将用户的用户名和密码信息保存在Cookie中&#xff0c;这种…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…

自学python推荐书籍同时找哪些来实践-Python学习路上有这些论坛、网站、书籍与你同行...

Python学习路上有这些论坛、网站、书籍与你同行 2019-05-03 18:24:41 613点赞 9508收藏 164评论 创作立场声明&#xff1a;希望我的一些经验可以给你少走一些弯路&#xff0c;但人总得走点弯路才可以成长。别怕&#xff0c;在学习python的路上有我陪着你。人生苦短&#xff0c;…

怎么在python下载网站内容-分析某网站,并利用python自动登陆该网站,下载网站内容...

本帖最后由 愤怒的小车 于 2019-5-8 09:41 编辑 一&#xff1a;本代码是我研究了好久才写出来&#xff0c;七功能主要有自动登陆、自动识别验证码、以及自动识别下载格式进行判断下载&#xff01; 首先&#xff0c;搬上我们的主角网址&#xff0c;http://lavteam.org/&#xff…

python爬虫怎么爬同一个网站的多页数据-不踩坑的Python爬虫:如何在一个月内学会爬取大规模数据...

原标题&#xff1a;不踩坑的Python爬虫&#xff1a;如何在一个月内学会爬取大规模数据Python爬虫为什么受欢迎 如果你仔细观察&#xff0c;就不难发现&#xff0c;懂爬虫、学习爬虫的人越来越多&#xff0c;一方面&#xff0c;互联网可以获取的数据越来越多&#xff0c;另一方面…

白帽社区“乌云”已超9小时无法访问 公告称网站服务升级

7月20日&#xff0c;国内知名白帽子社区“乌云”&#xff08;http://www.wooyun.org/&#xff09;今日已无法正常访问&#xff0c;网站挂出公告称“进行升级”。 7月19日晚间23点&#xff0c;微博“互联网的那件事”曝出乌云官方网站显示无法访问。由此算来&#xff0c;截至发稿…

网站发布

转载于:https://www.cnblogs.com/defineconst/p/6380324.html

增长黑盒:零代码基础做智能电商网站,不要重复发明轮子

增长黑盒&#xff1a;零代码基础做智能电商网站 Step0&#xff0c;不破不立&#xff0c;走上增长黑客之路 很多卖货的人最大的问题就是整个团队没有一个懂代码的&#xff0c;更不懂电商网站制作。此时贸然出去外包一个电商网站&#xff0c;问题可能会越来越多。 《增长黑客》中…

【校园先行者】曲径通幽,我用阿里云部署的个人网站及挂机实践分享

未见意趣&#xff0c;必不乐学。目前大二的田程&#xff0c;出于对软件编程的爱好用ECS云服务器部署了一个个人网站。最初使用虚拟机服务的他&#xff0c;认为阿里云服务器的高性价比、丰富的云市场以及详备的售后完美满足了个人需求。 项目初衷 我叫田程&#xff0c;是四川理工…

借助URLOS快速安装python3网站环境

环境需求 1. 最低硬件配置&#xff1a;1核CPU&#xff0c;1G内存&#xff08;11&#xff09;提示&#xff1a;如果你的应用较多&#xff0c;而主机节点的硬件配置较低&#xff0c;建议在部署节点时开通虚拟虚拟内存&#xff1b;2. 生产环境建议使用2G或以上内存&#xff1b;3. …

免费猪八戒网站软件任务小助手--小八戒更新版本1.5

前段时间猪八戒网站改版了&#xff0c;我把小八戒也更新了一下&#xff0c;以适应他们新的版面。 界面还是那样&#xff0c;没有做其它的更改。其实本来打算做出来2.0之后再发布的&#xff0c;但是因为这段时间太忙&#xff0c;没有时间去开发2.0&#xff0c;就先把1.5放出来了…

Docker部署网站之后映射域名

Docker中部署tomcat相信大家也都知道&#xff0c;不知道的可以google 或者bing 一下。这里主要是为了记录在我们启动容器之后&#xff0c;tomcat需要直接定位到网站信息&#xff0c;而不是打开域名之后&#xff0c;还得加个blog后缀才能访问到我们的网站首页。 Docker exec -it…

如何用python创建一个下载网站-用Python下载一个网页保存为本地的HTML文件实例...

我们可以用Python来将一个网页保存为本地的HTML文件&#xff0c;这需要用到urllib库。 比如我们要下载山东大学新闻网的一个页面&#xff0c;该网页如下&#xff1a;实现代码如下&#xff1a; import urllib.request def getHtml(url): html urllib.request.urlopen(url).read…