python爬取安居客二手房网站数据

news/2024/5/20 11:31:27/文章来源:https://blog.csdn.net/weixin_30800987/article/details/99017327

之前没课的时候写过安居客的爬虫,但那也是小打小闹,那这次呢,

还是小打小闹

哈哈,现在开始正式进行爬虫书写

首先,需要分析一下要爬取的网站的结构:

作为一名河南的学生,那就看看郑州的二手房信息吧!

在上面这个页面中,我们可以看到一条条的房源信息,从中我们发现了什么,发现了连郑州的二手房都是这么的贵,作为即将毕业的学生狗惹不起啊惹不起

还是正文吧!!!

由上可以看到网页一条条的房源信息,点击进去后就会发现:

房源的详细信息。

OK!那么我们要干嘛呢,就是把郑州这个地区的二手房房源信息都能拿到手,可以保存到数据库中,用来干嘛呢,作为一个地理人,还是有点用处的,这次就不说了

好,正式开始,首先我采用python3.6 中的requests,BeautifulSoup模块来进行爬取页面,

首先由requests模块进行请求:

# 网页的请求头
header = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}
# url链接
url = 'https://zhengzhou.anjuke.com/sale/'
response = requests.get(url, headers=header)
print(response.text)

执行后就会得到这个网站的html代码了

通过分析可以得到每个房源都在class="list-item"的 li 标签中,那么我们就可以根据BeautifulSoup包进行提取

# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印
soup = BeautifulSoup(response.text, 'html.parser')
result_li = soup.find_all('li', {'class': 'list-item'})
for i in result_li:print(i)

 通过打印就能进一步减少了code量,好,继续提取

# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印
soup = BeautifulSoup(response.text, 'html.parser')
result_li = soup.find_all('li', {'class': 'list-item'})
# 进行循环遍历其中的房源详细列表
for i in result_li:# 由于BeautifulSoup传入的必须为字符串,所以进行转换page_url = str(i)soup = BeautifulSoup(page_url, 'html.parser')# 由于通过class解析的为一个列表,所以只需要第一个参数result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]print(result_href.attrs['href'])

这样,我们就能看到一个个的url了,是不是很喜欢

好了,按正常的逻辑就要进入页面开始分析详细页面了,但是爬取完后如何进行下一页的爬取呢

所以,我们就需要先分析该页面是否有下一页

同样的方法就可以发现下一页同样是如此的简单,那么咱们就可以还是按原来的配方原来的味道继续

# 进行下一页的爬取
result_next_page = soup.find_all('a', {'class': 'aNxt'})
if len(result_next_page) != 0:print(result_next_page[0].attrs['href'])
else:print('没有下一页了')

因为当存在下一页的时候,网页中就是一个a标签,如果没有的话,就会成为i标签了,所以这样的就行,因此,我们就能完善一下,将以上这些封装为一个函数

import requests
from bs4 import BeautifulSoup# 网页的请求头
header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}def get_page(url):response = requests.get(url, headers=header)# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印soup = BeautifulSoup(response.text, 'html.parser')result_li = soup.find_all('li', {'class': 'list-item'})# 进行下一页的爬取result_next_page = soup.find_all('a', {'class': 'aNxt'})if len(result_next_page) != 0:# 函数进行递归get_page(result_next_page[0].attrs['href'])else:print('没有下一页了')# 进行循环遍历其中的房源详细列表for i in result_li:# 由于BeautifulSoup传入的必须为字符串,所以进行转换page_url = str(i)soup = BeautifulSoup(page_url, 'html.parser')# 由于通过class解析的为一个列表,所以只需要第一个参数result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]# 先不做分析,等一会进行详细页面函数完成后进行调用print(result_href.attrs['href'])if __name__ == '__main__':# url链接url = 'https://zhengzhou.anjuke.com/sale/'# 页面爬取函数调用get_page(url)

好了,那么咱们就开始详细页面的爬取了

哎,怎么动不动就要断电了,大学的坑啊,先把结果附上,闲了在补充,

import requests
from bs4 import BeautifulSoup# 网页的请求头
header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}def get_page(url):response = requests.get(url, headers=header)# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印soup_idex = BeautifulSoup(response.text, 'html.parser')result_li = soup_idex.find_all('li', {'class': 'list-item'})# 进行循环遍历其中的房源详细列表for i in result_li:# 由于BeautifulSoup传入的必须为字符串,所以进行转换page_url = str(i)soup = BeautifulSoup(page_url, 'html.parser')# 由于通过class解析的为一个列表,所以只需要第一个参数result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]# 详细页面的函数调用get_page_detail(result_href.attrs['href'])# 进行下一页的爬取result_next_page = soup_idex.find_all('a', {'class': 'aNxt'})if len(result_next_page) != 0:# 函数进行递归get_page(result_next_page[0].attrs['href'])else:print('没有下一页了')# 进行字符串中空格,换行,tab键的替换及删除字符串两边的空格删除
def my_strip(s):return str(s).replace(" ", "").replace("\n", "").replace("\t", "").strip()
# 由于频繁进行BeautifulSoup的使用,封装一下,很鸡肋
def my_Beautifulsoup(response):return BeautifulSoup(str(response), 'html.parser')# 详细页面的爬取
def get_page_detail(url):response = requests.get(url, headers=header)if response.status_code == 200:soup = BeautifulSoup(response.text, 'html.parser')# 标题什么的一大堆,哈哈result_title = soup.find_all('h3', {'class': 'long-title'})[0]result_price = soup.find_all('span', {'class': 'light info-tag'})[0]result_house_1 = soup.find_all('div', {'class': 'first-col detail-col'})result_house_2 = soup.find_all('div', {'class': 'second-col detail-col'})result_house_3 = soup.find_all('div', {'class': 'third-col detail-col'})soup_1 = my_Beautifulsoup(result_house_1)soup_2 = my_Beautifulsoup(result_house_2)soup_3 = my_Beautifulsoup(result_house_3)result_house_tar_1 = soup_1.find_all('dd')result_house_tar_2 = soup_2.find_all('dd')result_house_tar_3 = soup_3.find_all('dd')'''文博公寓,省实验中学,首付只需70万,大三房,诚心卖,价可谈 270万宇泰文博公寓 金水-花园路-文博东路4号 2010年 普通住宅3室2厅2卫 140平方米 南北 中层(共32层)精装修 19285元/m² 81.00万'''print(my_strip(result_title.text), my_strip(result_price.text))print(my_strip(result_house_tar_1[0].text),my_strip(my_Beautifulsoup(result_house_tar_1[1]).find_all('p')[0].text),my_strip(result_house_tar_1[2].text), my_strip(result_house_tar_1[3].text))print(my_strip(result_house_tar_2[0].text), my_strip(result_house_tar_2[1].text),my_strip(result_house_tar_2[2].text), my_strip(result_house_tar_2[3].text))print(my_strip(result_house_tar_3[0].text), my_strip(result_house_tar_3[1].text),my_strip(result_house_tar_3[2].text))if __name__ == '__main__':# url链接url = 'https://zhengzhou.anjuke.com/sale/'# 页面爬取函数调用get_page(url)

由于自己边写博客,边写的代码,所以get_page函数中进行了一些改变,就是下一页的递归调用需要放在函数后面,以及进行封装了两个函数没有介绍,

而且数据存储到mysql也没有写,所以后期会继续跟进的,thank you!!!

 

转载于:https://www.cnblogs.com/gkf0103/p/7689600.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_814236.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

网站备案是否真的需要关闭网站?

近期有好几个手上的单,本来已经有很好的收录和排名了,但是突然访问不了了! 询问之下,原来是在申请备案,空间商强制关闭了网站! 难道备案真的必须关闭网站?!!我们幸苦做出…

网站建设之关键词精准定位

为什么80%的码农都做不了架构师?>>> 你是否能在切图中关键词精准的定位呢?请运用“主谓宾定状补”去思考问题,从而去解读下来文章内容,感谢你的光临! 关键词精准定位。做民营医院的网站已经有一年了&#…

分析网站原始访问日志

分析网站原始访问日志 Ludou 人气: 3,844 次我要评论( 21 )我要投稿文章目录 1、注意那些被频繁访问的资源 2、注意那些你网站上不存在资源的请求 3、观察搜索引擎蜘蛛的来访情况 4、观察访客行为 应敌之策 1、封杀某个IP 2、封杀某个浏览器类型(Agent) …

推荐几个知名顶级的文献网站

有人在后台给我留言,让我推荐几个查找文献的网站,周末特别花了点时间整理了一下。在这里推荐给大家,希望对大家有帮助!本文总共分为2篇,一篇为国内的网站,一篇为国外的网站 。喜欢的朋友,记得长…

Android利用Jsoup解析html 开发网站客户端小记

这些天业余时间比较多,闲来无事,想起了以前看过开发任意网站客户端的一篇文章,就是利用jsoup解析网站网页,通过标签获取想要的内容。好了废话不多说,用到的工具为 jsoup-1.7.2.jar包,具体jsoup的相关文档&a…

Jsoup开发网站客户端第二篇,图片轮播,ScrollView兼容ListView

最近一段日子忙的焦头烂额,代码重构,新项目编码,导致jsoup开发网站客户端也没时间继续下去,只能利用晚上时间去研究了。今天实现美食网首页图片轮播效果,网站效果图跟Android客户端实现如图: 从浏览器开发者…

开发任意网站Android客户端教程

程序已经完成,源码下载: Yangtze.zip (2 MB, 下载次数: 5337) 2012-12-19 09:05 上传点击文件名下载附件 下载积分: 下载豆 -2 登陆是需要账号的,账号可能还要留着后续开发.而 我已经毕业了, 要是被改了我还真没法改回来了...所以就不提供了.如果有人特别想要登陆看看的,可以在…

一步步教你为网站开发Android客户端

本文面向Android初级开发者,有一定的Java和Android知识即可。文章覆盖知识点:HttpWatch抓包,HttpClient模拟POST请求,Jsoup解析HTML代码,动态更新ListView背景介绍:客户端(Client)或…

Android模拟登陆带验证码的网站客户端

首先获取验证码并保存Cookie,登陆时将Cookie和账号密码一同发送出去,返回状态码200,登陆成功,接下来再去访问其他需要登录权限的页面时附上Cookie发送出去即可。 要实现模拟登陆,首先需要了解登陆网站时请求中都包含什…

使用jsoup做任意网站的客户端

jsoup是一个解析网页源码的开源库,他能按照给定的规则提取出一个网页中的任意元素,和其他网页解析库不同的是,他提取网页内容的方式和css、jquery的选择器非常相似。因此如果你懂得前端的知识,只需根据以下的代码样例就可以在3分钟…

原来我们不懂百度seo排名和百度竞价

2013年即将结束,高富白美在欢乐着自己的年假和年终奖,而我等只能继续苦逼的为梦想坚持到除夕放假,或许这是假日组在淬炼我们的精神吧,笑一笑有啥,切入主题。网络营销千千万,我们今天只看百度系,…

免费主机备案带宽_怎样自己建立一个网站,免费建站靠不靠谱

一、网站的组成网站主要由域名、服务器、网页三个部分组成。如果把网站比作一个房子的话,那么域名:相当于网站的地址,或者说是门牌号,用来找到网站,网站上的网页都是以网站的域名开头的,例如网站域名是www.…

Flink 指定时间范围内网站总浏览量(PV)的统计

基于Flink 统计每小时内的网站PV。 public class Flink03_Practice_PageView_Window2 {public static void main(String[] args) throws Exception {//1.获取执行环境StreamExecutionEnvironment env StreamExecutionEnvironment.getExecutionEnvironment();//2.读取文本数据…

JavaScript网站设计实践(六)编写live.html页面 改进表格显示

一、编写live.html页面,1、JavaScript实现表格的隔行换色,并且当鼠标移过时当前行高亮显示;2、是输出表格中的abbr标签的内容 实现后的效果图是这样的: 1、实现思路 在输出表格的时候,给出一个判断,如果偶数…

分享10个最佳的WordPress教程免费学习网站

WordPress是用于发布信息的最热门平台之一。 WordPress可用于个人或商业博客,也可以为你用于你的在线业务。WordPress最大的优点是,你可以轻松地去进行自定义设置,而且不必懂太多编程方面的知识。你对WordPress的一些知识懂的越多&#xff0c…

Python爬虫:使用正则表达式爬取网站电影信息

以爬取电影天堂喜剧片前5页信息为例,代码如下: 1 # coding:UTF-82 3 import requests4 import re5 6 def mov():7 headers{User-Agent:Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/53…

流量排名前一千万网站,三分之一使用 WordPress

开发四年只会写业务代码,分布式高并发都不会还做程序员? >>> WordPress 在官博发文,庆祝它在流量排名前一千万网站中的市场占有率达到了三分之一。据 W3Techs 的数据,WordPress 在前一千万网站的市场份额从一年前的 29…

node的系统核心模块实现服务器功能、用nodejs做动态网站(后端渲染)

1、初步实现服务器功能详解 a、静态服务器功能---提供静态网页(不管什么路径访问的响应只有ok) b、优化a做的功能 ---处理路径的分发(我们期待结果是不同路径对应不同响应处理(页面)) 通过postman工具可以…

网站速度测试

为什么80%的码农都做不了架构师?>>> |国内 卡卡网:http://www.webkaka.com/ (可以设置国内测试点和全球测试点 奇云测速:http://ce.cloud.360.cn/ |国外 PINGDOM :http://tools.pingdom.com/fpt/ |导航…

大型网站技术架构(四)网站的高性能架构

2019独角兽企业重金招聘Python工程师标准>>> 网站性能是客观的指标,可以具体体现到响应时间、吞吐量、并发数、性能计数器等技术指标。 1、性能测试指标 1.1 响应时间 指应用执行一个操作需要的时间,指从发出请求到最后收到响应数据所需要的时…