python爬取安居客二手房网站数据(转)

news/2024/5/21 10:04:41/文章来源:https://blog.csdn.net/weixin_34306593/article/details/93419049

之前没课的时候写过安居客的爬虫,但那也是小打小闹,那这次呢,

还是小打小闹

 

哈哈,现在开始正式进行爬虫书写

首先,需要分析一下要爬取的网站的结构:

作为一名河南的学生,那就看看郑州的二手房信息吧!

在上面这个页面中,我们可以看到一条条的房源信息,从中我们发现了什么,发现了连郑州的二手房都是这么的贵,作为即将毕业的学生狗惹不起啊惹不起

 

还是正文吧!!!

由上可以看到网页一条条的房源信息,点击进去后就会发现:

房源的详细信息。

OK!那么我们要干嘛呢,就是把郑州这个地区的二手房房源信息都能拿到手,可以保存到数据库中,用来干嘛呢,作为一个地理人,还是有点用处的,这次就不说了

好,正式开始,首先我采用python3.6 中的requests,BeautifulSoup模块来进行爬取页面,

首先由requests模块进行请求:

复制代码
# 网页的请求头
header = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}
# url链接
url = 'https://zhengzhou.anjuke.com/sale/'
response = requests.get(url, headers=header)
print(response.text)
复制代码

执行后就会得到这个网站的html代码了

通过分析可以得到每个房源都在class="list-item"的 li 标签中,那么我们就可以根据BeautifulSoup包进行提取

# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印
soup = BeautifulSoup(response.text, 'html.parser')
result_li = soup.find_all('li', {'class': 'list-item'})
for i in result_li:print(i)

 通过打印就能进一步减少了code量,好,继续提取

复制代码
# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印
soup = BeautifulSoup(response.text, 'html.parser')
result_li = soup.find_all('li', {'class': 'list-item'})
# 进行循环遍历其中的房源详细列表
for i in result_li:# 由于BeautifulSoup传入的必须为字符串,所以进行转换page_url = str(i)soup = BeautifulSoup(page_url, 'html.parser')# 由于通过class解析的为一个列表,所以只需要第一个参数result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]print(result_href.attrs['href'])
复制代码

这样,我们就能看到一个个的url了,是不是很喜欢

好了,按正常的逻辑就要进入页面开始分析详细页面了,但是爬取完后如何进行下一页的爬取呢

所以,我们就需要先分析该页面是否有下一页

同样的方法就可以发现下一页同样是如此的简单,那么咱们就可以还是按原来的配方原来的味道继续

# 进行下一页的爬取
result_next_page = soup.find_all('a', {'class': 'aNxt'})
if len(result_next_page) != 0:print(result_next_page[0].attrs['href'])
else:print('没有下一页了')

因为当存在下一页的时候,网页中就是一个a标签,如果没有的话,就会成为i标签了,所以这样的就行,因此,我们就能完善一下,将以上这些封装为一个函数

复制代码
import requests
from bs4 import BeautifulSoup# 网页的请求头
header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}def get_page(url):response = requests.get(url, headers=header)# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印soup = BeautifulSoup(response.text, 'html.parser')result_li = soup.find_all('li', {'class': 'list-item'})# 进行下一页的爬取result_next_page = soup.find_all('a', {'class': 'aNxt'})if len(result_next_page) != 0:# 函数进行递归get_page(result_next_page[0].attrs['href'])else:print('没有下一页了')# 进行循环遍历其中的房源详细列表for i in result_li:# 由于BeautifulSoup传入的必须为字符串,所以进行转换page_url = str(i)soup = BeautifulSoup(page_url, 'html.parser')# 由于通过class解析的为一个列表,所以只需要第一个参数result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]# 先不做分析,等一会进行详细页面函数完成后进行调用print(result_href.attrs['href'])if __name__ == '__main__':# url链接url = 'https://zhengzhou.anjuke.com/sale/'# 页面爬取函数调用get_page(url)
复制代码

好了,那么咱们就开始详细页面的爬取了

哎,怎么动不动就要断电了,大学的坑啊,先把结果附上,闲了在补充,

复制代码
import requests
from bs4 import BeautifulSoup# 网页的请求头
header = {'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/60.0.3112.113 Safari/537.36'
}def get_page(url):response = requests.get(url, headers=header)# 通过BeautifulSoup进行解析出每个房源详细列表并进行打印soup_idex = BeautifulSoup(response.text, 'html.parser')result_li = soup_idex.find_all('li', {'class': 'list-item'})# 进行循环遍历其中的房源详细列表for i in result_li:# 由于BeautifulSoup传入的必须为字符串,所以进行转换page_url = str(i)soup = BeautifulSoup(page_url, 'html.parser')# 由于通过class解析的为一个列表,所以只需要第一个参数result_href = soup.find_all('a', {'class': 'houseListTitle'})[0]# 详细页面的函数调用get_page_detail(result_href.attrs['href'])# 进行下一页的爬取result_next_page = soup_idex.find_all('a', {'class': 'aNxt'})if len(result_next_page) != 0:# 函数进行递归get_page(result_next_page[0].attrs['href'])else:print('没有下一页了')# 进行字符串中空格,换行,tab键的替换及删除字符串两边的空格删除
def my_strip(s):return str(s).replace(" ", "").replace("\n", "").replace("\t", "").strip()
# 由于频繁进行BeautifulSoup的使用,封装一下,很鸡肋
def my_Beautifulsoup(response):return BeautifulSoup(str(response), 'html.parser')# 详细页面的爬取
def get_page_detail(url):response = requests.get(url, headers=header)if response.status_code == 200:soup = BeautifulSoup(response.text, 'html.parser')# 标题什么的一大堆,哈哈result_title = soup.find_all('h3', {'class': 'long-title'})[0]result_price = soup.find_all('span', {'class': 'light info-tag'})[0]result_house_1 = soup.find_all('div', {'class': 'first-col detail-col'})result_house_2 = soup.find_all('div', {'class': 'second-col detail-col'})result_house_3 = soup.find_all('div', {'class': 'third-col detail-col'})soup_1 = my_Beautifulsoup(result_house_1)soup_2 = my_Beautifulsoup(result_house_2)soup_3 = my_Beautifulsoup(result_house_3)result_house_tar_1 = soup_1.find_all('dd')result_house_tar_2 = soup_2.find_all('dd')result_house_tar_3 = soup_3.find_all('dd')'''文博公寓,省实验中学,首付只需70万,大三房,诚心卖,价可谈 270万宇泰文博公寓 金水-花园路-文博东路4号 2010年 普通住宅3室2厅2卫 140平方米 南北 中层(共32层)精装修 19285元/m² 81.00万'''print(my_strip(result_title.text), my_strip(result_price.text))print(my_strip(result_house_tar_1[0].text),my_strip(my_Beautifulsoup(result_house_tar_1[1]).find_all('p')[0].text),my_strip(result_house_tar_1[2].text), my_strip(result_house_tar_1[3].text))print(my_strip(result_house_tar_2[0].text), my_strip(result_house_tar_2[1].text),my_strip(result_house_tar_2[2].text), my_strip(result_house_tar_2[3].text))print(my_strip(result_house_tar_3[0].text), my_strip(result_house_tar_3[1].text),my_strip(result_house_tar_3[2].text))if __name__ == '__main__':# url链接url = 'https://zhengzhou.anjuke.com/sale/'# 页面爬取函数调用get_page(url)
复制代码

由于自己边写博客,边写的代码,所以get_page函数中进行了一些改变,就是下一页的递归调用需要放在函数后面,以及进行封装了两个函数没有介绍,

而且数据存储到mysql也没有写,所以后期会继续跟进的,thank you!!!

 

https://www.cnblogs.com/gkf0103/p/7689600.html

 

转载于:https://www.cnblogs.com/kenshinobiy/p/10752703.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_763332.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

java写网页_初次尝试通过java写简单网站

一、安装Tomcat及配置1、下载Tomcat2.配置环境变量新建系统变量如下图所示修改path:变量末尾添加(%CATALINA_HOME%\bin)3.查询配置是否成功这样显示表示已经成功4.启动tomcat使用命令startup.bat当出现以上时在浏览器中输入http://localhost:8080注意以上两个命令框…

这个技术网站,恢复更新了!

点击上方“程序IT圈”,选择“置顶公众号”关键时刻,第一时间送达!大家好,还记得我之前开通了个在线学习博客网站『程序猿圈』,目前网站已经沉淀了一些对于大家有价值的内容了,已经更新了差不多100多篇干货文…

我顺藤摸瓜端了色情网站的老窝,并劝他从良

前几天无意发现了一个色情网站,本着除暴安良的心态,直接开始对这个网站开始了调查这个网站的域名是.cn结尾的 【.cn是国内域名,无法隐藏注册人的信息】我去站长之家里面对这个网站进行Whois查询按照惯例这种联系人的姓名基本是假的,我们对它进…

ios微信端网站遇到的问题

最近的一个项目,在测试ios时遇上了一些问题: 1.给div、span等元素绑定的点击事件无效 2.表单输入时整个页面白屏 3.readonly的元素出现光标(iphon5/ ios8.0) 第一条:给div、span(或非 a,input,button&#…

python做网站和php_做网站用php还是python

单纯说做网站,显然是php更适合,php是专为web而生,而Python只是可以做web。php也比python更简单,更容易学,对于新手更友好。从权威技术网站w3techs.com2017年7月28日的统计来看,PHP被82.7%的网站使用&#x…

MySQL在大型网站的应用架构演变

点击上方 蓝字字体 加关注吧作者:大熊先生原文:http://www.cnblogs.com/Creator/p/3776110.html作为最流行的开源数据库,MySQL被广泛应用在Web应用程序以及其它中小型项目上。然而不可忽视的是,在许多大型IT公司中,MyS…

制作动态网站是什么专业_网站制作需要注意哪几点才叫专业呢

网站制作需要注意哪几点才叫专业呢? 网站制作不是一件容易的事,那我们应该如何进行网站制作呢?一、确立网站风格和主题 网站的风格和主题对一个网站来说是至关重要的,如果网站有好的主题,必定有很多的人浏览。如果你的…

教你使用nginx部署网站教程

点击上方 蓝色字体 ,选择 星标 公众号重磅资讯、干货,第一时间送达今日推荐:在坚持了15年后,我毅然决定离开 Linux,投入 Mac 的怀抱作者:小火柴的蓝色理想链接:www.cnblogs.com/xiaohuochai前面…

iis php 无法访问此网站_一般网站建设需要注意哪些重点要素?

一般一个普通网站建设的三个基本要素是:网站的源代码、网站的服务器空间、网站的域名注册。我们在建网站的时候,一般都是先注册一个域名,买一台服务器或者租一个虚拟主机空间,然后把域名存档,文件完成后再做域名解析。深圳网站建设…

weboffice 比较好的源码_源码网站和模板网站的区别

根据网站开发的方式,可以将网站分为源码网站和模板网站。源码网站就是指网站是全新开发的,全新设计,全新代码进行开发,而模板网站就相对简单,就是在模板的网站代码的基础上进行简单的修改和部署。对于很多客户来说&…

Google 开发的、最好用、功能最强大的网页测速与网站性能分析工具

https://www.webpagetest.org/细致到每一个资源的加载都是完全可视化,包含详细的数据分析。开发完成自己的网站后一定要进行一下测试,你会发现还有很多可以优化的点。 转载于:https://www.cnblogs.com/flms/p/9584980.html

仅花 2 小时,网站就搭建好了,贼溜 ~

大家好,我是编程君。 今天,推荐一个系统项目。我第一次使用就有点上头,爱不释手,必须要推荐给大家。 上次是谁要的系统项目啊,我帮你找到了。 这是我目前见过最好的系统项目。功能完整,代码结构清晰。值得推…

一个网站从0到1搭建部署上线的完整流程(包教包会)

前言:要买服务器,建议在双十一购买,价格比平时便宜10倍,今年阿里云双十一活动的2款服务器,都非常便宜,最低49元,就能购买1年,只限新用户 。感兴趣的朋友扫码购买正文有很多做网页的前…

为什么视频网站的视频链接地址是blob?

原文地址:https://juejin.im/post/5d1ea7a8e51d454fd8057bea来源:掘金作者:wangzy2019自从HTML5提供了video标签,在网页中播放视频已经变成一个非常简单的事,只要一个video标签,src属性设置为视频的地址就完…

多网站项目的 CSS 架构

原文地址:CSS Architecture for Multiple Websites原文作者:Elad Shechter译文出自:掘金翻译计划本文永久链接:github.com/xitu/gold-m…译者:Baddyo校对者:xionglong58,lgh757079506复杂的 CSS…

Vue单页项目SEO完全指南

搜索引擎优化(Search engine optimization,简称SEO),指为了提升网页在搜索引擎自然搜索结果中(非商业性推广结果)的收录数量以及排序位置而做的优化行为,是为了从搜索引擎中获得更多的免费流量&…

把网站升级到http/2

为什么要升级到意思是说要使用http/2,我之前只是听过http/2的一些介绍,其实http/2已经来了。http/2最大的特点是使用多路复用,对同一个域的服务器只建立一次TCP连接,加载多个资源,使用二进制帧传输,同时会对…

宝塔面板 添加网站访问不了解决方案

1.如果是tp5 那么请你伪静态一下 代码如下 location / { if (!-e $request_filename){ rewrite ^(.*)$ /index.php?s$1 last; break; }} 转载于:https://www.cnblogs.com/roseY/p/9459160.html

从网站功能入手创建数据库

上一篇说了,这个网站会模仿B站的主要功能,通过对B站的功能分析,从中拆分出主要功能模块,分别创建数据库,并实现相关的功能。 先上一张网站首页,欣赏一番 可以明显的看到,网站首页非常明显的分成…

搭建自己的技术博客系列(五)hexo博客接入busuanzi插件,展示访问量和网站运行时间...

busuanzi计数脚本 busuanzi官方指引 一、安装脚本(必选) 要使用不蒜子必须在页面中引入busuanzi.js,目前最新版如下。 不蒜子可以给任何类型的个人站点使用,如果你是用的hexo,打开themes/你的主题/layout/_partial/foo…