抓取网站内容常见方法

news/2024/5/20 4:35:53/文章来源:https://blog.csdn.net/ljihe/article/details/51972255
<?php
/*------------------------
根据给出地址,获取网页及页面内的js,css文件按原文件名保存到本地
-------------------------*/$url  = 'http://www.zzzzz.com/html_13.html';//页面路径$dir = APP_PATH.'save-xiaohaopin/';//保存数据的文件夹路径,因框架不同而定APP_PATH//路径不存在则创建if(!is_dir($dir)){mkdir($dir);}$ch = curl_init(); curl_setopt ($ch, CURLOPT_URL, $url); curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); curl_setopt ($ch, CURLOPT_CONNECTTIMEOUT,10); $html = curl_exec($ch);//html保存$hpath  = @fopen($dir.'html_13.html','wb');fwrite($hpath,$html);fclose($hpath);//正则表达式$pre = '/"([^"]*\.(js|css)[^"]*)"/i';//js&css$urlarr = array();preg_match_all($pre,$html,$urlarr);$urlarr = $urlarr[1];//url处理&&根据url获取结果不同而自定义处理//./templates/js/gongjutiao.js&&&&&./templates/css/gongjutiao.css$mainurl = 'http://www.zzzzz.com/';//just save itforeach($urlarr as $k => $u){$surl = str_replace('./','',$u);$dourl = $mainurl.$surl;$fileName = substr($u,strrpos($u,'/')+1);$savePath = $dir.$fileName;$con = file_get_contents($dourl);$fop = @fopen($savePath,'wb');fwrite($fop,$con);fclose($fop);    }        exit('Obtain all');/*----------------end
---------------------*//*------------------------
获取某个网站过多数据或者抓取过快等因素,都会经常导致IP被封的风险,但我们可以自己利用PHP构造IP地址的方式,获取数据。
-------------------------*/$headers['CLIENT-IP'] = $headers['X-FORWARDED-FOR'] = '127.0.0.1'; //些处只是个例,IP可以自己定义$headerArr = array();foreach( $headers as $n => $m ) {$headerArr[] = $n .':' . $m;}//$refer = $_SERVER["HTTP_REFERER"];
        $ch = curl_init();curl_setopt ($ch, CURLOPT_URL, $url);curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); curl_setopt ($ch, CURLOPT_CONNECTTIMEOUT,10);curl_setopt ($ch, CURLOPT_HTTPHEADER , $headerArr); //构造IP$html = curl_exec($ch);curl_close($ch);//下面就可以写自己抓取数据的正则表达式$reg = '/.*/';//正则匹配后放到相应的数组里面$arr= array();preg_match($reg,$html,$arr);//可以做数据处理,例:$val = $arr[1];//数据组装$data = array('val'     =>$val,);    //var_dump($data);exit;//数据添加到数据库,下面是ThinkPHP框架用法M('WeaponAttr')->add($data);//如果有封IP风险,可以调节抓取的速度或者做一些其它的优化sleep(5);echo 'ok';exit;
/*----------------end
---------------------*//*------------------------
在获取某网站的数据的过程中,往往网页会通过网页点击传送js参数,利用ajax去获取数据,形成无刷新页面,在翻页的过程当中有些网站在第一次获取回来的信息之后,就在当前页面保存一个cookie,然后分页面就可以根据cookie的值去获取下一页,而且用同一种分页方式表现:例如:show_1.html,第二页就是show_2.html以此类推,。不管你访问的是哪一个分类,或者其它的一些栏目。它们获取回来的列表分页页面都是以这种形式去表现的,如果删除了cookie页面就会变为空。没有数据。
-------------------------*/function getdata(){        define( "COOKIEJAR", tempnam( ini_get( "upload_tmp_dir" ), "cookie" ) );$url = 'http://';$ch = curl_init();curl_setopt ($ch, CURLOPT_URL, $url);curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); curl_setopt ($ch, CURLOPT_CONNECTTIMEOUT,10); curl_setopt ($ch, CURLOPT_COOKIEJAR, COOKIEJAR);//连接结束后保存cookie信息的文件。 $html = curl_exec($ch);curl_close($ch);//$html是第一次传参数的时候获取回来的数据,用get函数来对获取回来的数据处理        $this->get($html);//class="page">4</li>//获取分页的信息$parr = array();$page = '/class="page">(\d+)</';preg_match_all($page,$html,$parr);if(!empty($parr[1])){$cnum = array_pop($parr[1]);for($i = 2;$i <= $cnum;$i++){$n = $this->jdoit($i);//根据coodie去获取下一页的内容回来$this->get($n);//内容处理
            }}echo 'okk';}function jdoit($num){$url = 'http://www.xxxx.com/fenye-'.$num.'.html';$ch = curl_init(); curl_setopt ($ch, CURLOPT_URL, $url); curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1); curl_setopt ($ch, CURLOPT_CONNECTTIMEOUT,10); curl_setopt ($ch, CURLOPT_COOKIEJAR, COOKIEJAR);//包含cookie数据的文件名,cookie文件的格式可以是Netscape格式,或者只是纯HTTP头部信息存入文件。 
        curl_setopt ($ch, CURLOPT_COOKIEFILE, COOKIEJAR);$html = curl_exec($ch);curl_close($ch);return $html;}function get($html){//正则表达式$reg  = '/<dd[^>]*>([\s\S]*?)<\/dd>/';/*获取回来的内容可以在此处理*/}/*----------------end
---------------------*//*------------------------
根据地址,把图片保存到本地
-------------------------*/$pic_url = 'http://www.picture.com/';$path = 'D:\picdir';//保存路径    if(!is_dir($path)){mkdir($path,0777);}$filename = $path.'name';ob_start(); readfile($pic_url);$img = ob_get_contents();ob_end_clean();//$size = strlen($img);$fp2=@fopen($filename, "a");fwrite($fp2,$img);fclose($fp2);
/*----------------end
---------------------*/      
?>
复制代码

 

复制代码
/*===========================*///$proxy_host->代理服务器地址,,$proxy_port->端口//通过代理获取网页内容function proxy_get_content($proxy_host,$proxy_port,$proxy_user,$proxy_password,$url){$ch = curl_init(); curl_setopt($ch, CURLOPT_PROXY,"$proxy_host:$proxy_port"); curl_setopt($ch, CURLOPT_PROXYUSERPWD, "$proxy_user:$proxy_password");curl_setopt($ch, CURLOPT_URL,$url);curl_setopt($ch, CURLOPT_RETURNTRANSFER, TRUE); curl_setopt($ch, CURLOPT_HEADER,0); $bcon = curl_exec($ch); echo curl_error($ch); curl_close($ch); return $bcon;}

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.luyixian.cn/news_show_868611.aspx

如若内容造成侵权/违法违规/事实不符,请联系dt猫网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

交友网站Circl.es帮你找到另一半

交友网站就像一枚难以破裂的坚果。首先&#xff0c;这是私人信息传递给公共媒体的过程&#xff0c;其中有蠕变因素。其次&#xff0c;这是一个巨大的商务平台&#xff0c;但是却由一小部分知名人士来主导市场占有率。并且&#xff0c;随着网站规模扩大带来的盈利税收&#xff0…

Web攻防系列教程之企业网站攻防实战

本文通过搭建一个真实的企业网站环境&#xff0c;先以攻击者的角度对目标网站进行入侵&#xff0c;最终得到目标网站数据库中的数据。然后对整个入侵过程进行详细分析&#xff0c;并修复目标网站存在的安全漏洞和弱点。这样通过对一个实例的完整分析&#xff0c;让读者对攻击者…

追查网站的思路

第一步从检查主办单位ICP备案查询开始。嗯&#xff0c;备案主体是个人&#xff0c;而非医院。 继续追查医院域名注册信息&#xff0c;北京武警二院注册人单位为&#xff1a;KangXin Hospital Investment and Management CO.LTD。 再反查KangXin Hospital Investment And Manage…

2010年2月中国SNS网站市场份额统计报告相关图片数据表

2010 年 2 月中国 SNS网站 市场份额统计报告&#xff08;简版&#xff09; 中国 互联网指数&#xff08; CIIS &#xff09;核心报告 目 录 一、SNS网站 Top20 市场份额统计 二、SNS网站市场集中度分析 三、互联网实验室市场份额报告目录 四、关于互联网实验室 五、关于中国…

一小时搭建属于自己的博客系统网站

Wikijs 很牛逼&#xff0c;特别牛逼的一个开源软件&#xff0c;GitHub已经有15.5k的星星 The most powerful and extensible open source Wiki software 最强大和可扩展的开源Wiki 软件这是我自己一个小时搭建的网站 下面是wiki.js的官方网站 Github地址&#xff1a;https:…

JSP+Servlet+C3P0+Mysql实现的YCU movies电影网站

本文存在视频版本,请知悉 项目简介 项目来源于&#xff1a;https://gitee.com/zhp0514/java_web_movie_website_project 这次分享一个电影网站&#xff0c;页面炫酷&#xff0c;需要有一定的前端功底。该网站存在一些bug&#xff0c;感兴趣的可以自行改改&#xff0c;也可以私信…

JSP+Spring+SpringMVC+Hibernate+Mysql实现的校园失物招领网站

项目简介 项目来源于&#xff1a;https://github.com/wenlongup/LostAndFound 因原github仓库无数据库文件&#xff0c;经过本人修改&#xff0c;现将该仓库重新上传至个人gitee仓库。 https://gitee.com/coderzcr/LostAndFound 本系统基于JSPSpringSpringMVCHibernateMysql的…

Maven+JSP+SSM+Mysql实现的音乐网站

项目简介 项目来源于&#xff1a;https://gitee.com/coder_ze/iMusic 本系统基于MavenJSPSSMMysql实现的音乐网站。主要实现的功能有音乐播放、下载、上传等几个模块。 难度等级&#xff1a;中等 技术栈 编辑器 Eclipse Version: 2020-03 (4.15.0) 前端技术 基础&#xf…

免费的网站

最近&#xff0c;我发现了一个程序的天堂&#xff1a;Github,我的免费空间&#xff01; 最近&#xff0c;我还发现了一个域名的天堂&#xff1a;freenom,万岁&#xff01;&#xff01;&#xff01; 那么如果合起来呢&#xff1f;免费的网站&#xff01; 方法&#xff1a; 1.先去…

一例千万级pv高性能高并发网站架构图 八 20

转载自&#xff1a; http://www.4u4v.net/yi-li-qian-wan-ji-pv-gao-xing-neng-gao-bing-fa-wang-zhan-jia-gou-tu.html 一个支撑千万级PV的网站是非常考验一个架构是否成熟、健壮(本文不涉及软件架构的层面&#xff0c;有兴趣也可以讨论)。现抛出一个系统层面的架构&#xff0…

利用cPanel Cron jobs定时备份和优化网站程序及数据

最近在国内互联网“扫黄打非”的狂风暴雨下&#xff0c;个人网站的站长们被弄得一个个诚惶诚恐&#xff0c;一觉醒来说不定域名就“被”停止解析&#xff0c;服务器就“被”关停&#xff01;所以&#xff0c;及时备份网站的程序和数据对于当下的中国站长们极为重要&#xff01;…

网站开启gzip压缩

GZip压缩&#xff0c;是一种网站速度优化技术&#xff0c;也是一把SEO优化利器&#xff0c;许多网站都采用了这种技术&#xff0c;以达到提升网页打开速度、缩短网页打开时间的目的。 本文是一篇研究性文章&#xff0c;将通过某个案例来给大家显示网站采用GZip压缩前后的对比效…

使用rrdtool统计网站PV和IP

现在网站服务器已经使用snmp进行监控&#xff0c;已经对CPU&#xff0c;内存&#xff0c;流量等进行了监控&#xff0c;但觉得还需要加一项监控&#xff0c;就是网站的PV和IP的监控&#xff0c;这样可以快速知道服务器负载上升是否是网站访问量增加的原因。这几天初学rrdtool&a…

构架高性能WEB网站的几点知识

前言&#xff1a; 对于构架高性能的web网站大家都很感兴趣&#xff0c;本文从几点粗谈高性能web网站需要考虑的问题。 HTML静态化 什么是html静态化&#xff1f; 说得简单点&#xff0c;就是把所有不是.htm或者.html的页面改为.htm或者.html 1.纯静态页面 当用户访问是&#xf…

如何测试一个门户网站是否可以支持10万用户同时在线?

先是楼主提出问题&#xff1a; 最近公司一个项目,是个门户网站,需要做性能测试,根据项目特点定出了主要测试项和测试方案一种是测试几个常用页面能接受的最大并发数(用户名参数化,设置集合点策略)一种是测试服务器长时间压力下,用户能否正常操作(用户名参数化,迭代运行脚本)还有…

大型网站架构演化

转载自&#xff1a; http://ndminfy.iteye.com/blog/2223932 一、大型网站系统特点 &#xff08;1&#xff09;高并发、大流量&#xff1a;PV量巨大 &#xff08;2&#xff09;高可用&#xff1a;7*24小时不间断服务 &#xff08;3&#xff09;海量数据&#xff1a;文件数目分…

网站分析数据收集方式详解:Web日志JS标记和包嗅探器

回顾网站分析历史&#xff0c;从“您是第***位来访用户”到现在百家齐放的专业工具提供商&#xff0c;网站分析已经逐渐发展衍化成一门科学。但面对形态各异的分析数据&#xff0c;很多人仍然困惑于数据的来源&#xff0c;了解网站分析数据的收集原理&#xff0c;也许对你解决这…

网站分析数据收集方式详解:Web日志JS标记和包嗅探器

回顾网站分析历史&#xff0c;从“您是第***位来访用户”到现在百家齐放的专业工具提供商&#xff0c;网站分析已经逐渐发展衍化成一门科学。但面对形态各异的分析数据&#xff0c;很多人仍然困惑于数据的来源&#xff0c;了解网站分析数据的收集原理&#xff0c;也许对你解决这…

网站分析数据收集方式详解:Web日志JS标记和包嗅探器

回顾网站分析历史&#xff0c;从“您是第***位来访用户”到现在百家齐放的专业工具提供商&#xff0c;网站分析已经逐渐发展衍化成一门科学。但面对形态各异的分析数据&#xff0c;很多人仍然困惑于数据的来源&#xff0c;了解网站分析数据的收集原理&#xff0c;也许对你解决这…

不完美的网站分析数据:数据理想化和访问者理想化

一、 技术理想化 每种数据收集方式都有其独特的技术优势&#xff0c;但没有一种收集方式能完美的捕获到访问者在网站上的所有动作&#xff0c;每种技术也都会由于自身的局限性导致你看到的数据是并不完美的数据。以计算页面停留时间为例&#xff0c;下图是一次访问的时间记录&a…