当用尽一切办法发现 服务器真的无法使用curl时。或者curl不支持https时。curl https 出现502时。你又不想重装网站环境。
那你就改用file_get_contents 代替吧。
curl 经常使用的 curl get curl post
curl get 替代 直接用file_get_contents($url) 就可以了
curl post 替代:
代码如下 | 复制代码 |
function Post($url, $post = null) { |
近日工作中有一项目,APP客户端有大转盘抽奖,具体如何抽奖当然在我们服务端实现洛。下面和大家简单分享一下实现代码:
代码如下 | 复制代码 |
header("Content-type: text/html; charset=utf-8"); |
冒泡排序简介:
冒泡排序(Bubble Sort),是一种计算机科学领域的较简单的排序算法。
它重复地走访过要排序的数列,一次比较两个元素,如果他们的顺序错误就把他们交换过来。
走访数列的工作是重复地进行直到没有再需要交换,也就是说该数列已经排序完成。
这个算法的名字由来是因为越小的元素会经由交换慢慢“浮”到数列的顶端,故名。
冒泡排序算法的运作原理:
比较相邻的元素。如果第一个比第二个大,就交换他们两个。
对每一对相邻元素作同样的工作,从开始第一对到结尾的最后一对。在这一点,最后的元素应该会是最大的数。
针对所有的元素重复以上的步骤,除了最后一个。
持续每次对越来越少的元素重复上面的步骤,直到没有任何一对数字需要比较。
PHP代码实例:
代码如下 | 复制代码 |
$a=array('3','8','1','4','11','7'); |
再看一个
代码如下 | 复制代码 |
<?php |
实自己一直想做一个内涵图片的网站,以前的想法是做一个CMS,然后自己上传一些图片。。
开始真这么做的,没什么动力。之后就放弃了,后来研究了一个CURL。反正还是把这个想法实现比较好。
用PHP盗图,就好比:穿着袜子穿凉鞋一样。虽然没问题,但看着确实蛋疼。
我先说一下我对PHP小偷程序的设计,PHP不支持多线程,这样就只能分先后顺序来做了
获取到目标网站的HTML页面+解析HTML页面获取到图片存储的连接+用二进制方式读取并且保存在本地+重命名 == 流程OK
你现在用两种方式来运行程序:
第一种:用游览器跑程序(多半会卡死,设置超时和内存大小就OK,你之间比较难等)
另一种:用命令行启动PHP(不存在PHP超时的问题)
/
代码如下 | 复制代码 |
** *HTML解析类 *author:Summer *date:2014-08-22 **/ class Analytical{ public function __construct() { require_once('Class/SimpleHtmlDom.class.php'); $this->_getDir(); } private function _getDir() { $dir = "../TMP/HTML/Results/1"; $imgBIG = "../TMP/IMG/JPG/BIG"; $it = new DirectoryIterator($dir."/"); foreach($it as $file) { //用isDot ()方法分别过滤掉“.”和“..”目录 if (!$it->isDot()) { $dirs = $dir."/".$file ; $tmp = explode(".",$file); $html = file_get_html($dirs); $ulArr = $html->find('img'); foreach($ulArr as $key=>$value) { if ($value->class == "u") { $url = "http://www.111cn.net ".$value->src; $infomation = file_get_contents($url); $result = $this->saveHtml($infomation, $imgBIG, $tmp['0'].".jpg"); if($result) { echo $file."OKn"; } } } } } } private function saveHtml($infomation,$filedir,$filename) { if(!$this->mkdirs($filedir)) { return 0; } $sf = $filedir."/".$filename; $fp=fopen($sf,"w"); //写方式打开文件 return fwrite($fp,$infomation); //存入内容 fclose($fp); //关闭文件 } //创建目录 private function mkdirs($dir) { if(!is_dir($dir)) { if(!$this->mkdirs(dirname($dir))){ return false; } if(!mkdir($dir,0777)){ return false; } } return true; } } new Analytical(); |
上面这个是HTML页面获取IMG的连接地址的过程。
用到了两个比较重要的东西:
1.PHP的DOM解析扩展simplehtmldom
2.PHP的目录迭代器
理解这两个东西了。这个分析类就没难点了。
在说说如果获取需要解析的页面呢?
其实跟上面的原理的是一样的。主要获取页面的URL,然后通过CURL去读取页面,返回一个HTML字符串,
再通过保存函数包HTML页面保存到本地。
我这里是因为要采集页面里面的图片(为了防止别人防盗链),所以设计的比较复杂。
而且为什么要分开,是因为simplehtmldom对象是很庞大的,而且拆开进行这样对流程更加清楚。
肯定有人会说,那为什么不用正则去匹配就跳过了HTML保存到本地的环节了,BINGO!我只能懒得写正则而已
我们要过滤html标签或字符串中指定的html标签我们可以利用php正则来实现,下面的三个例子我们一起来看看吧。1.正则过滤指定标签
代码如下 | 复制代码 |
/** * @param $content |
2.2.过滤所有html标签内容
代码如下 | 复制代码 |
/**
|
3.
代码如下 | 复制代码 |
/** |
当然还有一些php函数可以直接过滤,他会过滤除了字符串之外的所有html标签哦,这个函数我就不介绍了。