python爬虫简单的添加***进行访问的实现代码
本文通过实例代码给大家介绍了python爬虫简单的添加***进行访问,代码简单易懂,非常不错,具有一定的参考借鉴价值,需要的朋友可以参考下
在使用python对网页进行多次快速爬取的时候,访问次数过于频繁,服务器不会考虑User-Agent的信息,会直接把你视为爬虫,从而过滤掉,拒绝你的访问,在这种时候就需要设置***,我们可以给proxies属性设置一个***的IP地址,代码如下:
<?php
// 要访问的目标页面
$url = "http://httpbin.org/ip";
$urls = "https://httpbin.org/ip";
// ***服务器
define("PROXY_SERVER", "tcp://t.16yun.cn:31111");
// 隧道身份信息
define("PROXY_USER", "16YUN123");
define("PROXY_PASS", "123456");
$proxyAuth = base64_encode(PROXY_USER . ":" . PROXY_PASS);
// 设置 Proxy tunnel
$tunnel = rand(1,10000);
$headers = implode("\r\n", [
"Proxy-Authorization: Basic {$proxyAuth}",
"Proxy-Tunnel: ${tunnel}",
]);
$sniServer = parse_url($urls, PHP_URL_HOST);
$options = [
"http" => [
"proxy" => PROXY_SERVER,
"header" => $headers,
"method" => "GET",
'request_fulluri' => true,
],
'ssl' => array(
'SNI_enabled' => true, // Disable SNI for https over http proxies
'SNI_server_name' => $sniServer
)
];
print($url);
$context = stream_context_create($options);
$result = file_get_contents($url, false, $context);
var_dump($result);
// 访问 HTTPS 页面
print($urls);
$context = stream_context_create($options);
$result = file_get_contents($urls, false, $context);
var_dump($result);?>
在代码中的目标网站是检测***是否访问成功,如果访问成功就会返回***ip,如果***返回
异常有可能是***的配置没有正确,那就需要对配置的***信息进行检查。
Ps每家***的测试效果都会有不同,以实际目标网站实际测试为准,这里推介比较好的***亿牛云。