苏苏网赚论坛

 找回密码
 立即注册
查看: 497|回复: 0

python爬虫怎么用添加代理IP

[复制链接]
跳转到指定楼层
楼主
发表于 2019-6-25 13:55:44 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
爬虫在抓取数据的时候需要使用代理IP,不管是使用免费代理IP,还是付费代理IP,使用方法都是一致的。那么python爬虫怎么用代理IP?今天精灵代理为大家介绍几种爬虫用代理IP的方法。

使用方法一:在 scrapy下载中间件添加代理

middlewares.py 自定义一个代理类,重写 process_request 方法



使用方法二:调用 ProxyHandler 添加 代理



使用方法三:requests发送请求添加代理

proxies = {'http':'代理 IP:端口号'}



使用方法四:使用 client 建立连接,添加代理 IP,port



python爬虫怎么用代理IP?上文介绍了四种添加代理的方法,适用于不同的需求,使用代理IP的过程中,需要注意行为,否则容易导致IP被封。

爬虫代理IP提取扣扣:3372,,,,,,,,,,,,92,,,,,,,,,,,404
热帖推荐
回复

使用道具 举报

广告合作|最大的网赚客中文交流社区!十年老站!

GMT+8, 2024-4-27 10:54 , Processed in 0.124800 second(s), 23 queries , Gzip On.

Powered by Discuz! X3.1 VIP版

© 2012-2022 苏苏网赚论坛 版权所有 | 10年老品牌

快速回复 返回顶部 返回列表