还在为爬虫频繁被封IP而发愁?
free-proxy模块能自动从公开网站抓取、验证并返回可用的免费代理IP,让你用一两行代码为爬虫轻松突破访问限制。
🚀 极速安装与基础获取
通过pip可以轻松安装free-proxy。
导入主类FreeProxy后,调用.get()方法即可获得一个可用的代理地址字符串。
from fp.fp import FreeProxyproxy = FreeProxy().get()print(f'代理地址: {proxy}')
运行结果: 代理地址:http://113.160.218.14:8888
🌍 按需筛选:国家、协议与匿名度
free-proxy支持丰富的过滤参数,能帮你精准定位所需的代理。
proxy_us_https = FreeProxy(country_id=['US'], https=True, anonym=True).get()print(f'美国HTTPS高匿代理: {proxy_us_https}')
运行结果: 美国HTTPS高匿代理:https://154.16.202.22:3128
⏱️ 平衡速度与成功率:超时与随机化
free-proxy提供了timeout和rand参数来优化获取体验。
fast_proxy = FreeProxy(timeout=0.3, rand=True).get()print(f'快速随机代理: {fast_proxy}')
运行结果: 快速随机代理:http://187.19.102.22:3128
🛡️ 高级过滤与异常处理
可以使用elite和google等参数进行高级筛选,并用try-except处理异常。
try: premium_proxy = FreeProxy(elite=True, google=True).get()print(f'精英代理: {premium_proxy}')except Exception as e:print(f'获取失败: {e}')
运行结果: 精英代理:http://103.149.162.194:80
⚖️ 优势对比与使用建议
与手动编写爬虫相比,free-proxy省时省力。
与复杂框架相比,它轻量、易上手。建议用于学习、测试、小规模项目。
💬 总结与互动
free-proxy为爬虫开发和测试提供了极大便利。
你如何解决爬虫IP限制问题? 欢迎在评论区分享经验!