Python实现IP代理批量采集, 并检测代理是否可用 保存一下<嫖一波免费代理>
2023-09-14 09:05:34 时间
前言 😋
大家早好、午好、晚好吖~
开发环境]:
-
python 3.8
-
pycharm
模块使用]:
-
import requests —> 需要安装 pip install requests
-
import parsel —> 需要安装 pip install parsel 解析数据模块
如果安装python第三方模块:
-
win + R 输入 cmd 点击确定, 输入安装命令 pip install 模块名 (pip install requests) 回车
-
在pycharm中点击Terminal(终端) 输入安装命令
IP代理: 采集网站数据, 采集比较快, 你被封IP <一段时间内容 不能访问这个网站>
基本流程(思路):
一. 数据来源分析
1. 你要先分析, 你想要数据是请求那个url地址可以得到...
通过开发者工具抓包分析, 分析我们想要数据来源
I. F12或者鼠标右键点检查 选择network 刷新网页
II. 分析数据内容 <IP 以及 端口>来自于哪里
通过开发者工具 关键字搜索数据来源 找到相对应的数据包
二. 代码实现步骤过程: 爬虫基本四大步骤
1. 发送请求, 模拟浏览器对于分析得到url地址发送请求 https://free.kuaidaili.com/free/inha/1/
2. 获取数据, 获取服务器返回响应数据 ---> 开发者工具里面看到 response
3. 解析数据, 提取我们想要数据内容
4. 保存数据, 我们想要数据内容保存本地
代码
# 导入数据请求模块 ---> 第三方模块, 需要安装 在cmd里面 pip install requests
import requests
# 导入数据解析模块 ---> 第三方模块, 需要安装 在cmd里面 pip install parsel
import parsel
# 导入json模块 ---> 内置模块 不需要安装
import json
完整源码、解答、教程加Q裙:261823976 点击蓝字加入【python学习裙】
# 1. 发送请求, 模拟浏览器对于分析得到url地址发送请求
proxies_list = []
proxies_list_1 = []
# 请求url地址
for page in range(1, 11):
url = f'https://www.boc.cn/sourcedb/whpj/index_{page}.html'
"""
headers请求头, 模拟伪装浏览器去发送请求
不加headers相当于裸奔 ----> 告诉服务器, 我是爬虫 我是爬虫~ 你来抓我~
加什么东西, 在哪加 ---> 开发者工具里面 复制 ua
"""
headers = {
# User-Agent 用户代理 表示浏览器基本身份标识
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/101.0.0.0 Safari/537.36'
}
# 发送请求 ---> <Response [200]> 响应对象, 200状态码 表示请求成功
response = requests.get(url=url, headers=headers)
# 2. 获取数据, 获取服务器返回响应数据 print(response.text)
"""
3. 解析数据, 提取我们想要数据内容
解析方法:
re正则: 对于字符串数据进行提取
css: 根据标签属性内容提取
xpath: 根据标签节点提取
"""
# 转换数据类型 response.text<字符串数据> <Selector xpath=None data='<html>\n<head>\n<meta http-equiv="X-UA-...'>
selector = parsel.Selector(response.text)
# 获取tr标签 ---> 返回列表 列表里面元素是 Selector对象
trs = selector.css('#list table tbody tr')
trs_1 = selector.xpath('//*[@id="list"]/table/tbody/tr')
# for循环 一个一个提取tr标签
for tr in trs:
# 提取ip号 td:nth-child(1)::text 获取第一个td标签里面文本数据
ip_num = tr.css('td:nth-child(1)::text').get()
# ip_num_1 = tr.xpath('td[1]/text()').get()
ip_port = tr.css('td:nth-child(2)::text').get()
"""
IP代理结构是什么样子的?
proxies_dict = {
"http": "http://" + ip:端口,
"https": "http://" + ip:端口,
}
"""
proxies_dict = {
"http": "http://" + ip_num + ':' + ip_port,
"https": "https://" + ip_num + ':' + ip_port,
}
proxies_list_1.append(proxies_dict)
# 检测IP代理是否可用 用这个代理去请求一下网站就好了
try:
response_1 = requests.get(url='https://www.baidu.com/', proxies=proxies_dict, timeout=1)
if response_1.status_code == 200:
proxies_list.append(proxies_dict)
print('代理可以使用: ', proxies_dict)
# 保存代理到文本
with open('代理.txt', mode='a', encoding='utf-8') as f:
f.write(json.dumps(proxies_dict))
f.write('\n')
except:
print('当前代理:', proxies_dict, '请求超时, 检测不合格')
print('===' * 50)
print('一共获取到:', len(proxies_list_1))
print('可以使用代理: ', len(proxies_list))
print(proxies_list)
尾语 💝
好了,我的这篇文章写到这里就结束啦!
有更多建议或问题可以评论区或私信我哦!一起加油努力叭(ง •_•)ง
喜欢就关注一下博主,或点赞收藏评论一下我的文章叭!!!
相关文章
- 通过Kivy将Python文件打包成apk
- python的进制转换器,Python进制转换[通俗易懂]
- Python入门系列(十)一篇学会python文件处理
- python中替换字符串中字符_Python replace()函数:替换字符串中的某个字符「建议收藏」
- java与python-如何对比Python和Java,只需三分钟告诉你!
- python socket recvfrom_Python:socket.recvfrom()不返回任何地址
- 迭代器Python_python进阶路线
- python输出unicode编码_Python以utf8编码读取文件
- Python 生成随机数_python 随机字符串
- 垃圾图像分类流程图yolov4-tiny_用python编写垃圾分类系统
- python-Python与MongoDB数据库-使用Python执行MongoDB查询(二)
- python-数据库编程-如何处理错误和异常(一)
- Python try except else详解
- python 判断字符串详解程序员
- python scrapy 网络采集使用代理的方法详解编程语言
- 用Python简化Linux指令:从繁琐变简单(python运行linux命令)
- 从Python连接Oracle数据库介绍(python连接oracle)
- python列表去重的二种方法
- Python统计列表中的重复项出现的次数的方法
- 跟老齐学Python之有容乃大的list(1)