在使用Selenium爬取网页资源时,为了防止被服务端识别,你可以采取以下措施:
设置User-Agent:更改默认的User-Agent,模拟真实用户的浏览器请求。
from selenium import webdriver
options = webdriver.ChromeOptions()
options.add_argument("user-agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3")
driver = webdriver.Chrome(options=options) 模拟浏览行为:模拟人类的浏览行为,例如随机暂停、滚动页面、点击链接等,以减少被识别为机器人行为的可能性。
import time
import random
driver.get('https://example.com')
# 随机等待时间
time.sleep(random.uniform(2, 5))
# 滚动页面
driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
# 随机点击链接
links = driver.find_elements_by_tag_name('a')
if links:
random.choice(links).click() 使用代理:使用代理IP来隐藏你的真实IP地址,从而减少被封禁的风险。
from selenium.webdriver.common.proxy import Proxy, ProxyType proxy = Proxy() proxy.proxy_type = ProxyType.MANUAL proxy.http_proxy = 'http://your_proxy:port' proxy.ssl_proxy = 'http://your_proxy:port' capabilities = webdriver.DesiredCapabilities.CHROME proxy.add_to_capabilities(capabilities) driver = webdriver.Chrome(desired_capabilities=capabilities)
控制请求频率:避免频繁的请求,适当控制爬取的速度和频率。
import time
import random
for url in urls:
driver.get(url)
time.sleep(random.uniform(3, 10)) # 随机等待3到10秒 处理Cookies和Session:保持Cookies和Session的一致性,以模拟正常用户的行为。
cookies = driver.get_cookies()
for cookie in cookies:
driver.add_cookie(cookie) 浏览器设置:尽量避免使用无头模式(headless mode),因为某些网站会检测无头浏览器。
options = webdriver.ChromeOptions()
# 不使用无头模式
# options.add_argument("--headless")
driver = webdriver.Chrome(options=options) 通过以上措施,可以有效减少被服务端识别为爬虫的风险,从而提高爬取的成功率和效率。
网友回复
如何破解绕开seedance2.0真人照片生成视频 限制?
python有哪些算法可以将视频中的每个帧图片去除指定区域水印合成新的视频?
iphone的激光雷达数据能否实时传输到three三维空间中?
豆包sora等ai视频生成大模型生成的视频水印如何去除?
python如何实现在电脑上拨号打电话给手机?
具身机器人与人形机器人区别?
nodejs如何将一个完整的js代码文件切割成不同的部分混淆后动态加载进入html运行?
为啥windows.onerror捕获js错误是这样的{"message":"Script error.","source":"","lineno":0,"colno":0,"stack":null,
2026年ai将全面接管编程?
WebMCP是干啥的?


