在使用Selenium爬取网页资源时,为了防止被服务端识别,你可以采取以下措施:
设置User-Agent:更改默认的User-Agent,模拟真实用户的浏览器请求。
from selenium import webdriver
options = webdriver.ChromeOptions()
options.add_argument("user-agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3")
driver = webdriver.Chrome(options=options) 模拟浏览行为:模拟人类的浏览行为,例如随机暂停、滚动页面、点击链接等,以减少被识别为机器人行为的可能性。
import time
import random
driver.get('https://example.com')
# 随机等待时间
time.sleep(random.uniform(2, 5))
# 滚动页面
driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")
# 随机点击链接
links = driver.find_elements_by_tag_name('a')
if links:
random.choice(links).click() 使用代理:使用代理IP来隐藏你的真实IP地址,从而减少被封禁的风险。
from selenium.webdriver.common.proxy import Proxy, ProxyType proxy = Proxy() proxy.proxy_type = ProxyType.MANUAL proxy.http_proxy = 'http://your_proxy:port' proxy.ssl_proxy = 'http://your_proxy:port' capabilities = webdriver.DesiredCapabilities.CHROME proxy.add_to_capabilities(capabilities) driver = webdriver.Chrome(desired_capabilities=capabilities)
控制请求频率:避免频繁的请求,适当控制爬取的速度和频率。
import time
import random
for url in urls:
driver.get(url)
time.sleep(random.uniform(3, 10)) # 随机等待3到10秒 处理Cookies和Session:保持Cookies和Session的一致性,以模拟正常用户的行为。
cookies = driver.get_cookies()
for cookie in cookies:
driver.add_cookie(cookie) 浏览器设置:尽量避免使用无头模式(headless mode),因为某些网站会检测无头浏览器。
options = webdriver.ChromeOptions()
# 不使用无头模式
# options.add_argument("--headless")
driver = webdriver.Chrome(options=options) 通过以上措施,可以有效减少被服务端识别为爬虫的风险,从而提高爬取的成功率和效率。
网友回复
webgl与webgpu有啥不同?
Zero Trust的Tunnels怎么设置泛域名解析及http服务获取当前访问域名?
Spec Coding(规范驱动编码)和 Vibe Coding(氛围编程)有啥区别?
如何在国内服务器上正常运行未备案的域名网站?
Cloudflared 和WARP Connector有啥不同?
有没有让本地开源大模型越狱的方法或插件啥的?
如何使用Zero Trust的Tunnels技术将局域网电脑web服务可以公网访问呢?
编程领域ai大模型的排名是怎么样的?
如何修改别人发给我的微信笔记内容?
fbx、obj、glb三维格式模型如何在浏览器中通过three相互转换格式?


