+
95
-

回答

在使用Selenium爬取网页资源时,为了防止被服务端识别,你可以采取以下措施:

设置User-Agent:更改默认的User-Agent,模拟真实用户的浏览器请求。

from selenium import webdriver

options = webdriver.ChromeOptions()
options.add_argument("user-agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3")
driver = webdriver.Chrome(options=options)

模拟浏览行为:模拟人类的浏览行为,例如随机暂停、滚动页面、点击链接等,以减少被识别为机器人行为的可能性。

import time
import random

driver.get('https://example.com')

# 随机等待时间
time.sleep(random.uniform(2, 5))

# 滚动页面
driver.execute_script("window.scrollTo(0, document.body.scrollHeight);")

# 随机点击链接
links = driver.find_elements_by_tag_name('a')
if links:
    random.choice(links).click()

使用代理:使用代理IP来隐藏你的真实IP地址,从而减少被封禁的风险。

from selenium.webdriver.common.proxy import Proxy, ProxyType

proxy = Proxy()
proxy.proxy_type = ProxyType.MANUAL
proxy.http_proxy = 'http://your_proxy:port'
proxy.ssl_proxy = 'http://your_proxy:port'

capabilities = webdriver.DesiredCapabilities.CHROME
proxy.add_to_capabilities(capabilities)

driver = webdriver.Chrome(desired_capabilities=capabilities)

控制请求频率:避免频繁的请求,适当控制爬取的速度和频率。

import time
import random

for url in urls:
    driver.get(url)
    time.sleep(random.uniform(3, 10))  # 随机等待3到10秒

处理Cookies和Session:保持Cookies和Session的一致性,以模拟正常用户的行为。

cookies = driver.get_cookies()
for cookie in cookies:
    driver.add_cookie(cookie)

浏览器设置:尽量避免使用无头模式(headless mode),因为某些网站会检测无头浏览器。

options = webdriver.ChromeOptions()
# 不使用无头模式
# options.add_argument("--headless")
driver = webdriver.Chrome(options=options)

通过以上措施,可以有效减少被服务端识别为爬虫的风险,从而提高爬取的成功率和效率。

网友回复

我知道答案,我要回答