python 파충류 요청 헤드 설정 코드
import requests
url="http://www.targetweb.com"
headers={
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Cache-Control':'max-age=0',
'Connection':'keep-alive',
'Referer':'http://www.baidu.com/',
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4882.400 QQBrowser/9.7.13059.400'}
res=requests.get(url,headers=headers)
# ,
#res=requests.get(url,stream=True,headers)
2.Selenium+Chrome 요청 헤더 설정:
from selenium import webdriver
options = webdriver.ChromeOptions()
options.add_argument('lang=zh_CN.UTF-8')#
options.add_argument('user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4882.400 QQBrowser/9.7.13059.400"')#
browser = webdriver.Chrome(chrome_options=options)
url="http://www.targetweb.com"
browser.get(url)
browser.quit()
3.selenium+phantomjs 요청 헤더 설정:
from selenium import webdriver
from selenium.webdriver.common.desired_capabilities import DesiredCapabilities
des_cap = dict(DesiredCapabilities.PHANTOMJS)
des_cap["phantomjs.page.settings.userAgent"] = ("Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4882.400 QQBrowser/9.7.13059.400")
browser = webdriver.PhantomJS(desired_capabilities=des_cap)
url="http://www.targetweb.com"
browser.get(url)
browser.quit()
4.파충류 프레임 워 크 scrapy 설정 요청 헤드:settings.py 파일 에 다음 과 같이 추가 합 니 다:
DEFAULT_REQUEST_HEADERS = {
'accept': 'image/webp,*/*;q=0.8',
'accept-language': 'zh-CN,zh;q=0.8',
'referer': 'https://www.baidu.com/',
'user-agent': 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4882.400 QQBrowser/9.7.13059.400',}
5.Python 비동기 Aiohttp 요청 헤더 설정:
import aiohttp
url="http://www.targetweb.com"
headers={
'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Cache-Control':'max-age=0',
'Connection':'keep-alive',
'Referer':'http://www.baidu.com/',
'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.104 Safari/537.36 Core/1.53.4882.400 QQBrowser/9.7.13059.400'}
asyncwithaiohttp.ClientSession(headers=headers)assession:
asyncwithsession.get(url)asresp:
print(resp.status)
print(awaitresp.text())
내용 확장:1.헤 더 를 왜 설정 합 니까?
웹 페이지 에 기어 오 르 기 를 요청 할 때 출력 된 text 정보 에 죄송합니다.방문 할 수 없습니다.이것 이 바로 기어 오 르 기 금지 입 니 다.기어 오 르 기 체 제 를 통 해 이 문 제 를 해결 해 야 합 니 다.
headers 는 requests 가 역 기어 오 르 기 를 요청 하 는 방법 중 하나 로 우리 가 이 웹 페이지 에 들 어간 서버 자체 가 데 이 터 를 기어 오 르 는 척 하 는 것 과 같다.
반 파충류 웹 페이지 에 대해 서 는 headers 정 보 를 설정 하여 브 라 우 저 로 웹 사 이 트 를 방문 하 는 것 을 모 의 할 수 있다. 。
2.헤 더 스 는 어디서 찾 습 니까?
구 글 이나 불 여우 브 라 우 저,웹 페이지 에서 클릭:오른쪽 클릭 C>검사 C>나머지 그림 에 따라 조작 을 표시 하려 면 Fn+F5 를 누 르 면 웹 페이지 를 새로 고 쳐 야 합 니 다.
어떤 브 라 우 저 는 클릭:우 클릭->요 소 를 보고 새로 고침 합 니 다.
이상 은 python 파충류 요청 헤드 설정 코드 에 대한 상세 한 내용 입 니 다.python 파충류 요청 헤드 를 어떻게 설정 하 는 지 에 대한 자 료 는 다른 관련 글 에 주목 하 십시오!
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Python 파충류 (1) - 데이터 세척 및 추출re 모듈 의 사용 추출, 일치, 교체 추출: findall () 일치: match () 교체: sub () 예: Xpath 의 기본 문법 표현 식 묘사 하 다. 루트 노드 선택 또는 하위 임의의 노드, 위치 고려 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.