21/08/2023307
Бібліотека Python Requests широко відома як зручний і широко використовуваний інструмент для обробки HTTP/1.1 запитів. Завдяки мільйонам завантажень щомісяця вона стала популярним вибором серед розробників. Бібліотека спрощує управління HTTP-запитами і відповідями, усуваючи необхідність ручного введення рядків запиту в URL-адресу.
Інтеграція проксі-серверів з бібліотеками скрапінгу або веб-запитів дуже важлива. Використовуючи проксі-сервери, ви можете запобігти небажаним блокуванням IP-адрес цільових веб-сайтів і зменшити ризики, пов'язані з розкриттям вашої власної IP-адреси.
Встановити Requests дуже просто. Нижче наведено інструкцію, як інтегрувати проксі у ваш код.
import requests
# URL to scrape
url = 'https://www.example.com' # Replace with the desired website URL
# Proxy configuration with login and password
proxy_host = 'de-1.stableproxy.com'
proxy_port = 11001
proxy_login = '2TYt4bmrOn_0'
proxy_password = '2oRTH88IShd4'
proxy = f'http://:@:'
proxies = {
'http': proxy,
'https': proxy
}
# Send a GET request using the proxy
response = requests.get(url, proxies=proxies)
# Check if the request was successful
if response.status_code == 200:
# Process the response content
print(response.text)
else:
print('Request failed with status code:', response.status_code)
ПРИМІТКА: Будь ласка, замініть і на ваші справжні облікові дані для проксі-сервера, щоб код працював з вашими власними логіном і паролем проксі-сервера.
Це все! Включення проксі-серверів до бібліотек скрепінгу або запитів є дуже важливим. Налаштувавши проксі-сервери в запитах Python, ви можете впевнено приступати до своїх проектів веб-скрепінгу, не турбуючись про IP-блокування або географічні обмеження.