Інтеграція проксі-серверів із запитами Python

21/08/2023307

Python та проксі-сервери

Бібліотека Python Requests широко відома як зручний і широко використовуваний інструмент для обробки HTTP/1.1 запитів. Завдяки мільйонам завантажень щомісяця вона стала популярним вибором серед розробників. Бібліотека спрощує управління HTTP-запитами і відповідями, усуваючи необхідність ручного введення рядків запиту в URL-адресу.

Інтеграція проксі-серверів з бібліотеками скрапінгу або веб-запитів дуже важлива. Використовуючи проксі-сервери, ви можете запобігти небажаним блокуванням IP-адрес цільових веб-сайтів і зменшити ризики, пов'язані з розкриттям вашої власної IP-адреси.

Встановити Requests дуже просто. Нижче наведено інструкцію, як інтегрувати проксі у ваш код.

import requests

# URL to scrape

url = 'https://www.example.com'  # Replace with the desired website URL

# Proxy configuration with login and password

proxy_host = 'de-1.stableproxy.com'

proxy_port = 11001

proxy_login = '2TYt4bmrOn_0'

proxy_password = '2oRTH88IShd4'

proxy = f'http://:@:'

proxies = {

    'http': proxy,

    'https': proxy

}

# Send a GET request using the proxy

response = requests.get(url, proxies=proxies)

# Check if the request was successful

if response.status_code == 200:

    # Process the response content

    print(response.text)

else:

    print('Request failed with status code:', response.status_code)

ПРИМІТКА: Будь ласка, замініть і на ваші справжні облікові дані для проксі-сервера, щоб код працював з вашими власними логіном і паролем проксі-сервера.

Це все! Включення проксі-серверів до бібліотек скрепінгу або запитів є дуже важливим. Налаштувавши проксі-сервери в запитах Python, ви можете впевнено приступати до своїх проектів веб-скрепінгу, не турбуючись про IP-блокування або географічні обмеження.