Бесплатно получаем Proxy

CyberSec RuTOR

Кибербезопасность
Команда форума
Модератор
Сообщения
1.000
Реакции
1.434
Доброго времени суток!
В данной статье я вам покажу, как можно добыть много прокси различных стран.
7B08xSRoXGrC471rHQI-faZGjtHwM_cbgx6E5EK5kZ9mNpy_-dKbu8jOCoVfHt1In926_VfiYUg5xXd9dTG87N1Fk1QAFtiQqBwoUNpm219lL_3BJ6UWGzZjbj5f_7oXeBPd7stmkInw7ArA_EEWDfg

Приступим.
Для работы скрипта нам необходим Python. Установим 3.10.6 После установки Python, необходимо установить библиотеки для получения прокси и их проверки на работоспособность.

pip install requests && pip install lxml && pip install beautifulsoup4 && pip install cfscrape
После установки библиотек создаём файл с расширением .py, куда вставляем следующий код. Код отвечает за парспрокси с различных сайтов.

import cfscrape

from bs4 import BeautifulSoup

from datetime import date



def main2():

try:

print("Start 2 step || Site - free-proxy-list.net")

scraper
= cfscrape.create_scraper()

r
= scraper.get(' ')

soup
= BeautifulSoup(r.text, 'lxml')

line
= soup.find('table', class_='table table-striped table-bordered').find('tbody').find_all('tr')



for tr in line:

td
= tr.find_all('td')

ip
= td[0].text

port
= td[1].text



with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

f.write(
str(ip + ":" + port + "\n"))

except Exception as e:

print(e)





def main3():

try:

print("Start 3 step || Site - free.proxy-sale.com")

scraper
= cfscrape.create_scraper()

r
= scraper.get(' ')

soup
= BeautifulSoup(r.text, 'lxml')

line
= soup.find('div', class_="main__table-wrap").find('table').find('tbody').find_all('tr')



for i in line:

td
= i.find_all('td', class_="ip")

for n in td:

a
= n.find("a").text.replace("Нажмите ⌘-С чтобы скопировать Скопировать в буфер", " ").strip()

ip
= a

with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

f.write(
str(ip + "\n"))

except Exception as e:

print(e)





def main4():

try:

print("Start 4 step || Site - proxyscrape.com and openproxylist.xyz")

scraper
= cfscrape.create_scraper()

response5
= scraper.get(" ")

response6
= scraper.get(" ")

response7
= scraper.get(" ")



proxies5
= response5.text.strip()

proxies6
= response6.text.strip()

proxies7
= response7.text.strip()

with open("proxy_scraped.txt", "a") as txt_file:

txt_file.write(proxies5
+"\n"+proxies6+"\n"+proxies7+"\n")

except Exception as e:

print(e)





def main5():

try:

print("Start 5 step || Site - hidemy.name")

scraper
= cfscrape.create_scraper()

r
= scraper.get(' ')

soup
= BeautifulSoup(r.text, 'lxml')

line
= soup.find('div', class_="table_block").find('table').find('tbody').find_all('tr')



for a in line:

td
= a.find_all('td')

ip
= td[0].text

port
= td[1].text



with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

f.write(
str(ip + ":" + port + "\n"))

except Exception as e:

print(e)



kol_st
= 0




def main7():

try:

print("Start 7 step || Site - sslproxies.org")

scraper
= cfscrape.create_scraper()



r
= scraper.get(f' ')

soup
= BeautifulSoup(r.text, 'lxml')

line
= soup.find('table', class_="table table-striped table-bordered").find('tbody').find_all('tr')



for a in line:

td
= a.find_all('td')

ip
= td[0].text

port
= td[1].text



with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

f.write(
str(ip + ":" + port + "\n"))

except Exception as e:

print(e)



def main8():

try:

print("Start 8 step || Site - spys.one")

scraper
= cfscrape.create_scraper()



r
= scraper.get(f' ')

soup
= BeautifulSoup(r.text, 'lxml')

line
= soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1", align="left").find_all('tr', class_="spy1x", onmouseover="this.style.background='#002424'")

line2
= soup.find('table', cellspacing="0", cellpadding="2").find('table', cellspacing="1", cellpadding="1",align="left").find_all('tr', class_="spy1xx",onmouseover="this.style.background='#002424'")



for tr in line:

td
= tr.find_all('td')

ip
= td[0].text



with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

f.write(
str(ip + '\n'))



for tr2 in line2:

td2
= tr2.find_all('td')

ip2
= td2[0].text



with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

f.write(
str(ip2 + '\n'))

except Exception as e:

print(e)



def main10():

try:

print("Start 10 step || Site - userel.com")

scraper
= cfscrape.create_scraper()



r
= scraper.get(f' ')

soup
= BeautifulSoup(r.text, 'lxml')

line
= soup.find('div', class_="proxy").find('table').find_all('tr')



for tr in line:

td
= tr.find_all('td')

ip
= td[0].text



with open("proxy_scraped.txt", "a+", encoding="utf-8") as f:

f.write(
str(ip) + '\n')

except Exception as e:

print(e)



def main11():

try:

print("Start 11 step || Site - ArchiveProxy")

scraper
= cfscrape.create_scraper()

ear, month, day
= str(date.today()).split('-')

ear
= int(ear)

month
= int(month)

day
= int(day)



for today in range(day):

try:

scoc
= scraper.get(f' {ear}-{month}-{today}').json()

except:

break


try:

for i in range(40000):

with open('proxy_scraped.txt', 'a+') as file:

file.write(scoc['addr'] + '\n')

except:

pass


except Exception as e:

print(e)



if __name__ == "__main__":

main2()

main3()

main4()

main5()

main7()

main8()

main10()

main11()



print("Duplicates cleaning...")

with open("proxy_scraped.txt") as input_:

result = dict.fromkeys(input_).keys()



with open("proxy_scraped.txt", "w") as output:

print(*result, file=output, sep="")

print("Duplicates successfully cleared!")


После того, как вставили код, запускаете скрипт. Нужно подождать какое-то время, пока скрипт соберёт прокси с открытых сайтов, после чего он удалит дубликаты.

Теперь, когда у нас есть файл proxy_scraped.txt, создаём второй файл .py, куда вставляем следующий код.

Этот код отвечает за проверку прокси на работоспособность, а также разделяет их по протоколам (socks, http), и сортирует их по странам.

import threading

import requests

import os



filename = input("FILENAME: ")

timeout = int(input("TIMEOUT: "))



x = 0


y = 0



def check_proxy(proxy):

global y


protocols = ['http', 'https', 'socks4', 'socks5']

for protocol in protocols:

try:

proxies = {protocol: f'{protocol}://{proxy}', 'https': f'{protocol}://{proxy}'}

response = requests.get(' ', proxies=proxies, timeout=timeout)

if response.status_code == 200:

data = response.json()

country = data['country']

folder_path = os.path.join('country', country)

file_path = os.path.join(folder_path, f'{protocol}.txt')

file_path2 = os.path.join(folder_path, 'ALL.txt')

file_path3 = os.path.join("ALL", "ALL.txt")

file_path4 = os.path.join("ALL", protocol)



os.makedirs(folder_path, exist_ok=True)

os.makedirs("ALL", exist_ok=True)



with open(file_path, 'a') as f: #country


f.write(f'{proxy}\n')

with open(file_path2, 'a') as f: #country all


f.write(f'{proxy}\n')



with open(f"{file_path4}.txt", 'a') as f:

f.write(f'{proxy}\n')

with open(file_path3, 'a') as f:

f.write(f'{proxy}\n')



y += 1


except:

pass




with open(filename, 'r') as f:

proxy_list = [line.strip() for line in f]



for i in proxy_list:

t = threading.Thread(target=check_proxy, args=(i,)).start()

x += 1


print(f"\r\rПроверенно: {x}/{len(proxy_list)} Good: {y}", end='')


Запускаем скрипт, и, после того, как чекер выполнит свою работу, он отсортирует рабочие прокси по странам. Также, вы можете воспользоваться этим чекером для проверки своих прокси. прокси будут разделены по протоколам, а также, в папке с скриптом будет создана папка "ALL", где будут все прокси без разделения по странам, и без разделения по протоколам.

Данные прокси можно использовать как угодно. Выбор за вами.



По всем вопросам можете писать в теме!










 

Похожие темы

Слив курса How to Code - Web3 автоматизация на Python [Ahillary] Наш курс будет поделён на 3 основные части: Python c нуля - мы будем изучать основы самого языка Web3, основы - это самая главная часть, внутри которой мы будем учиться автоматизировать web3 процессы Web3, допчасть - как понятно...
Ответы
1
Просмотры
822
Размышления на тему Чебурнета, и вероятные методы анонимной работы в этом прогнозированном мире 1) Что такое чебурнет? Это такое полушуточное название российской концепции закрытого внутреннего Интернете. Когда-то это казалось лишь мемом, однако сейчас все больше шансов,что мы придем именно...
Ответы
18
Просмотры
Привет, форумчане! Хочу поделиться инструкцией по поднятию собственного быстрого, надежного и устойчивого к блокировкам VPN для всех ваших устройств, а также устройств ваших близких. Каких-то технических навыков не потребуется. Аренда сервера Первым делом нужно арендовать сервер. Идем по ссылке...
Ответы
0
Просмотры
274
Всем форумчанинам привет Наступило время поскучать и я решил себя занять написанием данного мануала по шифрованию текста двоичным кодом, который состоит из 1 (единицы ) и 0 ( ноля ) Сразу оговорюсь - это не является сверх шифрованием и любой кто обладает техническими навыками как компьютерная...
Ответы
9
Просмотры
Environment - Linux Medium В прошлый раз мы начали с прохождения лёгкой машины и как я писал в первой статье, пойдём по нарастающей. Начнем прохождение машины, как всегда, с первичных сканов. Результаты сканирования с помощью Nmap показали только два открытых порта: 22/tcp open ssh syn-ack...
Ответы
2
Просмотры
729
Назад
Сверху Снизу