Требуется написать скрипт для парсинга ссылок с сайта https://tapki.com/. Данный сервис по ключевым словам находит сайты, в названии которых фигурируют эти ключевые слова.
Таким образом, скрипт должен уметь для каждого запроса к сервису tapki.com парсить результат работы сервиса, вычленять ссылки на сайты и записывать их в таблицу.
Например, если мы сделаем запрос "Стоматология" к сервису tapki.com, и он выдаст нам 1000 подходящих результатов, скрипт должен будет распарсить 1000 ссылок и записать их в таблицу.
Оставлять заявки могут только авторизованные пользователи.
Добры день. Готов взяться за заказ. Для меня это будет первый заказ если вы согласитесь, но я уверен что смогу сделать всё в наилучшем виде. Пишу на C#
import requests
from bs4 import BeautifulSoup
import pandas as pd
# Функция для парсинга ссылок с Tapki
def parse_tapki(keywords):
# Формируем URL для запроса к Tapki
url = f"https://tapki.com/en?query1={keywords}&field1=Title&search1=Include"
# Создаем список ссылок
links = []
# Проверяем, есть ли страница с пагинацией
soup = BeautifulSoup(requests.get(url).content, 'html.parser')
pagination = soup.find('ul', {'class': 'pagination'})
if pagination:
# Если есть пагинация, то получаем количество страниц
pages = int(pagination.find('li', {'class': 'active'}).text.split()[-1])
# Парсим каждую страницу
for page in range(1, pages + 1):
page_url = f"{url}&page={page}"
soup = BeautifulSoup(requests.get(page_url).content, 'html.parser')
for link in soup.find_all('a', href=True):
link_url = link['href']
if link_url.startswith('http') and 'tapki.com' not in link_url:
links.append(link_url)
else:
# Если нет пагинации, то парсим только одну страницу
soup = BeautifulSoup(requests.get(url).content, 'html.parser')
for link in soup.find_all('a', href=True):
link_url = link['href']
if link_url.startswith('http') and 'tapki.com' not in link_url:
links.append(link_url)
# Возвращаем список ссылок
return links
# Тестовая функция
if __name__ == '__main__':
keywords = "Стоматология"
links = parse_tapki(keywords)
print(links)
# Запись ссылок в таблицу
df = pd.DataFrame({'Links': links})
df.to_csv('links.csv', index=False)
Приветствую!
РАБОТАЮ БЕЗ ПРЕДОПЛАТ!
Ознакомился с заданием и готов сделать.
Начать могу сразу как все моменты обсудим.
Оплата за результат не на перед.
Telegram – https://t.me/Sswwtv
Здравствуйте, пишу парсеры на самом популярном языке для этого - python.
Код напишу за 2-3 часа, работать будет быстро. Есть большой опыт написания подобных и намного более сложных парсеров. Обращайтесь!
Здравствуйте! Я уже набросал предварительный скрипт на Python, с сохранением в .csv таблицу, при необходимости можно изменить на Excel (.xlsx). Протестировал скрипт на произвольном запросе "турбина", все 582 ссылки из результа поиска были успешно записаны в таблицу (даже ссылки на кирилице, к примеру: "https://ремонттурбины.рф").
P.S. Можно сказать я новичок на freelance.ru, но опыт в парсинге имеется и я очень люблю подобные задачи и поэтому с радостью помогу Вам в данном вопросе! А вы соответственно поможете мне в формировании репутации на данной бирже, за что буду вам благодарен.
Добрый день.
Готов выполнить. Есть несколько вопросов по поводу задачи. Накидал предварительный скрипт. Готов приступить сразу как обсудим вопросы
tg: @scorp_1990
email: alex_77_90@mail.ru
Добрый вечер! Готов взяться за выполнение вашей задачи. Гарантирую качественное выполнение работы в срок и открытость к обратной связи. Буду рад предоставить дополнительную информацию о моем опыте и навыках по запросу. Мой телеграмм @ikovid. Жду вашего ответа и надеюсь на сотрудничество.
Опыт работы со следующими библиотеками: requests, beautifulsoup, selenium. Готов оперативно и качественно выполнить свою работу. По ТЗ можно списаться в телеграмме
Парсинг ссылок с сайта
Реклама
Парсинг ссылок с сайта
Требуется написать скрипт для парсинга ссылок с сайта https://tapki.com/. Данный сервис по ключевым словам находит сайты, в названии которых фигурируют эти ключевые слова.
Таким образом, скрипт должен уметь для каждого запроса к сервису tapki.com парсить результат работы сервиса, вычленять ссылки на сайты и записывать их в таблицу.
Например, если мы сделаем запрос "Стоматология" к сервису tapki.com, и он выдаст нам 1000 подходящих результатов, скрипт должен будет распарсить 1000 ссылок и записать их в таблицу.
Другие открытые задания:
Требуется: Расшифровка видеозаписи (дословная запись речи)1 300 р.
Бюджет: 1 300 р. Расшифровка видеозаписи. Объемы в работу: от 15 минут. В записях: монологи или ответы на вопросы журналиста. С опытом работы в расшифровке. С опытом работы в со…
Решить 4 задачи теплообмена в ansyse1 000 р.
Бюджет: 1 000 р. Здравствуйте, нужно решить 4 задачи, в ансисе 2020 модуль cfx fluid, сделать геометрию, построить сетку, условия. Так где отсутствуют параметры, то примерно. Задачи…
Спарсить данные с сайта zakupki.gov.ru1 000 р.
Бюджет: 1 000 р. Нобходимо спарсить с сайта zakupki.gov.ru список всех зарегистрированных участников тендеров. Необходимые данные: название адрес номера телефонов емейл адреса …
поиск заданий