Парсинг ссылок с сайта

Задание закрыто
Стоимость:700 рублей
Срок выполнения:2 дня
Варианты оплаты:По договоренности
Дата публикации:2024-05-01 12:31
Был(а) на сайте:2025-06-20 11:11

Парсинг ссылок с сайта

 
Задача

Требуется написать скрипт для парсинга ссылок с сайта https://tapki.com/. Данный сервис по ключевым словам находит сайты, в названии которых фигурируют эти ключевые слова.

Таким образом, скрипт должен уметь для каждого запроса к сервису tapki.com парсить результат работы сервиса, вычленять ссылки на сайты и записывать их в таблицу.

Например, если мы сделаем запрос "Стоматология" к сервису tapki.com, и он выдаст нам 1000 подходящих результатов, скрипт должен будет распарсить 1000 ссылок и записать их в таблицу.

Оставлять заявки могут только авторизованные пользователи.
готов выполнить
Здравствуйте!

Готов помочь с парсингом ссылок с сайта, опыт есть. Мои контакты для связи:

Телеграмм - @mtap3019

Почта - ivan12.karpov9595@mail.ru
DenitKO
Основная специализация: ИТ и Разработка
    Добры день. Готов взяться за заказ. Для меня это будет первый заказ если вы согласитесь, но я уверен что смогу сделать всё в наилучшем виде. Пишу на C#
    Добрый день, с радостью возьмусь за выполнение работы. Оплата после вашей оценки результата.
    Павел
    Основная специализация: ИТ и Разработка
      import requests
      from bs4 import BeautifulSoup
      import pandas as pd

      # Функция для парсинга ссылок с Tapki
      def parse_tapki(keywords):
      # Формируем URL для запроса к Tapki
      url = f"https://tapki.com/en?query1={keywords}&field1=Title&search1=Include"

      # Создаем список ссылок
      links = []

      # Проверяем, есть ли страница с пагинацией
      soup = BeautifulSoup(requests.get(url).content, 'html.parser')
      pagination = soup.find('ul', {'class': 'pagination'})
      if pagination:
      # Если есть пагинация, то получаем количество страниц
      pages = int(pagination.find('li', {'class': 'active'}).text.split()[-1])

      # Парсим каждую страницу
      for page in range(1, pages + 1):
      page_url = f"{url}&page={page}"
      soup = BeautifulSoup(requests.get(page_url).content, 'html.parser')
      for link in soup.find_all('a', href=True):
      link_url = link['href']
      if link_url.startswith('http') and 'tapki.com' not in link_url:
      links.append(link_url)
      else:
      # Если нет пагинации, то парсим только одну страницу
      soup = BeautifulSoup(requests.get(url).content, 'html.parser')
      for link in soup.find_all('a', href=True):
      link_url = link['href']
      if link_url.startswith('http') and 'tapki.com' not in link_url:
      links.append(link_url)

      # Возвращаем список ссылок
      return links

      # Тестовая функция
      if __name__ == '__main__':
      keywords = "Стоматология"
      links = parse_tapki(keywords)
      print(links)

      # Запись ссылок в таблицу
      df = pd.DataFrame({'Links': links})
      df.to_csv('links.csv', index=False)

      Примеры моих работ

      Адаптивный сайт доставки цветов с акцентом на конверсию и UX
      "Карусель удачи" - магазин детских игровых площадок и комплексов
      ИМ телевизоров
      Приветствую!
      РАБОТАЮ БЕЗ ПРЕДОПЛАТ!
      Ознакомился с заданием и готов сделать.
      Начать могу сразу как все моменты обсудим.
      Оплата за результат не на перед.
      Telegram – https://t.me/Sswwtv

      Примеры моих работ

      Ios приложение
      Создание приложения
      Разработка игры
      Готов выполнить задание
      Здравствуйте! Готов выполнить ваше задание. Имею ОЧЕНЬ большой опыт в парсинге сайтов на python. Готов выполнить ваше задание максимально быстро.

      Мой телеграмм tg: Marpexiz
      Здравствуйте, готов выполнить ваш заказ.
      Ранее уже писал парсеры

      Связь:
      tg:shltt
      email:seshtatnov@gmail.com
      Здравствуйте Алексей, я уже реализовал ваш парсер!
      напишите мне в телеграм @Malphas1
      Здравствуйте, пишу парсеры на самом популярном языке для этого - python.
      Код напишу за 2-3 часа, работать будет быстро.
      Есть большой опыт написания подобных и намного более сложных парсеров. Обращайтесь!

      тг - @astronautt23
      email - ali.iskenderov02@mail.ru
      whatsapp - 89663701169
      номер телефона - 89600641149
      Здравствуйте, смогу приступить уже сегодня, опыт в разработке парсеров имеется
      11:38 06.05.24
      Таблица excel?
      Готов написать. Буду благодарен, если выберете меня. Опыт есть.
      Связаться со мной:
      Tg - @AleksandrK38
      Здравствуйте! Я уже набросал предварительный скрипт на Python, с сохранением в .csv таблицу, при необходимости можно изменить на Excel (.xlsx). Протестировал скрипт на произвольном запросе "турбина", все 582 ссылки из результа поиска были успешно записаны в таблицу (даже ссылки на кирилице, к примеру: "https://ремонттурбины.рф").

      P.S. Можно сказать я новичок на freelance.ru, но опыт в парсинге имеется и я очень люблю подобные задачи и поэтому с радостью помогу Вам в данном вопросе! А вы соответственно поможете мне в формировании репутации на данной бирже, за что буду вам благодарен.
      Добрый день.
      Готов выполнить. Есть несколько вопросов по поводу задачи. Накидал предварительный скрипт. Готов приступить сразу как обсудим вопросы
      tg: @scorp_1990
      email: alex_77_90@mail.ru
      Добрый вечер! Готов взяться за выполнение вашей задачи. Гарантирую качественное выполнение работы в срок и открытость к обратной связи. Буду рад предоставить дополнительную информацию о моем опыте и навыках по запросу. Мой телеграмм @ikovid. Жду вашего ответа и надеюсь на сотрудничество.
      Опыт работы со следующими библиотеками: requests, beautifulsoup, selenium. Готов оперативно и качественно выполнить свою работу. По ТЗ можно списаться в телеграмме
      Добрый день, готов взяться за заказ и выполнить всё в срок.
      22:26 15.05.24
      Правильно ли я понял, что желаемый Запрос будет вводится пользователем, а не браться из списка запросов?

      Оставлять заявки могут только авторизованные пользователи.

      Другие открытые задания:

      поиск заданий