Парсинг большого числа товаров по Я.Маркету и Купер

Стоимость:100 000 рублей
Срок выполнения:30 дней
Варианты оплаты:По договоренности
Дата публикации:2026-02-04 12:39
Обновлено:2026-02-04 12:39
Был на сайте:2026-02-24 19:40

Парсинг большого числа товаров по Я.Маркету и Купер

 
Задача

Необходимо разработать решение на парсинг Kuper.ru, Яндекс.Маркет большого числа карточек, в сутки более 100-200 тыс. карточек товаров.

1. Kuper.ru
Необходимо настроить парсинг товаров всех и цен по ряду торговых сетей по Москве и Питеру. В сутки порядка 200 тыс. карточек товаров скачивать придётся.

2. Яндекс.Маркет
Необходимо настроить парсинг товаров по списку ссылок, включая все цены и продавцов, общий объём парсинга порядка 100-200 тыс. карточек товаров.

Непосредственно парсинг проводить вам не нужно будет, нам необходимо решение, способное за короткий промежуток времени скачивать большой объём информации. Примеры POST запросов прикрепляю к задаче.
Очень желательный предыдущий опыт работы с системами антибот Servicepipe, Qrator и прочими, а также опыт парсинга Яндекс.Маркета, Озон и др.

Оставлять заявки могут только авторизованные пользователи.

Оптимизировано и агрегировано ИИ:

Нам нужно разработать решение для автоматического парсинга большого объема данных с сайтов Kuper.ru и Яндекс.Маркет. Ваша задача — создать систему, которая сможет ежедневно загружать информацию о 200 тысячах товаров с Kuper.ru и 100-200 тысяч товаров с Яндекс.Маркета, включая цены и продавцов. Мы предоставим примеры POST-запросов, которые помогут в настройке. Важно, чтобы у вас был опыт работы с системами антибот, такими как Servicepipe и Qrator, а также опыт парсинга крупных платформ, таких как Яндекс.Маркет и Озон. Для выполнения этого задания потребуются навыки в веб-скрапинге, знание Python или другого языка программирования, опыт работы с API и POST-запросами, а также понимание систем антибот и защиты от блокировок.
Для подачи заявки на участие в задании Вам нужно авторизоваться
Добрый день
для серверный запросов для яндекса - только ротация прокси для такого обьема. Какое количество рабочий и быстрых прокси нужно - сами считайте в зависимости от скорости. Реализовать многопоток тоже не проблема. Вопрос только в пропускной способности набора прокси.
Сразу скажу по опыту - я не встречал еще таких обьемов в сутки для яндекса, если парсить конечно детальную страницу товара, а не просто цены на товары из списка, если так, то кол-во запросов кратно уменьшается.
что касается первого сайта - тут попроще, ротация прокси решит, если сайт будет банить.

дайте конкретику, какие поля парсим, в каком виде и куда пишем.
стоимость купер/яндекс от 300/500евро, 2/4дней, полная предоплата.
пишите в ТГ

Примеры моих работ

PHP-скрипт для мониторинга популярных маркетплейсов и досок объявлений (Vinted, OLX, Avito)
Binance API скрипт анализа и прогнозирования прибыли
Скрипт синхронизации товаров с Dropshipping API с маркетплейсами WildBerries, Ozon, YandexMarket
Здравствуйте. Готов сотрудничать. Работаю по постоплате. Можем разбить проект на этапы. Опыт огромный
Могу разобрать механизмы создания хэшей. Но начальную сессию всё равно придётся получать в безголовом барузере.
Добрый день!

Портфолио:
https://www.edsd.ru/ru/portfolio

Примеры работ:
https://www.edsd.ru/parsing-sajtov-dannyh-analiz-i-monitoring-cen-na-tovary-v-python - Разработка порядка 700 парсеров крупных площадок и обход защиты от ботов.
https://www.edsd.ru/tendernye-i-informacionnye-agregatory
https://www.edsd.ru/razrabotka-sajtov-i-prilozhenij-na-python#poisk-otelej-vill-apartamentov-ehkskursij

Давайте обсудим детали голосом или в чате?
whatsapp +7 (950) 583 10-92
telegram @edsdmanager
Максим

Примеры моих работ

Мозаика из пинов по фотографии на PHP
CRM для фитнес-клуба, школы плавания или бассейна
Повышение рентабельности магазина нейронной сетью
Здравствуйте, Александр!
Парсинг маркетплейсов с обходом антибота - мой профиль.
Опыт именно с такими задачами:
? Парсинг Facebook, Threads - обход rate limits,
ротация прокси, эмуляция браузерного поведения
? Работа с защитой от ботов — Cloudflare,
аналогичные системы
? Большие объёмы - архитектура под 100k+ запросов в сутки
ПОНИМАЮ ЗАДАЧУ:
• Нужно решение, не разовый парсинг - масштабируемая система
МОЙ ПОДХОД:
1. Анализ ваших POST-примеров
2. Тестирование защиты на небольшом объёме
3. Разработка решения с:
— Ротацией прокси (резидентные/мобильные)
— Распараллеливанием запросов
— Обходом fingerprinting
— Автоматическим retry при блокировках
СТЕК: Python (aiohttp/httpx), прокси-пулы,
антидетект решения
Готов созвониться и обсудить детали
13:25 04.02.26
1. В каком формате нужен результат (JSON, CSV, БД)?
2. Как часто планируется запускать парсинг?
3. Есть ли свои прокси или нужно подобрать?
Здравствуйте, Александр.

• Несколько лет развивали сервис сбора данных с маркетплейсов GetRealPrice https://ru.getrealprice.com

Проде бы намного проще и беопаснее получать уже собранные данные, или собрать нужные данные в рамках этого проекта.

Могу связаться с заказчиком, после обсуждения с вами ваших задач.

С уважением, Евгений Сомов.
Телеграмм @john081076
https://t.me/john081076
Тел. +7-904-966-73-75

Примеры моих работ

Создание сервиса по поиску и выбору отелей и мест для отдыха InnTravel
Разработка мобильного приложения для чтения и прослушивания книг на казахском языке "Тында"/"Тенда"
Доработка и развитие портала юридических услуг
Sorbon I
Основная специализация: ИТ и Разработка
    Файлы с запросами изучил.
    Яндекс (mapi): Вижу запрос к мобильному API. Там стоит подпись X-Jws и Compat-Vector. Просто "крутить" этот POST нельзя — подпись привязана к устройству.
    Решение: Реализую парсинг через Web-слой (GraphQL) или гибридный метод с правильными TLS-отпечатками (JA3), чтобы держать нагрузку 200к/сутки без банов.
    Kuper: Эндпоинт /api/web/v1 рабочий, но требует обхода Servicepipe/Riskified (антибот).
    Решение: Напишу генератор валидных сессий + асинхронный воркер (aiohttp) с ротацией резидентских прокси.
    Опыт с HighLoad парсингом и обходом Qrator/Servicepipe есть.
    В бюджет 100 000 руб. и срок 30 дней укладываюсь. Готов обсудить детали реализации.
    тг: sorbon_dev
    Приветствую!
    Могу реализовать ваш проект.
    РАБОТАЮ БЕЗ ПРЕДОПЛАТ!
    Ознакомился с заданием и готов сделать.
    Начать могу сразу как все моменты обсудим. Оплата за результат не на перед.

    Telegram – https://t.me/SSwwwtv

    Примеры моих работ

    Ios приложение
    Создание приложения
    Разработка игры
    Готов выполнить, давайте обсудим детали, опыт работы имеется. На счёт объемов и подводных камней все реализуемо
    Добрый день, есть вариант выполнить ваш проект с помощью пользовательских юзерагентов с помощью Zennoposter, это поможет обойти антифрод системы. Но потребуются существенные вычислительные мощности и некоторые вложения
    Здравствуйте, могу помочь, для более оперативной связи пишите в TG@dm7777dm
    Здравствуйте, готовы предложить вариант решения вашей задачи. Большой опыт (с 2012 года) в создании веб-проектов любой степени сложности.

    ---
    Работаем по официальному договору от имени юридического лица (ООО) по ТЗ. Имеется собственная система для проведения анализа-оценки ТЗ, которая включает механизм помощи в составлении ТЗ.

    ---
    Реализуем ваш проект используя стек LAMP/WAMP (Linux/Windows, Apache, Mysql, PHP).

    Также, ваш проект необходимо разрабатывать с использованием эмуляции человеческих действий в браузере. Это необходимо для обхода возможных блокировок (в процессе совершения действий на сайте, где будет проводиться автоматизация действий) со стороны антибот-системы, установленной на сайте.

    В качестве системы, имеющей готовые инструменты для эмуляции человеческих действий в браузере, будет использоваться программный комплекс ZennoPoster. А именно: бесплатный модуль ZennoBox. Более подробная информация о ZennoBox: https://zennolab.atlassian.net/wiki/spaces/RU/pages/495386651/ZennoBox?id=ru:zennobox

    За период с 2012 года нами разработано большое количество проектов, использующих ZennoPoster.

    В результате вы получите веб-приложение, доступное через интернет (через админ-панель), которое будет управлять автоматизацией парсинга на сайтах kuper.ru и Яндекс Маркет, совершая действия (выполнение кликов мышью, перемещение курсора, нажатие клавиш на клавиатуре, парсинг и другие действия) с использованием эмуляции человеческих действий в браузере.

    Обработку, хранение и отображение информации, полученной в результате выполнения действий на сайте, будет реализовывать стек WAMP (Windows, Apache, MySQL, PHP). Веб-интерфейс приложения создадим на базе HTML/CSS+JavaScript. Динамическая подгрузка информации в веб-интерфейс (без необходимости перезагрузки страницы) будет реализована на базе технологии AJAX.

    ---
    Портфолио (юр лицо (ООО) подтверждено):
    https://www.fl.ru/users/isawebtech/portfolio/

    ---
    Связь:
    Сайт: https://isaweb.tech
    Почта: isaweb.tech@yandex.ru
    Telegram: @isawebtech
    Здравствуйте могу выполнить ваше задание но только будут несколько вопросов один из них то вары для Парсинга это категории или что будет парсить
    I can parse these" messages. At 200k+ product cards per day, this isn't scraping — it's infrastructure. What you're actually looking for is not a parser, but a stable extraction system that can: – handle high volume – avoid constant blocking – scale without breaking every week – deliver structured data fast That's the part most freelancers underestimate. I build parsers like backend systems, not scripts. Meaning the goal isn't just “get data”, but keep getting it daily without babysitting. Especially when dealing with heavy platforms and protection layers. Here's how I'd approach your case: 1. Architecture first (not random scripts) You'll get a structured parsing solution that can handle 100k–200k+ product cards/day without collapsing under load. Queue-based logic, parallel processing, retry handling, and clean data structuring — built for volume from day one. 2. Kuper + Yandex.Market Work with provided POST request examples and endpoints to reproduce stable data extraction flows. Goal: fastest possible download speed with consistent results and minimal manual intervention. 3. Clean output Strukture date Produkt: – prices – sellers – product info – variations Export in JSON/CSV/API-ready format depending on how you plan to use it. 4. Stability > speed hype Anyone can do something that works for 2 days. I focus on something that still works after 2 months of heavy parsing. Important: You said you don't need someone to manually parse — you need a solution. That's exactly what I deliver: deployable parsing engine, not temporary scripts. If the expectation is serious volume and reliability, I'm interested. Send the POST request examples and preferred stack (Python/Node/other if any). I'll review quickly and give you: — final architecture approach — realistic performance expectation — exact cost and timeline No vague promises. Only build-if-it-scales thinking.
    Message me on telegram @uniquetech112
    Иван Астахов
    Основная специализация: Веб-разработка и Продуктовый дизайн
      Разработчик Python с опытом создания парсеров маркетплейсов (Wildberries, Яндекс.Маркет) и автопарсером других сайтов для компании. Готов за 30 дней сделать надёжный ежедневный парсер с обходом Servicepipe/Qrator, ротацией прокси, асинхронными запросами и стабильным хранением данных. Цена -50 000 руб. Покажу прототип через 3–5 дней.
      Здравствуйте,возможно получится не знаю если честно но думаю можно попробовать если что пишите в телеграмм для связи @maskirovko
      Здраствуйте, разрабатываю скрипты для парсинга сайтов. Парсю данные как с использованием API так и с Selenium. Парсил pexels, soundcloud, Goverment of Canada. Работы можете посмотреть в портфолио. Прсмотрел ТЗ, готов к работе. Пишите.
      03:54 24.02.26
      В каком формате вы хотите сохранит данные?

      Оставлять заявки могут только авторизованные пользователи.

      Другие открытые задания:

      поиск заданий