Подзадача 1: Парсинг данных со страницы "А"
1. На веб-странице А необходимо выполнить парсинг HTML-кода и построчно извлечь данные о финансовых инструментах, представленных в виде таблицы (около 200 строк).
2. Все строки таблицы, содержащие информацию по каждому финансовому инструменту, нужно сохранить в CSV-файл "Ф". Формат файла: каждая строка таблицы записывается в CSV, а также включаются ссылки на страницы "Б", соответствующие каждому инструменту.
3. Для каждой уникальной ссылки на страницу "Б" требуется: Открыть страницу "Б". Извлечь из HTML-кода страницы определённые данные (пара ключевых показателей), соответствующие строке финансового инструмента на странице "А". (см. id="performance" - class="table-holder" - Sharpe Ratio) Добавить эти данные в соответствующую строку файла "Ф".
4. Итоговый файл "Ф" до...
Видеть полную информацию и оставлять заявки могут только авторизованные пользователи.
Здравствуйте, есть опыт в разработке парсеров, есть портфолио с примерами работ, а также те работы, которые могу предоставить в лс
Готов приступить к работе уже на этих выходных
Можем обсудить разные детали в лс
Итак, задача — автоматизировать сбор данных с двух типов веб-страниц: сначала спарсить информацию о финансовых инструментах со страницы "А" и сохранить её в формате CSV, а затем перейти на страницы "Б", чтобы извлечь котировки для каждого инструмента, сохранив эти данные в отдельных CSV-файлах?
Пара уточнений:
Верно ли, что таблица на странице "А" всегда имеет одинаковую структуру, и в ней присутствует только по одной уникальной ссылке на страницу "Б" для каждого финансового инструмента?
По поводу данных котировок — нужна ли точная структура с одинаковыми временными интервалами, или просто все доступные записи в формате "Дата, Цена"?
Таблицы должны обновляться или создаваться новые?
Для решения действительно, могу использовать Python с библиотеками BeautifulSoup и requests для парсинга HTML, и csv для сохранения данных. Такой подход позволит структурировать данные, добавив метаинформацию по каждому инструменту.
Готов сразу приступить к работе и применить готовые наработки по парсингу и форматированию данных в CSV, чтобы сэкономить время на разработке.
Основная специализация: Веб-разработка и Продуктовый дизайн
Здравствуйте, Наиль.
Я хорошо разбираюсь в библиотеке BeautifullSoup4, так как писал парсеры на заказ для биржи Kwork.
Предлагаю Вам такую низкую цену, как первому клиенту на этой бирже.
У меня уже есть шаблоны для работы с этой библиотекой, поэтому сделаю всё быстро и надёжно
Привет, имею большой опыт в разработке скриптов, сайтов, парсеров и просто програм на python, одним словом пишу всо, также пишу приложения на Андроид, с удовольствием возьмусь за работу, сделаю всо в лучшем виде и в кратчайшие сроки, также помогу запустить и разобраться.
Программист парсер на Phyton
Реклама
Программист парсер на Phyton
Приветствую вас, профессионалы!
Описание задачи
Задача состоит из двух основных подзадач:
Подзадача 1: Парсинг данных со страницы "А"
1. На веб-странице А необходимо выполнить парсинг HTML-кода и построчно извлечь данные о финансовых инструментах, представленных в виде таблицы (около 200 строк).
2. Все строки таблицы, содержащие информацию по каждому финансовому инструменту, нужно сохранить в CSV-файл "Ф". Формат файла: каждая строка таблицы записывается в CSV, а также включаются ссылки на страницы "Б", соответствующие каждому инструменту.
3. Для каждой уникальной ссылки на страницу "Б" требуется: Открыть страницу "Б". Извлечь из HTML-кода страницы определённые данные (пара ключевых показателей), соответствующие строке финансового инструмента на странице "А". (см. id="performance" - class="table-holder" - Sharpe Ratio) Добавить эти данные в соответствующую строку файла "Ф".
4. Итоговый файл "Ф" до...