От идеи до результата вместе с WEBcity!

Егор Палагин webcity23

Рейтинг: 4 992
Верифицирован через Сбер ID
Всего отзывов: 30 0
Профессионализм: 10 Коммуникация: 10
Выполнил заданий: 1
  • Надежность: Использовал: Работал по Безопасной сделке
  • Активность:
  • Работ в портфолио: 32
  • Типовых услуг: 23
  • Работ на продажу: 4
  • Образование: Магистратура
  • Стаж работы: 2 года
  • Тип занятости: Полный фриланс
  • Юридический статус:Самозанятый
Был на сайте:

Описание

Был разработан и доработан проект Ollama Assistant — AI-помощник для VSCode, интегрированный с локальными моделями Ollama. Инструмент создан для пошаговой генерации проектов с сохранением контекста, а также для автоматизации рутинных задач разработчика: от планирования архитектуры до написания тестов и документации.

Основные задачи проекта

Реализация пошаговой генерации проектов. Создана логика «цепочки» (Planner → Coder → Reviewer/Docs), которая позволяет как проходить полный цикл разработки, так и использовать отдельные этапы.

Автоматическое создание файлов и папок. Добавлен механизм генерации структуры проекта по плану без удаления существующих файлов.

Контекстная генерация кода. Обеспечена связь между частями проекта: каждый новый файл формируется с учётом уже созданных.

Гибкая настройка моделей. В settings.json реализована возможность выбирать разные модели Ollama для каждой роли: Planner, Coder, Docs.

Улучшенные инструменты разработчика:

Explain Selection — объяснение выделенного кода прямо в редакторе.

Generate Tests — генерация unit-тестов для выделенного кода.

Refactor Code — предложения по улучшению и оптимизации существующего кода.

Отображение пошагового прогресса. Визуализация процесса: какая модель сейчас работает и над каким файлом.

Решение

Разработана архитектура цепочной генерации: проект можно строить полностью или по частям, сохраняя контекст между шагами.

Реализовано автосоздание структуры проекта: файлы и директории формируются автоматически, что ускоряет старт разработки.

Внедрена контекстная интеграция: новые части кода пишутся с учётом уже существующих файлов.

Добавлен гибкий выбор моделей: пользователь может комбинировать разные LLM под разные задачи.

Реализован набор инструментов разработчика для анализа, тестирования и рефакторинга кода.

Результат

Ollama Assistant превратился в полноценного AI-помощника внутри VSCode:

разработка стала быстрее и структурированнее за счёт пошагового процесса,

повысилась точность и связность генерируемого кода,

появилась возможность гибко настраивать модели под конкретные задачи,

разработчики получили удобные инструменты для объяснения, тестирования и улучшения кода,

интеграция с Ollama обеспечивает приватность и работу с локальными моделями без зависимости от внешних API.

Таким образом, Ollama Assistant стал универсальным инструментом для ускорения разработки и повышения качества проектов.

Презентация проекта

9s.jpg

Оценили проект:

1