Установить на сервер GPUsaray модель Qwen3-30B И запустить
Стоимость:
15 000 рублей
Срок выполнения:
3 дня
Варианты оплаты:
По договоренности
Дата публикации:
2026-01-20 15:43
Обновлено:
2026-01-20 18:54
Был на сайте:
2026-02-02 23:20
Реклама
Установить на сервер GPUsaray модель Qwen3-30B И запустить
Задача
Арендовал инстанс 1x RTX 3090 VRAM 24 gb на маркетпрейсе gpusaray.com
Есть доступ по ssh. ключ выдам. нужно поставить туда модель qwen3-30B-instruct gguf квантованую и запустить и автозапуск настроить. детали в личке.
Пишите только те кто понимает и имеет опыт.
Оставлять заявки могут только авторизованные пользователи.
Нам нужно установить и запустить модель Qwen3-30B на сервере, арендованном через gpusaray.com, с использованием инстанса 1x RTX 3090 с 24 GB VRAM. У вас будет доступ по SSH, и я предоставлю ключ. После установки необходимо настроить автозапуск модели. Если у вас есть опыт в этой области, пожалуйста, свяжитесь со мной для получения дополнительных деталей.
Для выполнения этого задания потребуются навыки работы с SSH и удаленными серверами, опыт установки и настройки моделей машинного обучения, знание работы с графическими процессорами (GPU), а также умение настраивать автозапуск программ на сервере.
Hi, I have hands-on experience deploying large quantized GGUF models on rented GPU instances.
With SSH access, I can set up the environment on the RTX 3090 (CUDA, drivers, dependencies), download and run the Qwen3-30B-Instruct GGUF model using the appropriate runtime (e.g., llama.cpp / llama-cpp-python with GPU offloading), and optimize VRAM usage for 24 GB.
I’ll also configure a proper autostart service (systemd) so the model runs automatically on reboot and ensure it’s stable and testable.
Please message me with the SSH key and any preferred runtime or serving method, and I can proceed.
Имею опыт работы с ollama, настройку для него веб-интерфейсов по необходимости, пишу демоны для systemd и openrc, нужную модель в базах уже нашёл, готов взяться. Связь в профиле.
Добрый день, готов предложить свои услуги. Вопрос в том что нужно на выходе? Апи ключ опен аи совместимый верно? Если так то никаких проблем нет. Если нет - согласует, работаю с нейросетями около года, имеется свое оборудование на Тесла А16 - умею работать.
Добрый день. Занимаюсь машинным и глубоким обучением. Специализируюсь в том числе на NLP. Занимался разработкой голосовых и текстовых чат-ботов с помощью предобученных моделей LLM, как и в том числе с их дообучением, а также для классификации, кластеризация текста, семантического поиска и тематического моделирования. Давайте обсудим и я решу Вам Вашу задачу в ближайшие сроки.
Здравствуйте! Занимаюсь установкой ллм моделей на локальные машины, есть опыт в развертывании и настройке. Готов выполнить вашу задачу. По срокам 1-2 дня, но если нужно только развернуть и настроить простой графический интерфейс - можно сделать это за день.
Здравствуйте,готов взяться сегодня же и скорее всего закончить установку и настройку сегодня же,имею опыт работы с локальными моделями. Если что пишите: v9157622@gmail.com
Я опытный Web full-stack разработчик с более чем 12-летним стажем работы в области разработки сайтов. Задача интересная, готов обсудить подробности\условия. Работаю сам, без посредников
Добрый день Эдуард, на данный момент qwen3 официально не выпущена могу постараться помочь установить qwen 2.5 32B, много опыта в данной сфере не имею, помогу чем смогу. Если вам будет не трудно буду рад связаться в телеграмме https://t.me/logicum95
Добрый день!
Готов выполнить задачу по установке и запуску Qwen3-30B-Instruct (GGUF-квантизация) на вашем инстансе 1xRTX 3090 24 ГБ VRAM с настройкой автозапуска.
Основной вариант:
Движок: llama.cpp (самый стабильный и простой для GGUF на одной 3090).
Квантизация: Q5_K_M (или Q4_K_M для запаса VRAM) от unsloth/Qwen/Qwen3-30B-A3B-Instruct-GGUF — влезает в ~20–22 ГБ VRAM, скорость 35–50+ ток/с, качество близкое к оригиналу.
Контекст: до 32k (можно 8k–16k для стабильности).
Запуск: как OpenAI-совместимый сервер (--host 0.0.0.0 --port 8080).
Автозапуск: systemd-сервис с рестартом при сбое.
Я уже работал с подобными задачами (llama.cpp + GGUF на CUDA), знаю типичные проблемы (OOM, CUDA-ошибки, KV-cache). Всё сделаю удалённо по SSH, предоставлю точные команды и статус после каждого этапа.
Стоимость и сроки — обсудим. Готов начать сразу после доступа.
Жду деталей (ключ, IP, точное имя модели/квантизация, если есть предпочтения по порту/контексту).
С уважением,
Максим Титков
Telegram: @maks_tit
00:24 27.01.26
Какое точное имя модели на Hugging Face? (например, unsloth/Qwen3-30B-A3B-Instruct-GGUF или Qwen/Qwen3-30B-A3B-Instruct-GGUF)
Какая предпочтительная квантизация? (Q4_K_M, Q5_K_M, Q6_K, Q8_0 или другая)
Какой максимальный контекст нужен? (8k, 16k, 32k+)
Нужен ли OpenAI-совместимый API (llama-server/vLLM) или достаточно CLI?
Есть ли предпочтения по движку? (llama.cpp, vLLM, Ollama и т.д.)
Нужно ли ограничить доступ (API-ключ, firewall) или сервер для локального использования?
Сколько примерно ожидается нагрузки
Развертывание Qwen3-30B-A3B GGUF на RTX 3090 с production setup
Выполню полный цикл:
- Компиляция llama.cpp с CUDA оптимизацией
- Загрузка и настройка модели (Q4_K_M квантизация)
- Тестирование производительности (бенчмарки)
- Systemd автозапуск с логированием
- Скрипты мониторинга и управления
Результат: готовая к работе модель с автоматическим запуском,
полным логированием и инструментами мониторинга.
Опыт: разработка ML моделей, GPU optimization, Linux DevOps.
Могу установить и запустить qwen3-30b-instruct GGUF на вашем сервере с RTX 3090, настроить работу через GPU и systemd-автозапуск.
Опыт есть, понимаю ограничения по VRAM.
Здравствуйте! Готов реализовать задачу. Имею большой опыт развертывания LLM на GPU-инстансах.
Что сделаю:
Установлю оптимальный бэкенд (llama.cpp или vLLM в зависимости от ваших целей).
Подберу и скачаю версию Qwen3-30B-Instruct в формате GGUF с квантованием (вероятно, Q4_K_M), чтобы модель работала максимально быстро и без вылетов по памяти на 24 ГБ VRAM.
Настрою автозапуск через systemd или Docker (на ваш выбор), чтобы сервер поднимался сам после перезагрузки инстанса.
Проверю работоспособность через API или терминал.
С GPUsaray знаком, к работе готов приступить сразу после получения ключа. В 3 дня уложусь с запасом.
Установить на сервер GPUsaray модель Qwen3-30B И запустить
Реклама
Установить на сервер GPUsaray модель Qwen3-30B И запустить
Арендовал инстанс 1x RTX 3090 VRAM 24 gb на маркетпрейсе gpusaray.com
Есть доступ по ssh. ключ выдам. нужно поставить туда модель qwen3-30B-instruct gguf квантованую и запустить и автозапуск настроить. детали в личке.
Пишите только те кто понимает и имеет опыт.