Как установить DeepSeek на сервер — пошаговая инструкция для VPS

DeepSeek AI – это передовая открытая модель искусственного интеллекта, которая прекрасно справляется со своими задачами даже без использования GPU. В комплексе с Ollama, технология обеспечивает локальный запуск ИИ, позволяя пользователю полностью контролировать производительность и уровень конфиденциальности.

Размещение DeepSeek на личном сервере гарантирует высокий уровень безопасности, так как исключается риск перехвата данных через API. В условиях частой перегрузки официальных серверов DeepSeek, локальная установка позволяет использовать исключительно свои вычислительные ресурсы, не делясь ими с посторонними.


Какие характеристики нам потребуются?

Рассмотрим сравнение моделей с различными системными требованиями. Все модели адаптированы как для работы на CPU, так и на GPU. Однако, учитывая, что установка производится на сервере, в данной статье основной акцент будет сделан на настройке и эксплуатации модели на вычислительных мощностях процессора.

Версия модели
Размер
ОЗУ
Подходящий тариф

deepseek-r1:1.5b

1.1 GB

4 GB

Простые задачи, отлично подходит для тестирования и пробных запусков.

deepseek-r1:7b

4.7 GB

10 GB

Написание и перевод текстов. Разработка несложного кода.

deepseek-r1:14b

9 GB

20 GB

Продвинутые возможности в разработке, копирайтинге. Отличный баланс скорости и функционала.

deepseek-r1:32b

19 GB

40 GB

Мощность, аналогичная ChatGPT o1 mini. Углубленный анализ данных.

deepseek-r1:70b

42 GB

85 GB

Вычисления высокого уровня для бизнес-задач. Глубокий анализ данных и комплексная разработка.

deepseek-r1:671b

720 GB

768 GB

Основная и самая продвинутая модель DeepSeek R1. Предоставляет вычислительные функции на уровне последних моделей ChatGPT. Рекомендуем размещать на мощном выделенном сервере с NVMe-дисками.


Пошаговая установка модели DeepSeek 14B на сервере

В качестве примера мы установим модель 14B, которая обеспечивает оптимальное соотношение производительности и ресурсопотребления. Данная инструкция применима для любой модели из доступного списка, позволяя при необходимости установить другую версию.

Обновите системные репозитории и пакеты:

sudo apt update && sudo apt upgrade -y

Установите Ollama — менеджер для развертывания DeepSeek:

curl -fsSL https://ollama.com/install.sh | sh && sudo systemctl start ollama

Загрузите выбранную модель DeepSeek:

ollama pull deepseek-r1:14b

Примечание: Вы можете заменить deepseek-r1:14b на другую версию, например, deepseek-r1:32b. Установка модели 14B занимает приблизительно 2 минуты на сервере Hi-CPU Pulsar благодаря высокоскоростному сетевому соединению.

Запустите модель DeepSeek:

ollama run deepseek-r1:14b

После выполнения этой команды появится интерфейс для ввода сообщений, что позволит начать диалог с искусственным интеллектом.


Дополнительные команды

Вы также можете отправить одиночный запрос:

ollama run deepseek-r1:14b "What is heavier: 1 kg of iron or 1 kg of feathers?"

Для создания публичного API-доступа:

ollama serve

Для проверки установленных моделей:

ollama list

Рекомендации по выбору сервера

Для стабильной работы моделей DeepSeek R1 рекомендуется использовать серверы с достаточным объемом оперативной памяти (предпочтительно с некоторым запасом) и быстрыми NVMe-накопителями.


Наши ресурсы

Telegram-канал: https://t.me/u1host U1HOST: https://u1host.com

Last updated