# Как установить DeepSeek на сервер – пошаговая инструкция для VPS

DeepSeek AI – это передовая открытая модель искусственного интеллекта, которая прекрасно справляется со своими задачами даже без использования GPU. В комплексе с Ollama, технология обеспечивает локальный запуск ИИ, позволяя пользователю полностью контролировать производительность и уровень конфиденциальности.

Размещение DeepSeek на личном сервере гарантирует высокий уровень безопасности, так как исключается риск перехвата данных через API. В условиях частой перегрузки официальных серверов DeepSeek, локальная установка позволяет использовать исключительно свои вычислительные ресурсы, не делясь ими с посторонними.

***

### Какие характеристики нам потребуются?

Рассмотрим сравнение моделей с различными системными требованиями. Все модели адаптированы как для работы на CPU, так и на GPU. Однако, учитывая, что установка производится на сервере, в данной статье основной акцент будет сделан на настройке и эксплуатации модели на вычислительных мощностях процессора.

<table><thead><tr><th width="155.39996337890625">Версия модели</th><th width="82.199951171875">Размер</th><th width="85">ОЗУ</th><th>Подходящий тариф</th><th></th></tr></thead><tbody><tr><td>deepseek-r1:1.5b</td><td>1.1 GB</td><td>4 GB</td><td><a href="https://u1host.com/">DE-7950X3D-4</a></td><td>Простые задачи, отлично подходит для тестирования и пробных запусков.</td></tr><tr><td>deepseek-r1:7b</td><td>4.7 GB</td><td>10 GB</td><td><a href="https://u1host.com/">DE-7950X3D-5</a></td><td>Написание и перевод текстов. Разработка несложного кода.</td></tr><tr><td>deepseek-r1:14b</td><td>9 GB</td><td>20 GB</td><td><a href="https://u1host.com/">DE-7950X3D-6</a></td><td>Продвинутые возможности в разработке, копирайтинге. Отличный баланс скорости и функционала.</td></tr><tr><td>deepseek-r1:32b</td><td>19 GB</td><td>40 GB</td><td><a href="https://u1host.com/">DE-7950X3D-6</a></td><td>Мощность, аналогичная ChatGPT o1 mini. Углубленный анализ данных.</td></tr><tr><td>deepseek-r1:70b</td><td>42 GB</td><td>85 GB</td><td><a href="https://u1host.com/">Минимальный выделенный сервер</a></td><td>Вычисления высокого уровня для бизнес-задач. Глубокий анализ данных и комплексная разработка.</td></tr><tr><td>deepseek-r1:671b</td><td>720 GB</td><td>768 GB</td><td><a href="https://u1host.com/">Минимальный выделенный сервер</a></td><td>Основная и самая продвинутая модель DeepSeek R1. Предоставляет вычислительные функции на уровне последних моделей ChatGPT. Рекомендуем размещать на мощном выделенном сервере с NVMe-дисками.</td></tr></tbody></table>

***

### Пошаговая установка модели DeepSeek 14B на сервере

В качестве примера мы установим модель 14B, которая обеспечивает оптимальное соотношение производительности и ресурсопотребления. Данная инструкция применима для любой модели из доступного списка, позволяя при необходимости установить другую версию.

{% hint style="warning" %}
Для установки используется тариф Hi-CPU Pulsar с операционной системой Ubuntu 22.04, который идеально подходит для DeepSeek.
{% endhint %}

Обновите системные репозитории и пакеты:

```
sudo apt update && sudo apt upgrade -y
```

Установите Ollama — менеджер для развертывания DeepSeek:

```
curl -fsSL https://ollama.com/install.sh | sh && sudo systemctl start ollama
```

Загрузите выбранную модель DeepSeek:

```
ollama pull deepseek-r1:14b
```

{% hint style="info" %}
Примечание: Вы можете заменить `deepseek-r1:14b` на другую версию, например, `deepseek-r1:32b`. Установка модели 14B занимает приблизительно 2 минуты на сервере Hi-CPU Pulsar благодаря высокоскоростному сетевому соединению.
{% endhint %}

Запустите модель DeepSeek:

```
ollama run deepseek-r1:14b
```

После выполнения этой команды появится интерфейс для ввода сообщений, что позволит начать диалог с искусственным интеллектом.

<figure><img src="https://4013008081-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FUZCon1KDFCWX5Lp410mU%2Fuploads%2F5VzNSFHs3BJJ6XRRDPV3%2Fimage.png?alt=media&#x26;token=3229c070-8d1e-4a59-aec8-caf49406bba7" alt=""><figcaption></figcaption></figure>

***

### Дополнительные команды

Вы также можете отправить одиночный запрос:

```
ollama run deepseek-r1:14b "What is heavier: 1 kg of iron or 1 kg of feathers?"
```

<figure><img src="https://4013008081-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FUZCon1KDFCWX5Lp410mU%2Fuploads%2FSjD8kBInnDlNiGBYfFqM%2Fimage.png?alt=media&#x26;token=663a066d-5128-4498-ac8c-8a1d5345e13e" alt=""><figcaption></figcaption></figure>

Для создания публичного API-доступа:

```
ollama serve
```

Для проверки установленных моделей:

```
ollama list
```

<figure><img src="https://4013008081-files.gitbook.io/~/files/v0/b/gitbook-x-prod.appspot.com/o/spaces%2FUZCon1KDFCWX5Lp410mU%2Fuploads%2FJ0rlY17gX80Zzi1JTmoE%2Fimage.png?alt=media&#x26;token=efc53d41-7275-47d1-9c83-46dac0d55b51" alt=""><figcaption></figcaption></figure>

***

### Рекомендации по выбору сервера

Для стабильной работы моделей DeepSeek R1 рекомендуется использовать серверы с достаточным объемом оперативной памяти (предпочтительно с некоторым запасом) и быстрыми NVMe-накопителями.

***

### Наши ресурсы

**Telegram-канал:** <https://t.me/u1host>\
**U1HOST:** [https://u1host.com](https://u1host.com/)


---

# Agent Instructions: Querying This Documentation

If you need additional information that is not directly available in this page, you can query the documentation dynamically by asking a question.

Perform an HTTP GET request on the current page URL with the `ask` query parameter:

```
GET https://wiki.u1host.com/ai-solutions/deepseek-installation.md?ask=<question>
```

The question should be specific, self-contained, and written in natural language.
The response will contain a direct answer to the question and relevant excerpts and sources from the documentation.

Use this mechanism when the answer is not explicitly present in the current page, you need clarification or additional context, or you want to retrieve related documentation sections.
