Оригинал: Self-Hosting AI Models

Перевод для канала Мы ж программист

Привет, разработчики! В сегодняшней статье я расскажу о том, как вы можете самостоятельно развернуть модели искусственного интеллекта на своем компьютере и начать использовать их бесплатно. Недавно я искал инструмент, который помог бы превратить мою локальную систему в сервер искусственного интеллекта, и нашел нечто потрясающее. Я подробно расскажу о том, как начать им пользоваться, упростить себе жизнь, проводить больше экспериментов с ИИ и многом другом.

Почему собственный хостинг?

Это первый вопрос, который возник у нас, когда мы решили использовать ИИ с самостоятельным развертыванием. Вот несколько ключевых моментов, которые я учитываю перед тем, как развернуть ИИ-модели самостоятельно:

  • Экономия средств: ИИ с самостоятельным развертыванием может потребовать значительных начальных затрат, но в долгосрочной перспективе позволяет сэкономить значительные средства.
    Более высокая производительность: обеспечив надлежащую инфраструктуру, вы можете сократить задержку при работе ваших API.
  • Контроль и настройка: самостоятельно размещенный ИИ обеспечивает лучший контроль над инфраструктурой и данными для создания индивидуальных решений.
  • Безопасность: он обеспечивает более высокий уровень безопасности за счет настройки правил и лучшего контроля над данными.

Как самостоятельно развернуть ИИ?

Итак, вот главный вопрос: как самостоятельно развернуть ИИ на локальном компьютере?

Я использую инструмент под названием OLLAMA для самостоятельной развертки ИИ, и, поверьте, начать с ним работать очень просто. Вам просто нужно скачать OLLAMA на свою локальную систему с помощью исполняемого файла Docker, и вуаля — вы готовы использовать свой новый сервер ИИ, размещенный на собственном хостинге. Позвольте мне показать вам, как это сделать.

  1. Посетите их сайт, чтобы скачать Ollama — https://ollama.com/download
  2. Чтобы установить его с помощью Docker, следуйте следующим инструкциям:

Запуск только на CPU:

Bash
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

С использованием GPU:

Bash
docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Больше деталей тут https://hub.docker.com/r/ollama/ollama

Теперь вы успешно установили Ollama в своей системе и почти готовы к работе. Давайте рассмотрим дальнейшие шаги.

Теперь вы можете проверить, запустив команду ollama в терминале:

или посетив адрес localhost:11434 в браузере:

Загрузите любимую модель

Ollama предоставляет возможность загрузить и использовать любую понравившуюся модель искусственного интеллекта. Чтобы загрузить модель, необходимо перейти в репозиторий моделей и выбрать ту, которую вы хотите запустить.

Например, я загружу модель qwen3:0.6b, выполнив следующую команду, чтобы получить её и начать использовать:

Bash
ollama run qwen3:0.6b

В первый раз модель будет загружена (это займет некоторое время), после чего она будет доступна в вашей системе, и вы сможете использовать её в любое время:

Используйте ollama list, чтобы просмотреть все загруженные модеи:

Как только загрузка модели завершена, можете начинать ее использовать в терминале:

Ollama API

Мы убедились, что успешно установили OLLAMA в нашей системе, но использовать его через терминал не предполагается. Нам нужно интегрировать его в наш код. Здесь Ollama предоставляет поддержку OpenAI SDK, что позволяет начать работу с ним, просто настроив нужный конечный пункт и модель. Давайте разберемся в этом на примере кода. Я приведу пример кода на Go.

Go
package main
import (
 "context"
 "github.com/openai/openai-go"
 "github.com/openai/openai-go/option"
)
func main() {
 client := openai.NewClient(
  option.WithAPIKey(""),
  option.WithBaseURL("http://localhost:11434/v1"),
 )
 chatCompletion, err := client.Chat.Completions.New(context.TODO(), openai.ChatCompletionNewParams{
  Messages: []openai.ChatCompletionMessageParamUnion{
   openai.SystemMessage("You are a helpful assistant."),
   openai.UserMessage("Who won the world series in 2020?"),
  },
  Model: "qwen3:0.6b",
 })
 if err != nil {
  panic(err.Error())
 }
 println(chatCompletion.Choices[0].Message.Content)
}

Вывод:

Также вы можете использовать curl-запрос, чтобы убедиться, что API работает корректно:

Bash
curl http://localhost:11434/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "qwen3:0.6b",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant."
            },
            {
                "role": "user",
                "content": "Hello!"
            }
        ]
    }'

Заключение

Я рассмотрел практически все важные этапы, необходимые перед тем, как приступить к развертыванию ИИ на собственном хостинге. Я скажу, что если у вас есть долгосрочная перспектива использовать ИИ в широких масштабах, то вам будет очень полезно самостоятельно развернуть модели ИИ. Я уделяю больше внимания использованию технологий с открытым исходным кодом.