А АMonday, 27 April 2026

LM STUDIO или OLLAMA?

Всем привет. 

Если вы еще не решили что же лучше LM STUDIO или OLLAMA server для локалки.

Оба инструмента решают одну задачу, но созданы для разных подходов:

• Ollama - минималистичный и невероятно легкий движок, идеальный для фоновой работы и жесткой экономии ресурсов.

• LM Studio - мощный визуальный комбайн для тех, кто любит кастомизацию, ручной контроль и поиск моделей напрямую с HuggingFace.


⚙️ ЧЕМ ОНИ ОТЛИЧАЮТСЯ ТЕХНИЧЕСКИ?

База у них общая - библиотека llama.cpp (написана на C++) для максимальной скорости инференса. 

1. Ollama: Работает как системный процесс (демон). Она сама управляет загрузкой слоев в видеопамять (VRAM) и автоматически выгружает модель из памяти при простое.

2. LM Studio: Базируется на фреймворке Electron. Распределение слоев нейросети между процессором (CPU) и видеокартой (GPU) настраивается вручную через интерфейс.


📦 В КАКОМ ФОРМАТЕ ХРАНЯТСЯ МОДЕЛИ? 

• В LM Studio модели используются в виде открытых файлов формата .gguf. Вы их скачиваете и сразу видите в папке.

• В Ollama под капотом используются те же файлы .gguf, но система скрывает их в своей служебной директории, переименовывая в кэшированные файлы (blobs) без расширения, чтобы удобно управлять версиями.


Можно поставить и то и то для сравнения, но вот модели они не делят между собой. Однако можно их делегировать (копировать) не перекачивая повторно с интернет.


🛠 КАК ДОБАВИТЬ СТОРОННЮЮ GGUF МОДЕЛЬ В OLLAMA?

Если нужной модели нет в официальной библиотеке Ollama, вы можете загрузить свой файл.

Техническое решение: Импорт GGUF в Ollama

1. Скачайте нужную модель в формате .gguf (например, с сайта HuggingFace) в любую папку.

2. В этой же папке создайте обычный текстовый файл без расширения и назовите его Modelfile.

3. Откройте его в блокноте и впишите одну строчку: FROM "c:/название_модели.gguf", затем сохраните.

4. Откройте терминал (командную строку) в этой папке и введите команду сборки: ollama create my-custom-model -f Modelfile

5. Дождитесь копирования. Теперь модель добавлена, и её можно запускать!


📂 КАК ДОСТАТЬ GGUF ИЗ OLLAMA ДЛЯ ДРУГИХ ПРИЛОЖЕНИЙ?

Если вы скачали модель через Ollama, но хотите открыть её в LM Studio, её можно легко извлечь.

Техническое решение: Экспорт модели из Ollama

1. Откройте терминал и введите ollama show --modelfile имя_модели. 

2. В самом начале вывода найдите строку FROM - там будет указан путь к файлу (blob), который и является самой моделью.

3. Перейдите в системную папку Ollama: 

обычно в Windows она здесь если вы не меняли ее вручную  C:\Users\%username%\.ollama\models\blobs\

 4. Найдите тяжеловесный файл, имя которого совпадает с хэшем из шага 2.

5. Скопируйте этот файл в нужную вам папку и просто допишите в конце его имени расширение .gguf. Файл готов к использованию в любом стороннем приложении!


🚀 КАК УСТАНОВИТЬ OLLAMA И ЗАПУСТИТЬ ВСТРОЕННЫЙ ИНТЕРФЕЙС?

1. Перейдите на страницу разработчика, скачайте установочный файл и установите привычным образом на вашу ОС.

2. Найти и выбрать модели можно в библиотеке: https://ollama.com/library

3. Для запуска встроенного веб-интерфейса выполните двойной щелчок левой кнопкой мыши по иконке Ollama в системном трее (рядом с часами).

Или мой способ более легкий был описан здесь.


💻 КАК УСТАНОВИТЬ LM STUDIO?

1. Скачайте инсталлятор с официального сайта и установите как обычную программу.

2. При запуске используйте главную страницу для поиска моделей (рекомендуется формат Q4_K_M для баланса качества).

3. Нажмите "Download" напротив нужного .gguf файла.


🧩 КАК ПОДКЛЮЧИТЬ ПЛАГИНЫ В LM STUDIO?

1. В левом меню нажмите на иконку пазла ("Extensions/Plugins").

2. Найдите и установите (Install) нужный плагин:

   • Web Search — доступ в интернет.

   • Code Interpreter — написание и запуск Python-кода.

   • Vision Support — анализ картинок.

3. В окне чата (справа) активируйте тумблер в разделе "Plugins".


📌 ВЫВОД

Ollama - лучший выбор для экономного и быстрого запуска "в фоне" с удобным интерфейсом из трея. Её архитектура кэширования специфична. 

LM Studio - идеальна для тех, кто хочет сразу работать с GGUF визуально, экспериментировать с плагинами и настраивать параметры железа.

Кстати, оба имеют возможность работать как сервис, т.е. можете обращаться к ним по сети. 


Удачи.

No comments:

Post a Comment

А что вы думаете по этому поводу?

Версия на печать

Популярное