Если вы еще не решили что же лучше LM STUDIO или OLLAMA server для локалки.
Оба инструмента решают одну задачу, но созданы для разных подходов:
• Ollama - минималистичный и невероятно легкий движок, идеальный для фоновой работы и жесткой экономии ресурсов.
• LM Studio - мощный визуальный комбайн для тех, кто любит кастомизацию, ручной контроль и поиск моделей напрямую с HuggingFace.
⚙️ ЧЕМ ОНИ ОТЛИЧАЮТСЯ ТЕХНИЧЕСКИ?
База у них общая - библиотека llama.cpp (написана на C++) для максимальной скорости инференса.
1. Ollama: Работает как системный процесс (демон). Она сама управляет загрузкой слоев в видеопамять (VRAM) и автоматически выгружает модель из памяти при простое.
2. LM Studio: Базируется на фреймворке Electron. Распределение слоев нейросети между процессором (CPU) и видеокартой (GPU) настраивается вручную через интерфейс.
📦 В КАКОМ ФОРМАТЕ ХРАНЯТСЯ МОДЕЛИ?
• В LM Studio модели используются в виде открытых файлов формата .gguf. Вы их скачиваете и сразу видите в папке.
• В Ollama под капотом используются те же файлы .gguf, но система скрывает их в своей служебной директории, переименовывая в кэшированные файлы (blobs) без расширения, чтобы удобно управлять версиями.
Можно поставить и то и то для сравнения, но вот модели они не делят между собой. Однако можно их делегировать (копировать) не перекачивая повторно с интернет.



