Ollama: различия между версиями
Перейти к навигации
Перейти к поиску
Dzmuh (обсуждение | вклад) (→Ссылки) |
Dzmuh (обсуждение | вклад) Нет описания правки |
||
| Строка 1: | Строка 1: | ||
{{Заготовка}} | {{Заготовка}} | ||
Ollama — открытый [[инференс-движок]], использующий под капотом библиотеку [[llama.cpp]] и ориентированный на удобство управления и запуска моделей. Содержит большой репозиторий готовых моделей различных уровней квантизации GUFF. Оптимален для начинающего пользователя [[LLM]]. | Ollama — открытый [[инференс-движок]], использующий под капотом библиотеку [[llama.cpp]] и ориентированный на удобство управления и запуска моделей. Содержит большой репозиторий готовых моделей различных уровней квантизации GUFF. Оптимален для начинающего пользователя [[LLM]]. | ||
== См. также == | |||
* [[Open WebUI]] | |||
== Ссылки == | == Ссылки == | ||
Текущая версия от 04:53, 23 января 2026
Это заготовка статьи. |
Ollama — открытый инференс-движок, использующий под капотом библиотеку llama.cpp и ориентированный на удобство управления и запуска моделей. Содержит большой репозиторий готовых моделей различных уровней квантизации GUFF. Оптимален для начинающего пользователя LLM.
См. также
Ссылки
- ollama.com — официальный сайт Ollama
- Проект Ollama на сайте GitHub