Ollama: различия между версиями

Материал из DZWIKI
Перейти к навигации Перейти к поиску
 
(не показано 6 промежуточных версий этого же участника)
Строка 1: Строка 1:
{{Заготовка}}
{{Заготовка}}
Ollama — открытый [[инференс-движок]], использующий под капотом библиотеку [[llama.cpp]] и ориентированный на удобство управления и запуска моделей. Содержит большой репозиторий готовых моделей различных уровней квантизации GUFF. Оптимален для начинающего пользователя [[LLM]].
Ollama — открытый [[инференс-движок]], использующий под капотом библиотеку [[llama.cpp]] и ориентированный на удобство управления и запуска моделей. Содержит большой репозиторий готовых моделей различных уровней квантизации GUFF. Оптимален для начинающего пользователя [[LLM]].
== См. также ==
* [[Open WebUI]]
* [[Список больших языковых моделей]]
* [[Список Инференс‑движков]]


== Ссылки ==
== Ссылки ==
* {{official|https://ollama.com/}}
* {{official|https://ollama.com/}}
* {{github|ollama|ollama}}
* {{github|ollama|ollama}}
* {{github|ollama|ollama-python|Ollama Python Library}}


[[Категория:Программное обеспечение по алфавиту]]
[[Категория:Программное обеспечение с лицензией MIT]]
[[Категория:Инференс‑движки]]
[[Категория:Инференс‑движки]]

Текущая версия от 19:57, 13 марта 2026

Ollama — открытый инференс-движок, использующий под капотом библиотеку llama.cpp и ориентированный на удобство управления и запуска моделей. Содержит большой репозиторий готовых моделей различных уровней квантизации GUFF. Оптимален для начинающего пользователя LLM.

См. также

Ссылки