Описание в README и скрипт для входа в контейнер
This commit is contained in:
14
README.md
14
README.md
@@ -1,9 +1,23 @@
|
||||
# Local ollama
|
||||
|
||||
Набор скриптов для быстрого запуска локальных LLM.
|
||||
|
||||
Модели подбираются вручную, примерно в пределазх 40 млрд параметров (обычно, максимум 32b или 34b).
|
||||
Такие модели наиболее реально запускать на среднем ПК.
|
||||
|
||||
Меньше параметров → меньше памяти на диске и в ОЗУ → выше скорость → ниже нагрузка → ниже качество.
|
||||
|
||||
Больше параметров → больше памяти на диске и в ОЗУ → ниже скорость → выше нагрузка → выше качество.
|
||||
|
||||
Примерно, модели на 20+ млрд требуют ~20+ Гб ОЗУ.
|
||||
|
||||
## Как использовать
|
||||
|
||||
1. Запустить `./run.sh`
|
||||
2. Запустить скрипт из любой и поддиректорий для скачивания и запуска модели в терминале
|
||||
|
||||
Для настройки vscode поставить один из плагинов:
|
||||
* [Cline](https://marketplace.visualstudio.com/items?itemName=saoudrizwan.claude-dev)
|
||||
* [Continue](https://marketplace.visualstudio.com/items?itemName=Continue.continue)
|
||||
* [Local AI Pilot](https://marketplace.visualstudio.com/items?itemName=nr-codetools.localaipilot)
|
||||
|
||||
|
||||
Reference in New Issue
Block a user