Доработка rag, удаление скриптов моделей, актуализация README
This commit is contained in:
@@ -2,8 +2,7 @@
|
||||
|
||||
Набор скриптов для быстрого запуска локальных LLM.
|
||||
|
||||
Модели подбираются вручную, примерно в пределазх 40 млрд параметров (обычно, максимум 32b или 34b).
|
||||
Такие модели наиболее реально запускать на домашних ПК разных мощностей.
|
||||
Модели примерно до 40 млрд параметров (обычно 32b) наиболее реально запускать на домашних ПК разных мощностей.
|
||||
|
||||
Меньше параметров → меньше памяти на диске и в ОЗУ → выше скорость (tps) → ниже качество.
|
||||
|
||||
@@ -16,10 +15,9 @@
|
||||
|
||||
```
|
||||
./
|
||||
├── models/ # Директория со скриптами установки моделей ollama
|
||||
├── rag/ # Директория для работы с RAG
|
||||
├── up # Скрипт для запуска ollama + open-webui
|
||||
├── down # Скрипт для остановки ollama + open-webui
|
||||
├── up # Скрипт для запуска docker-стека
|
||||
├── down # Скрипт для остановки docker-стека
|
||||
├── ollama # Скрипт для выполнения произвольных команд ollama
|
||||
├── ollama.code-workspace # Конфигурация VSCode Workspace
|
||||
└── README.md # Этот файл
|
||||
|
||||
Reference in New Issue
Block a user