1
0
2025-05-25 15:13:45 +08:00
2025-08-16 21:27:42 +08:00
2025-08-16 21:27:55 +08:00
2025-08-16 21:28:04 +08:00
2025-08-16 21:28:19 +08:00
2025-08-16 21:28:33 +08:00
2025-08-16 21:28:41 +08:00
2025-08-16 21:28:49 +08:00
2025-08-16 21:28:58 +08:00
2025-08-16 21:29:08 +08:00
2025-08-16 21:29:14 +08:00
2025-08-16 21:29:26 +08:00
2025-08-16 21:29:41 +08:00
2025-08-16 21:30:51 +08:00
2025-08-16 21:31:02 +08:00
phi
2025-08-16 21:31:08 +08:00
2025-08-16 21:31:18 +08:00
2025-08-16 21:31:27 +08:00
2025-08-16 21:31:38 +08:00
2025-08-16 21:31:47 +08:00
2025-08-16 21:32:12 +08:00
2025-05-25 15:07:13 +08:00
2025-05-25 15:07:13 +08:00
2025-08-16 21:32:27 +08:00
2025-05-25 15:07:13 +08:00
2025-08-16 21:32:38 +08:00
qwq
2025-08-16 21:32:44 +08:00
2025-08-16 21:32:54 +08:00
2025-08-16 21:27:20 +08:00
2025-05-25 15:13:45 +08:00
2025-05-24 10:51:09 +08:00
2025-05-24 10:51:09 +08:00
2025-05-25 15:13:45 +08:00

Local ollama

Набор скриптов для быстрого запуска локальных LLM.

Модели подбираются вручную, примерно в пределазх 40 млрд параметров (обычно, максимум 32b или 34b). Такие модели наиболее реально запускать на среднем ПК.

Меньше параметров → меньше памяти на диске и в ОЗУ → выше скорость → ниже нагрузка → ниже качество.

Больше параметров → больше памяти на диске и в ОЗУ → ниже скорость → выше нагрузка → выше качество.

Примерно, модели на 20+ млрд требуют ~20+ Гб ОЗУ.

Как использовать

  1. Запустить ./run.sh
  2. Запустить скрипт из любой и поддиректорий для скачивания и запуска модели в терминале

Для настройки vscode поставить один из плагинов:

Плагин должен соединиться с localhost:11434 и подгрузить доступные модели из контейнера.

Есть веб-морда по адресу localhost:9999.

Дополнительные материалы

Description
Скрипты для запуска ИИ-моделей + RAG на локальной машине, для простых экспериментов и знакомства с темой
Readme 214 KiB
Languages
Python 93.8%
Shell 6.2%