1
0
2025-08-27 00:20:10 +08:00
2025-05-25 15:13:45 +08:00
WIP
2025-08-27 00:20:10 +08:00
WIP
2025-08-27 00:20:10 +08:00
WIP
2025-08-27 00:20:10 +08:00
2025-08-23 11:12:22 +08:00
2025-08-19 23:37:00 +08:00
2025-08-25 12:32:09 +08:00

Local ollama

Набор скриптов для быстрого запуска локальных LLM.

Модели подбираются вручную, примерно в пределазх 40 млрд параметров (обычно, максимум 32b или 34b). Такие модели наиболее реально запускать на домашних ПК разных мощностей.

Меньше параметров → меньше памяти на диске и в ОЗУ → выше скорость (tps) → ниже качество.

Больше параметров → больше памяти на диске и в ОЗУ → ниже скорость (tps) → выше качество.

Модели до 7 млрд достаточно хорошо отвечают (до 5-10 tps) на i5-9400 CPU 2.90GHz + 32 Гб ОЗУ без видеокарты, при условии, что в один момент времени одна модель обрабатывает один запрос. Например, phi4-mini:3.8b, qwen2.5:7b или небольшая llama.

Структура проекта

./
├── models/                 # Директория со скриптами установки моделей ollama
├── rag/                    # Директория для работы с RAG
├── up                      # Скрипт для запуска ollama + open-webui
├── down                    # Скрипт для остановки ollama + open-webui
├── ollama                  # Скрипт для выполнения произвольных команд ollama
├── ollama.code-workspace   # Конфигурация VSCode Workspace
└── README.md               # Этот файл

Стек

Как использовать

  1. Запустить ./up
  2. Запустить скрипт из любой и поддиректорий для скачивания и запуска модели в терминале
  3. Открыть веб-морду по адресу localhost:9999

Для настройки vscode поставить один из плагинов:

Для настройки idea поставить плагин:

Плагины должны соединиться с localhost:11434 и подгрузить доступные модели из контейнера.

Использование RAG системы

Для работы RAG системы необходимо обратиться к документу rag/README.md.

Дополнительные материалы

Description
Скрипты для запуска ИИ-моделей + RAG на локальной машине, для простых экспериментов и знакомства с темой
Readme 214 KiB
Languages
Python 93.8%
Shell 6.2%