1
0
2025-05-25 15:13:45 +08:00
2025-08-16 21:27:42 +08:00
2025-08-16 21:27:55 +08:00
2025-08-16 21:28:04 +08:00
2025-08-16 21:28:19 +08:00
2025-08-16 21:28:41 +08:00
2025-08-16 21:28:49 +08:00
2025-08-16 21:28:58 +08:00
2025-08-16 21:29:08 +08:00
2025-08-16 21:29:14 +08:00
2025-08-16 21:29:26 +08:00
2025-08-16 21:29:41 +08:00
2025-08-16 21:30:51 +08:00
2025-08-18 00:43:23 +08:00
2025-08-16 21:31:02 +08:00
phi
2025-08-16 21:31:08 +08:00
2025-08-16 21:31:18 +08:00
2025-08-16 21:31:27 +08:00
2025-08-16 21:31:47 +08:00
2025-08-16 21:32:12 +08:00
2025-05-25 15:07:13 +08:00
2025-05-25 15:07:13 +08:00
2025-08-16 21:32:27 +08:00
2025-05-25 15:07:13 +08:00
2025-08-16 21:32:38 +08:00
qwq
2025-08-16 21:32:44 +08:00
2025-08-16 21:32:54 +08:00
2025-08-18 00:43:45 +08:00
2025-08-16 21:27:20 +08:00
2025-05-25 15:13:45 +08:00
2025-05-24 10:51:09 +08:00
2025-08-18 00:42:47 +08:00
2025-08-19 09:51:12 +08:00

Local ollama

Набор скриптов для быстрого запуска локальных LLM.

Модели подбираются вручную, примерно в пределазх 40 млрд параметров (обычно, максимум 32b или 34b). Такие модели наиболее реально запускать на среднем ПК.

Меньше параметров → меньше памяти на диске и в ОЗУ → выше скорость (tps) → ниже качество.

Больше параметров → больше памяти на диске и в ОЗУ → ниже скорость (tps) → выше качество.

Модели до 7 млрд достаточно хорошо отвечают (до 5-10 tps) на i5-9400 CPU 2.90GHz + 32 Гб ОЗУ без видеокарты, при условии, что в один момент времени одна модель обрабатывает один запрос. Например, phi4-mini:3.8b или qwen2.5:7b.

Стек

Как использовать

  1. Запустить ./run.sh
  2. Запустить скрипт из любой и поддиректорий для скачивания и запуска модели в терминале
  3. Открыть веб-морду по адресу localhost:9999

Для настройки vscode поставить один из плагинов:

Для настройки idea поставить плагин:

Плагины должны соединиться с localhost:11434 и подгрузить доступные модели из контейнера.

Использование RAG системы

RAG (Retrieval-Augmented Generation) система позволяет задавать вопросы по содержимому документации.

Для работы RAG системы необходимо:

  1. Установить необходимые системные зависимости (требуется только один раз):

    sudo apt install -y python3-pip python3.13-venv
    
  2. Создать виртуальное окружение и установить Python-зависимости:

    python3 -m venv venv
    source venv/bin/activate
    pip install requests numpy scikit-learn
    
  3. Запустить сервер Ollama (если еще не запущен):

    ./run.sh
    
  4. Запустить RAG систему:

    ./run_rag.sh
    

После запуска система задаст пример вопроса и выведет ответ.

Дополнительные материалы

Description
Скрипты для запуска ИИ-моделей + RAG на локальной машине, для простых экспериментов и знакомства с темой
Readme 214 KiB
Languages
Python 93.8%
Shell 6.2%