# Local ollama 1. Запустить `./run.sh` 2. Запустить скрипт из любой и поддиректорий для скачивания и запуска модели в терминале Для настройки vscode поставить один из плагинов: * [Continue](https://marketplace.visualstudio.com/items?itemName=Continue.continue) * [Local AI Pilot](https://marketplace.visualstudio.com/items?itemName=nr-codetools.localaipilot) Плагин должен соединиться с `localhost:11434` и подгрузить доступные модели из контейнера. Есть веб-морда по адресу [localhost:9999](http://localhost:9999). ## Дополнительные материалы * https://habr.com/ru/companies/minerva_media/articles/909130/ * https://github.com/nagaraj-real/localaipilot-api/blob/main/README.md#chat-models