Пока не подняли LLM на какой-то виртуалке и обращения к БД пока тоже не сделаны
предлагаю поднимать LLM локально. Для этого я сделал docker-compose.yml. Поднимать его
очевидно нужно с помощью docker compose.
По сути гайд такой:
- Ставим
Docker(надеюсь все с этим справятся) - Создаем файл
config.pyв папкеLLM/app/utils/Mistralи не добавляем его вgit - Добавляем туда
api_key = "значение api ключа" - С помощью
docker composeподнимаемLLMкомандой в духе:
docker compose -f docker-compose.yml up --build -d- Отправляем промпты на
APIмодельки, можно делать это с помощью доки, либо с помощью самописного скрипта наPython, который лежит вLLM/tester/tester1.py - Пары вопрос ответ можно сохранять в файлике
data/data.json
P.S. Убиваем контейнер так: =)
docker compose -f docker-compose.yml down