Skip to content

pelmenkus/rofl-lab1

 
 

Repository files navigation

rofl-lab1

Гайд на временную отправку запросов к LLM

Пока не подняли LLM на какой-то виртуалке и обращения к БД пока тоже не сделаны предлагаю поднимать LLM локально. Для этого я сделал docker-compose.yml. Поднимать его очевидно нужно с помощью docker compose.

По сути гайд такой:

  1. Ставим Docker (надеюсь все с этим справятся)
  2. Создаем файл config.py в папке LLM/app/utils/Mistral и не добавляем его в git
  3. Добавляем туда api_key = "значение api ключа"
  4. С помощью docker compose поднимаем LLM командой в духе:
docker compose -f docker-compose.yml up --build -d
  1. Отправляем промпты на API модельки, можно делать это с помощью доки, либо с помощью самописного скрипта на Python, который лежит в LLM/tester/tester1.py
  2. Пары вопрос ответ можно сохранять в файлике data/data.json

P.S. Убиваем контейнер так: =)

docker compose -f docker-compose.yml down

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Go 54.7%
  • Python 44.5%
  • Other 0.8%