- Реєструємось на https://huggingface.co/ та отримуємо API.
- Встановлюємо залежності з pyproject.toml.
- Створюємо файл .env та закидуємо туди API
OPENAI_API_KEY=
HUGGINGFACEHUB_API_TOKEN=
- Запускаємо код командою "streamlit run LLM_Chat_v2.py" в терміналі. В браузері повинна відкритись сторінка з чатом.
- Спочатку завантажуємо PDF файл(и).
- Натискаємо "Process" і чекаємо поки фийл обробиться.
- Задаємо питання в чаті.
ОСОБЛИВОСТІ
- Перший запуск буде довгим. Буде качатись модель (приблизно 5 Гб). Далі буде швидше.
- Модель розуміє мови: English, German, French.
- Якщо задавати питання без завантаженого файлу, буде помилка.
- На моделі llm = HuggingFaceHub(repo_id="google/flan-t5-xxl", model_kwargs={"temperature": 0.5, "max_length": 1024}) довго обробляється файл (2 сторінки тексту приблизно 4 хв.).
- В коді закоментовані рядки для перемикання моделі HuggingFaceHub та OpenAI.