Skip to content

MedAI-Lab-ITMO/key_words_coscience

 
 

Repository files navigation

Как запустить

  1. Установить зависимости:

    pip install -r requirements.txt
  2. Создайте файл .env в корне проекта:

    GOOGLE_API_KEY="твой_ключ_от_Gemini"
  3. Убедитесь, что установлен Ollama и скачана нужная модель:

    ollama pull llama3.1:8b
  4. Запустите анализ:

    python main.py

    или же в main.ipynb запускать код по отдельности Результаты сохраняются в data/hypotheses_processed.csv.

Общий вид функции для подключения к модели

def custom_query_model(prompt: str, model_name: str = "your_model_name") -> str:
    """
    Универсальный шаблон функции для запроса к любой языковой модели (LLM).

    Args:
        prompt (str): Текст запроса (инструкция, гипотеза и т.д.)
        model_name (str): Название используемой модели или эндпоинта API.

    Returns:
        str: Сгенерированный текстовый ответ модели.
    """

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Jupyter Notebook 86.4%
  • Python 13.6%