Skip to content

watanabe3tipapa/joke-windows3-pe

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

2 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

License: MIT Version

JOKE APP "ollama - windows 3.x"

Windows 3.1 風のレトロなUIを持つ Ollama AIアシスタントです。

概要

Ollama を Windows 3.1 風のレトロなインターフェースで使えるジョークアプリ(ただし機能は本格的)。

  • フロントエンド: HTML/CSS/JS(Windows 3.1 風デザイン)
  • バックエンド: FastAPI + Python(Ollama プロキシ)
  • AI: Ollama(デフォルト: llama3.1)

前提

  • Python 3.10+
  • uv がインストール済み
  • Ollama がインストール・起動済み

クイックスタート(uv を使用)

  1. リポジトリをクローン:

    cd <あなたの任意のパス>/joke-windows3-pe
  2. uv で仮想環境を作成し、パッケージをインストール:

    uv venv
    uv pip install fastapi uvicorn ollama python-multipart
  3. Ollama を起動:

    ollama serve
  4. バックエンドを起動:

    uv run python api_server.py

  (不調時は)

pkill -f api_server.py
uv run python api_server.py
  1. ブラウザでアクセス:
    http://localhost:8008
    

構成(主なもの)

joke-windows3-pe/
├── README.md           # このファイル
├── index.html          # メイン画面
├── style.css          # Windows 3.1 風スタイル
├── app.js             # フロントエンドロジック
└── api_server.py      # FastAPI バックエンド

環境変数

変数 説明 デフォルト
OLLAMA_MODEL 使用するモデル名 llama3.1
PORT サーバーポート 8000

接続エラー

Ollama が起動していることを確認:

ollama list

モデルがない場合

モデルをダウンロード(例:llama3.1):

ollama pull llama3.1

使い方ガイド

GitHub pages

ライセンス

MIT

About

Ollama Joke Environment (Use API server)

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors