Skip to content

Latest commit

 

History

History
97 lines (70 loc) · 4.58 KB

File metadata and controls

97 lines (70 loc) · 4.58 KB

✨ LLM-K - マルチLLMクライアント ✨

Ollama、LM Studio、Claude、OpenAIをサポートするマルチプラットフォームMacクライアント

ENGLISH한국어中文

LLM-K

LLM-KはOllama、LM Studio、Claude、OpenAIなど、様々なLLMサービスに接続できるMacクライアントアプリです。ソースコードをダウンロードしてビルドするか、Apple App StoreからLLM-Kアプリをダウンロードできます。

概要

LLM-Kは多様なLLMプラットフォームをサポートする多目的クライアントです:

  • Ollama:ローカルでLLMを実行できるオープンソースソフトウェア
  • LM Studio:様々なモデルをサポートするローカルLLMプラットフォーム
  • Claude:Anthropicの高度なAIモデル
  • OpenAI:GPTモデルを含む先進的なAIプラットフォーム

poster

主な機能

  • マルチLLMプラットフォームサポート
  • 選択的サービス表示:モデル選択メニューに表示するLLMサービスを選択可能
  • リモートLLMアクセス:IPアドレスを通じてOllama/LM Studioホストに接続
  • カスタムプロンプト:カスタム指示設定をサポート
  • 様々なオープンソースLLMをサポート(Deepseek、Llama、Gemma、Qwen、Mistralなど)
  • カスタマイズ可能な指示設定
  • 高度なモデルパラメータ:直感的なスライダーでTemperature、Top P、Top Kを制御
  • 接続テスト:内蔵のサーバー接続状態チェッカー
  • マルチフォーマットファイルサポート:画像、PDF文書、テキストファイル
  • 画像認識サポート(対応モデルのみ)
  • 直感的なチャット形式UI
  • 会話履歴:チャットセッションの保存と管理
  • 日本語、英語、韓国語、中国語をサポート
  • Markdown形式をサポート

poster

使用方法

  1. 好みのLLMプラットフォームを選択:
  2. ソースをダウンロードしてXcodeでビルドするか、App StoreからLLM-Kアプリをダウンロード
  3. 選択したプラットフォームを設定:
    • Ollama/LM Studio:希望のモデルをインストール
    • Claude/OpenAI:設定にAPIキーを入力
  4. ローカルLLM(Ollama/LM Studio)の場合、必要に応じてリモートアクセスを設定
  5. LLM-Kを起動し、希望のサービスとモデルを選択
  6. 会話を開始!

システム要件

  • ローカルLLM:OllamaまたはLM Studioがインストールされたコンピュータ
  • クラウドLLM:ClaudeまたはOpenAIの有効なAPIキー
  • ネットワーク接続

利点

  • ローカルおよびクラウドベースLLM向けのマルチプラットフォームサポート
  • 合理化されたインターフェース用の柔軟なサービス選択
  • 様々なプラットフォームを通じた高度なAI機能の利用が可能
  • プライバシー保護オプション(ローカルLLM)
  • プログラミング、創作作業、カジュアルな質問など、多目的に活用可能
  • 体系的な会話管理

注意事項

  • ローカルLLM機能にはOllamaまたはLM Studioのインストールが必要
  • ClaudeおよびOpenAIサービスにはAPIキーが必要
  • ローカルLLMホストとAPIキーの安全な管理はユーザーの責任

アプリのダウンロード

ライセンス

LLM-KはGNUライセンスに基づいています。詳細についてはLICENSEファイルを参照してください。

お問い合わせ

LLM-Kに関するお問い合わせやバグレポートは、rtlink.park@gmail.comまでメールでご連絡ください。