Skip to content

nextsko/tauri-tapps

Repository files navigation

Tauri + Vue + TypeScript

This template should help get you started developing with Vue 3 and TypeScript in Vite. The template uses Vue 3 <script setup> SFCs, check out the script setup docs to learn more.

Recommended IDE Setup

start

bun run tauri dev

Dir override

/// 获取应用配置目录
/// 如果设置了自定义目录,使用自定义目录
/// 否则使用默认的应用配置目录
/// Windows: C:\Users\[username]\AppData\Roaming\chat-app
/// macOS: /Users/[username]/Library/Application Support/chat-app
/// Linux: /home/[username]/.config/chat-app
// set_storage_dir(dirPath) - 设置自定义存储目录(必须是绝对路径)
// get_storage_dir() - 获取当前存储目录
// reset_storage_dir() - 重置为默认目录
import { setStorageDir, getStorageDir, resetStorageDir } from '@/utils/storage';

// 设置自定义目录
await setStorageDir('D:\\MyData');

// 获取当前目录
const dir = await getStorageDir();

// 重置为默认
await resetStorageDir();

模型集成

  • 后端模块结构

llm.rs - LLM 核心逻辑,支持多模型轮询 lib.rs - 暴露 Tauri 命令接口 暴露的接口

前端使用示例

set_llm_config(baseUrl, apiKey, models) - 配置 LLM
prompt_llm(prompt) - 提示 LLM

import { setLLMConfig, promptLLM } from '@/utils/llm';

// 配置 LLM
await setLLMConfig({
  baseUrl: 'https://api.longcat.chat/openai/v1',
  apiKey: 'your-api-key',
  models: ['LongCat-Flash-Chat', 'LongCat-Flash-Thinking'],
});

// 提示 LLM
const response = await promptLLM('你好,你是谁?');
console.log(response);

特性:

支持自定义 API 密钥和基础 URL 支持多模型轮询(如果一个模型失败,自动尝试下一个) 模块化设计,易于扩展 全局配置状态管理

About

tauri tools app

Resources

Stars

Watchers

Forks

Packages

 
 
 

Contributors