⚠️ 本项目仍处于早期阶段,目前正在积极开发中。
⚠️ 如果你想远程运行服务端并在其他设备上访问 (比如在电脑上运行服务端,在手机上访问),由于前端的麦克风功能仅能在安全环境下使用(即 https 或 localhost),请参阅 MDN 文档,你需要配置反向代理和 https 才能在非本机 (non-localhost) 上正常访问。
Open-LLM-VTuber 是一款独特的语音交互 AI 伴侣,它不仅支持实时语音对话和视觉感知,还配备了生动的 Live2D 形象。所有功能都可以在你的电脑上完全离线运行!
你可以把它当作你的专属 AI 伴侣 —— 无论你想要一个虚拟女友、男友、萌宠还是其他角色,它都能满足你的期待。项目完美支持 Windows、macOS 和 Linux 系统,并提供两种使用方式:网页版和桌面客户端(特别支持透明背景的桌宠模式,让 AI 伴侣在屏幕上的任意位置时刻陪伴着你)。
虽然长期记忆功能暂时下线(即将回归),但得益于聊天记录的持久化存储,你随时都能继续之前未完的对话,不会丢失任何珍贵的互动瞬间。
在后端支持方面,我们集成了丰富多样的 LLM 对话引擎、文本转语音模型和语音识别方案。如果你想让 AI 伴侣更有个性,还可以参考 角色定制指南 来自定义专属的 AI 伴侣形象和人设。
关于为什么叫 Open-LLM-Vtuber 而不是 Open-LLM-Companion 或者 Open-LLM-Waifu,是因为项目的开发初衷是采用可在 Windows 以外平台离线运行的开源方案,复现闭源的 AI Vtuber neuro-sama。
本项目在 v1.0.0 版本后进行了代码重构,目前正处于积极开发阶段,未来还有许多令人兴奋的功能即将推出!🚀 查看我们的 Roadmap,了解更新计划。
![]() |
![]() |
|---|---|
![]() |
![]() |
-
🖥️ 跨平台支持:完美支持 macOS、Linux 和 Windows。我们支持英伟达和非英伟达 GPU,可以选择在 CPU 上运行或使用云 API 处理资源密集型任务。部分组件在 macOS 上支持 GPU 加速。
-
🔒 支持离线模式:使用本地模型完全离线运行 - 无需联网。你的对话只会待在你的设备上,确保隐私安全。
-
💻 好看且功能强大的网页和桌面客户端:提供网页版和桌面客户端两种使用方式,支持丰富的交互功能和个性化设置,桌面客户端还可以在窗口模式和桌宠模式之间自由切换,让 AI 伴侣随时陪伴在身边
-
🎯 高级交互功能:
- 👁️ 视觉感知,支持摄像头、屏幕录制和截图,让 AI 伙伴能看到你和你的屏幕
- 🎤 语音打断,无需耳机(AI 不会听到自己的声音)
- 🫱 触摸反馈,可以通过点击或拖拽与 AI 伙伴互动
- 😊 Live2D 表情,设置情绪映射让后端控制模型表情
- 🐱 宠物模式,支持透明背景全局置顶和鼠标穿透 - 可以将你的 AI 伙伴拖到屏幕上的任意位置
- 🗣️ AI 主动说话功能
- 💭 AI 内心 OS,AI 的表情、想法和动作可以被看到,但不会被读出来
- 💾 聊天记录持久化,可以随时切换到以前的对话
- 🌍 TTS 翻译支持(例如,用中文聊天的同时,AI 使用日语声音)
-
🧠 广泛的模型支持:
- 🤖 大语言模型 (LLM):Ollama、OpenAI(以及任何与 OpenAI 兼容的 API)、Gemini、Claude、Mistral、DeepSeek、智谱、GGUF、LM Studio、vLLM 等
- 🎙️ 语音识别 (ASR):sherpa-onnx、FunASR、Faster-Whisper、Whisper.cpp、Whisper、Groq Whisper、Azure ASR等
- 🔊 语音合成 (TTS):sherpa-onnx、pyttsx3、MeloTTS、Coqui-TTS、GPTSoVITS、Bark、CosyVoice、Edge TTS、Fish Audio、Azure TTS等
-
🔧 高度可定制:
- ⚙️ 简单的模块配置:通过简单的配置文件修改,即可切换各种功能模块,无需深入代码
- 🎨 角色随心定制:导入自定义 Live2D 模型,让你的 AI 伴侣拥有独特外观。通过修改 Prompt,塑造你 AI 伴侣的人设。进行音色克隆,让你的 AI 伴侣有着你想要的声线
- 🧩 Agent自由实现:继承并实现 Agent 接口,接入任何架构的 Agent,如 HumeAI EVI、OpenAI Her、Mem0 等
- 🔌 良好的可扩展性:模块化设计让你能轻松添加自己的 LLM、ASR、TTS 等模块实现,随时扩展新特性
感谢开发者把女朋友开源分享出来让大家一起使用
该女友使用次数已达 10w+
请阅读 快速上手 文档以安装项目。
⚠️ v1.0.0版本有重大变更,需要重新部署。你仍然可以通过以下方法更新,但conf.yaml文件不兼容,并且大多数依赖项需要使用uv重新安装。如果你是准备从v1.0.0之前的版本升级到v1.0.0或之后的版本,建议按照最新的部署指南重新部署本项目。
如果你使用的是 v1.0.0 之后的版本,请运行更新脚本 uv run upgrade.py 进行更新。
大多数文件,包括Python依赖和模型,都存储在项目文件夹中,所以删除项目文件夹就十分足够了。
然而,通过ModelScope或Hugging Face下载的模型可能也存在于MODELSCOPE_CACHE或HF_HOME中。虽然我们尽量将它们保存在项目的models目录中,但再次检查也无妨。
查看安装指南中,你所安装但可能不再需要的任何额外工具,例如uv、ffmpeg或deeplx。
可以看看 开发指南.
ylxmf2005/LLM-Live2D-Desktop-Assitant
- 你的 Live2D 桌面助手,由大语言模型 (LLM) 驱动!支持 Windows 和 macOS,它可以感知你的屏幕,检索剪贴板内容,并用独特的声音响应语音命令。具有语音唤醒、歌唱功能和完整的电脑控制,与你最喜欢的角色无缝交互。
本项目包含由 Live2D Inc. 提供的 Live2D 样本模型。这些资产根据 Live2D 免费素材许可协议和 Live2D Cubism 样本数据使用条款单独授权,不受本项目 MIT 许可证的约束。
本内容使用由 Live2D Inc. 拥有并享有版权的样本数据。样本数据的使用符合 Live2D Inc. 制定的条款和条件。(参见 Live2D 免费素材许可协议 和 使用条款)。
注意:对于商业用途,特别是对于中型或大型企业,使用这些 Live2D 样本模型可能需要额外的许可要求。如果您计划将本项目用于商业目的,请确保您已获得 Live2D Inc. 的适当许可,或使用不包含这些模型的项目版本。




