这是一个简单的本地AI问答应应用demo。
使用的技术栈包括:
Ollama:本地大模型CLIReact+TailwindCSS:前端页面Node+Koa:简单的后端服务socketIO:用于实时问答
首先,需要安装ollama,在docker中安装如下:
# docker 安装 ollama
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama如果已经安装,下次可以直接启动 ollama 容器:
docker start ollama然后启动大模型:
# run llama 3.2 model
docker exec -it ollama ollama run llama3.2然后就可以启动我们的应用了:
- 启动后端服务器:
cd server && pnpm start- 启动前端开发服务器:
cd client && pnpm start- 打开浏览器,访问
http://localhost:3000访问 Web 应用。
- 在根目录下运行
docker-compose命令直接启动 Ollama服务 和 Web 应用:
docker-compose -f docker-compose.dev.yml up --build- 然后在Ollama容器中运行大模型:
docker exec -it ollama ollama run llama3.2简单测试一下 Ollama 服务是否可用,打开新的终端发送请求:
curl -X POST http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "llama3.2",
"prompt": "hello!",
"stream": false
}'如果收到response回答,则说明 Ollama 中运行的大模型已经就绪。
- 访问
http://localhost:3001访问 Web 应用。
