# chat_friends **Repository Path**: go__dev/chat_friends ## Basic Information - **Project Name**: chat_friends - **Description**: No description available - **Primary Language**: Unknown - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2026-03-25 - **Last Updated**: 2026-03-25 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # chatFriends 基于 `Python + Flask + LangChain + Ollama` 的极简轻量级对话机器人服务。 ## 1. 功能 - `GET /health`:健康检查,返回当前模型与 Ollama 地址 - `POST /chat`:对话接口,支持可选历史消息 - 默认调用本地 Ollama 托管的 `deepseek-r1:7b` ## 2. 安装依赖 ```bash pip install -r requirements.txt ``` ## 3. 配置环境变量 复制 `.env.example` 为 `.env` 并按需修改: ```env OLLAMA_BASE_URL=http://127.0.0.1:11434 OLLAMA_MODEL=deepseek-r1:7b FLASK_HOST=127.0.0.1 FLASK_PORT=5000 FLASK_DEBUG=false ``` ## 4. 准备 Ollama 模型 ```bash ollama pull deepseek-r1:7b ``` ## 5. 启动服务 ```bash python app.py ``` ## 6. 接口示例 ### 健康检查 ```bash curl http://127.0.0.1:5000/health ``` ### 对话请求 ```bash curl -X POST http://127.0.0.1:5000/chat \ -H "Content-Type: application/json" \ -d '{ "message": "你好,请介绍一下你自己", "history": [ {"role": "user", "content": "你是谁?"}, {"role": "assistant", "content": "我是一个助手。"} ] }' ``` ### 响应 ```json { "reply": "你好!我是你的本地对话助手..." } ``` ## 7. 项目结构 ```text chatFriends/ ├─ app.py ├─ config.py ├─ llm_service.py ├─ requirements.txt ├─ .env.example └─ .cursor/ └─ skills/ └─ ollama-flask-chat/ ├─ SKILL.md └─ reference.md ```