5分钟上手 WrenAI

通过本指南,您将在5分钟内使用Docker快速部署WrenAI,并体验用自然语言查询示例数据库的完整流程。

环境要求

支持的操作系统

macOS Windows Linux

运行环境

Docker >= 20.10 必需
Docker Compose >= 2.0 必需

所需工具

Git

克隆项目代码

必需

操作步骤

1

克隆项目并进入目录

获取WrenAI的最新代码

克隆仓库
git clone https://github.com/Canner/WrenAI.git
进入项目目录
cd WrenAI

预期结果:成功下载项目文件,进入WrenAI目录

如果网络较慢,可以使用GitHub加速镜像

2

配置环境变量

设置必要的API密钥和配置

复制环境变量模板
cp .env.example .env

预期结果:创建.env配置文件

编辑.env文件,至少需要设置OPENAI_API_KEY。如果没有OpenAI API密钥,可以使用其他支持的LLM如Ollama

3

启动WrenAI服务

使用Docker Compose一键启动所有服务

后台启动所有容器
docker-compose up -d

预期结果:所有容器成功启动,显示容器状态为Up

首次启动需要下载镜像,可能需要几分钟时间。可以使用'docker-compose logs -f'查看启动日志

4

访问Web界面

打开浏览器访问WrenAI的Web界面

预期结果:在浏览器中打开 http://localhost:3000 看到WrenAI的登录界面

默认账号:admin@example.com,密码:wrenai

5

连接示例数据库

使用内置的示例数据源快速体验

预期结果:在Web界面中选择示例数据源(如ecommerce),成功连接并看到数据库结构

WrenAI内置了示例数据集,无需额外配置即可体验

6

体验自然语言查询

用中文或英文提问,查看AI生成的SQL和图表

预期结果:输入"显示上个月的销售额趋势",看到自动生成的SQL查询和可视化图表

可以尝试不同的问题,如"哪个产品类别销量最高?"或"按地区统计客户数量"

验证成功

确认WrenAI已正常运行并能处理自然语言查询

浏览器能正常访问 http://localhost:3000
成功登录到管理界面
能连接示例数据库并看到表结构
输入自然语言问题后能返回SQL查询和图表

快速提示

配置

如果没有OpenAI API密钥,可以在.env中配置OLLAMA_API_BASE_URL=http://host.docker.internal:11434/v1,然后使用本地运行的Ollama模型

性能

首次查询可能较慢,因为需要初始化语义层。后续查询会快很多

使用技巧

使用更具体的问题会得到更准确的SQL,如包含时间范围、筛选条件等

常见问题

1

端口3000被占用

修改docker-compose.yml中的端口映射,如将"3000:3000"改为"3001:3000",然后访问http://localhost:3001

2

Docker容器启动失败

运行'docker-compose logs'查看具体错误,常见原因是内存不足或端口冲突

3

无法连接示例数据库

检查容器状态'docker-compose ps',确保所有服务都正常运行。可以尝试'docker-compose down && docker-compose up -d'重启服务

4

查询返回错误或无结果

检查.env中的API密钥配置是否正确,或尝试使用更简单的问题如"显示所有产品"

下一步

连接自己的数据库

在Web界面中添加真实的数据源,如PostgreSQL或MySQL

配置语义层

定义业务指标和关联关系,提升查询准确性

探索API集成

查看API文档,将WrenAI集成到自己的应用中

加入社区

访问Discord社区获取帮助和最新动态

助手