mostlygeek

mostlygeek/llama-swap

Go 活跃
141
2026-04-05
3.1k
+17
#7
228

项目介绍

llama.cpp(或任何兼容本地OpenAI API的服务器)的模型热替换

Reliable model swapping for any local OpenAI/Anthropic compatible server - llama.cpp, vllm, etc

智能解读

智能解读 自动生成

llama-swap 是一个用 Go 语言编写的高性能工具,旨在管理运行在本地的生成式 AI 模型。它充当一个智能代理服务器,能够无缝连接并热切换多个兼容 OpenAI API 的本地推理服务,例如 llama.cpp、vLLM 或 TabbyAPI。用户只需一个可执行文件和配置文件即可快速部署,无需复杂依赖。 其核心价值在于实现了“模型即服务”的灵活管理。用户可以预先配置好多个不同用途的模型,在实际调用时,只需在请求中指定目标模型名称,llama-swap 便会自动将请求路由到对应的后端服务,并支持按需加载和卸载模型以节省资源。这极大地简化了在单台机器上构建多模型AI工作流的复杂度,适用于开发测试、研究实验或需要灵活切换不同AI能力的本地应用场景。

智能标签

生成技术栈、用途、特征、受众等多维度标签

使用场景

了解这个项目能帮你解决什么问题

项目健康度

B
68/100
良好
活跃度人气增长社区文档
活跃度 20/23

距上次更新 6 天

人气 15/25

平台 Star TOP 48% · Forks 228

增长 14/25

本周 +154 ⭐ · 本月 +616 ⭐

社区 10/17

33 位贡献者 · 0 条平台评论

文档 9/10

缺少 1 项内容

在 GitHub 上查看

项目信息

作者 mostlygeek
来源 GitHub
周期 每日
仓库ID mostlygeek/llama-swap
最新提交 2026-04-05 07:17:59
第一收录 2026-04-06 08:01:18
最后更新 2026-04-06 08:01:18

赞赏支持

如果本站对你有帮助,欢迎打赏支持

微信打赏码

微信

支付宝打赏码

支付宝

评论 0

登录 后发表评论

加载评论中...

助手