fla-org

fla-org/flash-linear-attention

Python
48
2025-12-20
4.1k
+2
#7
333

项目简介

🚀 顶尖线性注意力模型的高效实现

🚀 Efficient implementations of state-of-the-art linear attention models

智能解读

点击生成更详细的项目介绍

智能标签

生成技术栈、用途、特征、受众等多维度标签

使用场景

了解这个项目能帮你解决什么问题

项目健康度

35
D 较差

综合活跃度、人气、增长、社区、文档评估

活跃度
2/25
人气
22/25
增长
7/20
社区
1/15
文档
3/15
在 GitHub 上查看

项目信息

作者 fla-org
来源 GitHub
周期 每日
仓库 ID fla-org/flash-linear-attention
首次采集 2025-12-21 08:03:48
最后更新 2025-12-21 08:03:48

赞赏支持

如果本站对你有帮助,欢迎打赏支持

微信打赏码

微信

支付宝打赏码

支付宝

评论 0

登录 后发表评论

加载评论中...

助手