2026-01-26
🏷️

#attention 每日趋势报告

📅 2026-01-26
📊 2 个项目

🔥 #attention 每日热门项目

thu-ml/SageAttention

量化注意力机制相比FlashAttention和xformers实现了2-5倍和3-11倍的速度提升,且在语言、图像和视频模型上保持端到端指标无损。

3.1k
326
96
+6
排名 #2
1月26日
查看详情

thu-ml/SpargeAttn

SpargeAttention:一种免训练的稀疏注意力机制,可加速任何模型推理

917
82
103
+1
排名 #9
1月26日
查看详情

📊 数据统计

2 个热门项目
2026-01-26 数据日期

🔥 TrendForge - 追踪开源项目热度,发现技术趋势

助手