2026-02-09
🏷️

#attention 每日趋势报告

📅 2026-02-09
📊 2 个项目

🔥 #attention 每日热门项目

thu-ml/SageAttention

量化注意力机制相比FlashAttention和xformers实现了2-5倍和3-11倍的速度提升,且在语言、图像和视频模型上保持端到端指标无损。

3.2k
338
70
+8
排名 #8
2月9日
查看详情

thu-ml/SpargeAttn

SpargeAttention:一种免训练的稀疏注意力机制,可加速任何模型推理

932
84
90
+4
排名 #10
2月9日
查看详情

📊 数据统计

2 个热门项目
2026-02-09 数据日期

🔥 TrendForge - 追踪开源项目热度,发现技术趋势

助手