inference-acceleration

话题找到数量

thu-ml/SageAttention

量化注意力机制相比FlashAttention和xformers实现了2-5倍和3-11倍的速度提升,且在语言、图像和视频模型上保持端到端指标无损。

3.3k
391
182
+149
排名 #15
4月9日
查看详情

thu-ml/SpargeAttn

SpargeAttention:一种免训练的稀疏注意力机制,可加速任何模型推理

951
87
198
+4
排名 #16
2月25日
查看详情
助手