论文地址:
https://arxiv.org/abs/2111.09714arrow-up-right
利用LSH的方式减少Attention的计算量,核心公式如下:
其中:
nmτlog2(d)+nmdn m \tau \log _{2}(d)+n m dnmτlog2(d)+nmd,其中mmm是采样数量。
不变。
https://github.com/mlpen/YOSOarrow-up-right
论文测试了Encoder的效果,从选择的实验结果来看,效果还不错,但是缺少和同类方法的对比。
实现起来应该挺复杂的,不过作者提供了代码,可以研究下。
LSH方法个人一直认为是思路简单,实现复杂的典型例子,个人不太喜欢这类方法,不过这篇写的还算容易懂,对LSH有兴趣的可以从这篇入手。
Last updated 2 years ago