Reformer如何改进Transformer以降低显存占用和复杂度?

1个回答

写回答

Tonyhhh

2025-10-26 17:30

+ 关注

Reformer用局部敏感哈希技术让attention只需要关注相似的向量而不是所有向量同时利用可逆模型结构减少对额外存储的需求这样一来既降低了计算复杂度又减少了显存的压力挺厉害的改动

举报有用(0分享收藏

Copyright © 2025 IZhiDa.com All Rights Reserved.

知答 版权所有 粤ICP备2023042255号