摘要: 关于注意力机制,目前的理解还比较局限。结合SLAM相关的端到端文献,注意力机制是能让模型对重要信息重点关注并充分学习吸收的技术,具体表现在其通过Q机制,对SLAM全过程各阶段的信息进行灵活调度使用,在极大程度上避免了信息冗余、节省了内存空间、提高了运行效率;轻量化模型表现在利用知识蒸馏、网络剪枝、模 阅读全文
posted @ 2025-03-17 11:42 Pacinonono 阅读(108) 评论(0) 推荐(0)