Meta引入全新注意力机制Sytem 2 Attention 提升Transformer架构推理能力
Meta的研究者发表了一项关于Transformer架构的新研究,提出了一种名为System2Attention的全新注意力机制。该研究旨在解决大型语言模型在推理能力上的不足,特别是在处理复杂任务时可能出现的错误。S2A的引入为解决当前LLM推理能力不足的问题提供了一种创新性的解决方案。