长上下文LLM与 RAG 相遇对于许多长语境 (LLM)... 斌叔OKmath 2024-10-13 18:17:17 长上下文LLM与 RAG 相遇对于许多长语境 (LLM) 而言,输出质量会随着段落数量的增加而下降。看起来性能损失是由于检索到的硬负片造成的。他们提出了两种改进基于长上下文 LLM 的 RAG 的方法:1)检索重新排序和 RAG 特定的调整以及中间推理以帮助相关性识别。“我们提出的方法在长上下文 RAG 性能上表现出显著的准确性和稳健性改进。”我最近看到几篇研究论文试图让基于长上下文 LLM 的 RAG 发挥作用。看起来,段落的顺序和检索相关信息的推理可以带来最大的性能提升。