长上下文LLM与 RAG 相遇对于许多长语境 (LLM)...

  • 斌叔OKmath
  • 2024-10-13 18:17:17
长上下文LLM与 RAG 相遇

对于许多长语境 (LLM) 而言,输出质量会随着段落数量的增加而下降。

看起来性能损失是由于检索到的硬负片造成的。

他们提出了两种改进基于长上下文 LLM 的 RAG 的方法:1)检索重新排序和 RAG 特定的调整以及中间推理以帮助相关性识别。

“我们提出的方法在长上下文 RAG 性能上表现出显著的准确性和稳健性改进。”

我最近看到几篇研究论文试图让基于长上下文 LLM 的 RAG 发挥作用。看起来,段落的顺序和检索相关信息的推理可以带来最大的性能提升。
长上下文LLM与 RAG 相遇对于许多长语境 (LLM)...