我们一直在添加越来越多的上下文、相邻块、生成的问题和整个片段。但有时, 少即是多 。 LLM 的上下文窗口有限,在其中塞满不相关的信息可能会损害性能。

源代码

https://github.com/CrazyAndy/rag-all-techniques/blob/main/app/09_contextual_compression.py

上下文压缩是关于选择性的。我们检索了大量的上下文,但随后我们对其进行压缩,只保留与查询直接相关的部分。

设计思路

Written by

虎哥(微信:hugeaitop)

我是AI领域知识学习的小学生,大家一起来学AI哈!

大家一起来讨论