【武定外围】RAGFlow開源Star量破萬,是時候思考下RAG的未來是什麽了

时间:2024-09-17 03:18:55来源:智匯穀作者:安卡拉外圍
取得了 SOTA 的破万結果 。因此相比向量搜索能夠提供更精準的时候思考搜索排序結果 。通過把文檔中包含的破万內部知識以多種方式組織 ,以及垂直問答等情況下的时候思考必要手段。整體召回精度不高 。破万我們對它作為產品推動力的时候思考武定外围發展感到振奮 ,有效促進了學術交流與傳播 。破万例如多跳問答,时候思考每家使用 LLM 的破万公司都需要內置一個強大的檢索係統,支撐過日活千萬,时候思考召回精度更高 。破万數據抽取模塊,时候思考有理由在數據庫中原生支持這種 3 路混合搜索能力。破万

  • 對如何數據分塊很敏感 ,时候思考分塊和轉換方式不同 ,破万是解決多跳問答、連續創業者,它把文檔的每個 Token 都用單獨的向量表示 ,過去數年,RAG 也需要快速進化 ,而相比 Cross Encoder,編排在這裏不僅不重要,或者得到運營計劃,隨著 LLM 的演進,RAG 2.0 是典型的 AI Infra,同樣需要為這樣的能力提供選擇 。將數據分塊(例如根據段落),如果沒有 RAG,重生態而輕內核 。基於這些  ,婺城外围模特也沒有必要浪費多很多的成本和延遲來處理跟用戶提問不相關的數百萬個 Token 。這使得排序的速度非常慢,構建索引以及檢索。

  • 缺乏用戶意圖識別 。針對各環節進行優化,它仍然把文檔在索引階段就編碼好 ,這樣導致 Embedding 的有效信息密度有限,因為這和用戶體驗並沒有直接關係。通過關鍵詞全文搜索,都不應該把關鍵詞全文搜索排除在 RAG 之外。因此它必須依托於若幹模型才能完成任務。而不是找到最相似的結果  。本質上是為了輔助在檢索階段提供更多的依據,既無法高性能搜索海量數據  ,先後主導並參與三家大型企業數字化轉型,再加上 Rockset 還采用了雲原生架構 ,這對於排序的可解釋性也非常重要 。歡迎關注和了解我們的工作:https://github.com/infiniflow/ragflow

    © THE END 我們期望它能原生地包含前述的所有能力 ,

  • 大多數企業內部場景都需要對傳給上下文窗口的內容做訪問權限控製 。先後負責 7 年搜索引擎研發,除了需要能夠處理海量數據之外 ,

  • 無法針對複雜提問進行回答,如果你也對此感興趣 ,

  • 編排任務 ,因此可以提供類比於 Elasticsearch 的關鍵詞全文搜索能力,結合張量搜索和關鍵詞全文搜索,機器之心AIxiv專欄接收報道了2000多篇內容 ,5 年數據庫內核研發,婺城商务模特因為它需要不同的重排序模型 。對於數據分塊的邏輯往往簡單粗暴,再配套以向量搜索,還可能需要若幹預處理步驟 ,如果可以直接在上下文窗口中載入整個教科書 ,

    想象一下 ,查詢重寫和獲得答案 ,這隻是新的起點。但在深入企業級場景時,實現的都是閹割版本,Rockset 更是一個索引數據庫,忽視了數據本身的語義和組織。精排通常放在數據庫外進行  ,大多數商品並不需要很強的搜索,它的主要特點在於重編排而輕效果,當前,

    AIxiv專欄是機器之心發布學術 、

  • 業務邏輯組裝 。2 點結合,在當前階段,

    搜索技術是計算機科學中最難的技術挑戰之一 ,日均兩億動態搜索請求的互聯網電商業務。所以在絕大多數情況下,來提供更多的召回手段 ,它的性能要好得多 ,包括廣告推薦引擎,在排序計算時 ,其次 ,這會使他感到沮喪。金东外围

    RAG 2.0 將會對 LLM 在企業中如何應用產生巨大影響 ,稀疏向量 、這種問題回答就如同開卷考試,然後檢索直至找到滿意的答案。還需要站在整個 RAG 的鏈路上  ,可以查看跟查詢匹配的關鍵詞 ,

  • LLM 更容易受到跟問題語義相關但卻跟答案無關內容的幹擾 ,導致的搜索返回結果也會大不同 。它無法區分文字中特定的實體 / 關係 / 事件等權重明顯需要提高的 Token ,這是由於為解決 RAG 1.0 中召回精度不高的痛點 ,並且環節之間還存在循環依賴。這包括 :

    a. 需要有單獨的數據抽取和清洗模塊  ,因此 Cross-Encoder 隻能用於最終結果的重排序 。這一點跟 Cross Encoder 的機製類似,

  • 對 Embedding 模型很敏感 ,將它們全部傳給 LLM 會導致相互衝突的信息 。除了向量搜索之外,作為數據庫來說,而類似 ColBERT 這樣的模型 ,等等。RAGFlow 仍處於初級階段,意圖不確定 ,這樣可以在召回階段就引入更好的模型,才能確保在召回結果包含所需要的答案。

    3. 數據庫隻能涵蓋 RAG 2.0 中的數據檢索和召回環節 ,就已經沒有多少選擇了,但搜索效果卻很一般,但卻比 ETL 更加複雜,隨著 LLM 快速向更多場景滲透,金东外围模特例如如果用戶詢問 “2024 年 3 月我們公司財務計劃包含哪些組合”,這些工作,需要依托一個平台來不斷迭代和優化,進行切分 。乃至支持類似 ColBERT 這樣 Late Interaction 機製的張量搜索。畢竟搜索係統的核心是找到答案 ,針對通用領域訓練的 Embedding 模型在垂直場景可能表現不佳 。因為以上環節之間相互耦合,輸入數據的解析 、

    以上這種基於語義相似度的方法已經工作了很多年:首先,從而可以更好地支撐 RAG 2.0 。引入用戶意圖識別必不可少的環節。還應該包含關鍵詞全文搜索、把提問也轉成向量 ,在送到數據庫索引之前  ,從而更直觀地了解檢索到該文檔的原因,它無法用類似的 LLMOps 工具來編排 。接著通過向量數據庫檢索到最接近該向量的數據塊,這就是我們開發並開源 RAGFlow 的原因 。目前市麵上大多數聲稱提供 BM25 和全文搜索能力的數據庫,

    c. 張量搜索是一種很新的檢索方式 。英飛流 InfiniFlow 創始人 CEO  ,包括知識圖譜構建,近期知名的 AI 編排框架 LangChain 遭到吐槽,包括數據寫入和查詢時 ,共同保證最終問答的效果 。10 年雲計算基礎架構和大數據架構研發 ,而有了 RAG 之後,LLM 正在針對用戶提問回答 ,稀疏向量搜索 ,因此,其實並不在於數據倉庫本身對於 RAG 有多麽大的價值,並且經常處於無計可施的狀態。在若幹問答數據集的評測中,這個步驟不可或缺  ,我們認為未來的 RAG 2.0 可能是這樣工作的:

    其主要特點為 :

    1.RAG 2.0 是以搜索為中心的端到端係統 ,文檔聚類 ,可以說每個環節都是圍繞模型來工作的。簡單地總結,投稿郵箱 :[email protected][email protected]

    本文作者為張穎峰 ,需要跟最終搜索係統返回的結果進行迭代。從而分心。而依托於 LLMOps 工具的體係 ,因此自開源以來 RAGFlow 隻用了不到 3 個月就獲得了 Github 萬星。但並不等於實現它很容易 。從麵世一開始就迅速普及,聯合關鍵詞全文搜索 、負責把數據塊發到 Embedding 模型(既包含私有化也包含 SaaS API);返回的向量連同數據塊共同發給向量數據庫;根據提示詞模板拚接向量數據庫返回的內容 。隨著 LLM 的爆炸性增長,覆蓋全球各大高校與企業的頂級實驗室,是 OpenAI 做出選擇的主要原因 。因此 ,區別於以現代數據棧為代表的 Data Infra,也無法提供有效召回,因此比向量搜索損失的信息更少 ,當用戶檢索意圖明確時 ,也是我們在另外開發 AI 原生數據庫 Infinity 的主要原因,新的 LLM 具有更長的上下文窗口,文檔預處理、到教科書中去尋找包含答案的段落,來針對用戶的數據,

  • 因此可以把這類以 LLMOps 為核心的 RAG 看作 1.0 版本,它將整個 RAG 按照搜索的典型流程劃分為若幹階段 :包含數據的信息抽取 、以及針對垂直領域的 Embedding 模型微調等 。

    RAG 從出現到流行隻花了很短的時間 ,還必須提供默認基於 Top K Union 語義的搜索機製,然而,例如多跳問答(就是需要從多個來源收集信息並進行多步推理才能得出綜合答案的問題。它沒有采用已有的 RAG 1.0 組件 ,

    在整個鏈路中 ,因此是用許多向量或者一個張量來表示一個文檔 ,由於使用了正確的方式解決正確的問題 ,需要采用多種方法混合搜索 。這些數據塊理論上包含跟查詢語義最相似的數據 。而是從整個鏈路出發來根本性地解決 LLM 搜索係統的問題 。才能使得 LLM 可以真正為企業用起來 ,10 年人工智能核心算法研發 ,所有 Token 之間的向量都需要做交叉計算  ,接口遠沒有到統一 API 和數據格式的地步 ,這得益於各種 LLMOps 工具迅速將如下的組件串接起來使得整個係統得以運轉。就是同樣的道理 。以及向量搜索 3 種召回方式 ,需要考慮到用戶的各種不同格式 ,具有非常強的實際操作價值。但不同之處在於,營銷管理等其他類型的數據 。

    這些階段 ,因為這套樸素的基於語義相似度的搜索係統包含若幹局限:

    • Embedding 是針對整塊文本的處理,對於大多數應用而言,由於需要在查詢時對每個文檔和查詢共同經過 Embedding 模型來編碼  ,為符合 RAG 召回的需要,全文搜索是個很成熟的功能,卻很難滿足要求  ,而是相比其他數據倉庫,

      近期 OpenAI 收購了數據倉庫公司 Rockset ,原生具備這 2 類混合搜索能力的數據庫 ,因此即便解決了前述的召回精度問題 ,不具備企業級服務能力。

      c. 檢索階段分為粗篩和精排 。而前者則是以各種文檔結構識別模型為核心的非標準化體係 。RAG 2.0 相比 RAG 1.0 會複雜很多,這背後的邏輯,技術內容的欄目。

      b. 抽取出的數據,如果您有優秀的工作想要分享 ,那麽很可能得到的結果是其他時間段的數據 ,即使 LLM 可以包含上百萬乃至上千萬 Token 的上下文窗口 ,它能夠捕捉查詢和文檔之間的複雜交互關係  ,

      b.IBM 研究院最新的研究成果顯示,也擁有接近向量搜索的性能,例如對問題進行查詢重寫,為什麽還需要去教科書中翻答案呢?實際上 ,這一點類似於向量搜索 ,普通開發者可以借助於這些工具快速搭建起原型係統,也沒有辦法用相似度來找到答案。通常采用固定大小來把解析好的文本切成數據塊。期望的文檔卻沒有返回, 所以可以理解為既擁有接近 Cross Encoder 的召回精度 ,

    這個流程的建立很簡單,這些考慮,後者是以 SQL 為核心的的確定性規則係統 ,當然  ,是一個反複檢索和重寫的過程,在意圖不明的情況下 ,高質量的數據抽取模塊 ,那麽 LLM 不得不根據自己在訓練過程中學到的知識來回憶內容,除此之外,這是由於 RAG 的查詢輸入通常不是幾個關鍵詞 ,甚至會幹擾搜索和排序的調優 。

  • Embedding 無法實現精確檢索 。來幫助 LLM 做最終的答案生成。其核心是數據庫和各種模型 ,因為在查詢期間無需對每個文檔進行編碼,它們聯合數據庫一起 ,用戶的提問可能並沒有明確的意圖,迄今隻有很少一部分商業化產品可以把這個問題解決得很好 。但是它的缺點在於 ,對於一個特定的問題 ,對話跟業務係統(如客服係統)的連接,

    a. 關鍵詞全文搜索是實現精確查詢必不可少的手段,歡迎投稿或者聯係報道。包含複雜文檔例如表格處理和圖文等,可以處理更大的用戶輸入,是保證高質量搜索的前置條件 。根據模型識別出的用戶意圖不斷改寫查詢 ,係統的每個環節 ,

    2. 需要一個更全麵和強大的數據庫 ,還需要對用戶的查詢不斷改寫,不失為一種非常值得采用的混合搜索能力  。而是整句話。計算機視覺和自然語言處理 。在檢索過程中 ,這就是 RAG (基於檢索增強的內容生成)—— 通過搜索內部信息給 LLM 提供與用戶提問最相關的內容 ,因此回答問題變得容易很多。

    因此,LLMOps 工具可以操作的事情有:

    • 解析和切分文檔。然後通過 Embedding 模型把每個塊轉成向量保存到向量數據庫。

    • 即使 LLM 能力很強大 ,它對表的每列數據都建立了倒排索引  ,它是針對用戶的複雜提問 ,它來自於以 ColBERT 為代表的 Late Interaction 機製 。切分的粒度 ,例如用戶對話內容的生成和返回 ,這部分可以類比為現代數據棧的 ETL ,搜索依然必不可少 :

      • 企業通常包含多個版本的類似文檔 ,都還在不斷地進化中。就是 Cross Encoder 為代表的 Reranker 模型,從而讓檢索更加精準 。

  • 相关内容