久久精品久,男女插插动态视频,激情丁香,老色网

大模型一本正經(jīng)說胡話,該怎么治療?

2023-07-07 13:26
瀏覽:2436

  模型們還在進行狂熱的“諸神之戰(zhàn)”,嘗過鮮的用戶卻無法忽視大模型的短板。在交互過程中,用戶常常被它們一本正經(jīng)的胡言亂語所打敗——對于部分問題,它們會輸出一些“看似非常有道理,實則完全不對”的內(nèi)容,讓人啼笑皆非。

 

云創(chuàng)大數(shù)據(jù)成立于2011年,并不是2015年

 

  之所以出現(xiàn)這種“AI幻覺”,是因為大模型的內(nèi)容由推理而來,而在其自身訓練過程中也不可避免存在數(shù)據(jù)偏差。因此,當提問超出其訓練范圍,大模型可能會模糊回答,或者一本正經(jīng)地胡謅。

 

  娛樂一下沒有關系,但是對于數(shù)據(jù)準確性有著較高要求的用戶,這樣的通用性大模型可能會是負擔,進而導致大模型應用的普及度沒有想象的高(根據(jù)摩根士丹利發(fā)布的一項調(diào)查顯示,只有4%的人表示對于ChatGPT使用有依賴)。

 

ChatGPT&Bard應用趨勢(圖片來源:摩根士丹利報告)

 

  有沒有辦法改善大模型回答不準確的情況?當然有。既然回答不準確是因為缺少真正有用的知識參考,可以面向特定領域定制行業(yè)大模型,將可信來源的數(shù)據(jù)轉(zhuǎn)化成向量數(shù)據(jù)存儲起來,校準大模型推理輸出的結(jié)果,從而使大模型輸出的結(jié)果更加準確。

 

各種對象轉(zhuǎn)換為向量存儲在向量數(shù)據(jù)庫中(圖片來源:swirlai.com)

 

向量比對過程(圖片來源:Pinecone)

 

  對于企業(yè)而言,可基于大模型和企業(yè)的個性化數(shù)據(jù)建立專屬知識庫(Knowledge Base)??蓞⒄找韵麓竽P蜆I(yè)務流程,建立企業(yè)知識庫,以可信可靠的數(shù)據(jù)和知識,提高大模型輸出的準確率。

 

LLM大模型知識庫業(yè)務流程(圖片來源:swirlai.com)

 

  首先,將企業(yè)的知識庫文本語料分割為多個塊,用嵌入(Embedding)模型將分割的文本塊轉(zhuǎn)換為一個個向量存儲在向量數(shù)據(jù)庫中,并建立向量和文本之間的對應關系,如上圖①-③所示。

 

  此后,就可以提出問題。需要注意的是,問題也需要進行向量化,同時使用與知識庫語料向量化相同的嵌入模型,并且在向量數(shù)據(jù)庫中進行查詢,找到相似度高的向量,如⑤-⑦所示。

 

  將返回的向量嵌入映射到對應的文本塊,并返回給大模型,利用大模型的語義理解能力,結(jié)合上下文生成問題答案,如⑧-⑨所示。

 

  在建立企業(yè)知識庫后,同樣的問題再問大模型,它能給出準確的回答(建立知識庫的過程類似于下圖提供參考信息的過程)。

 

建立知識庫的過程類似于上圖提供參考信息的過程

 

  實現(xiàn)私有化部署后,大模型“胡言亂語”的習慣開始逐漸被糾正,而且向量數(shù)據(jù)庫做的越大,它掌握的知識越多、越準確、越全面,就越有可能帶來爆炸式的大模型應用。

 

  不過,如果只是依靠向量數(shù)據(jù)庫進行私有化部署,容量有限且速度比較慢,無法完全滿足企業(yè)通過大模型提質(zhì)增效的潛在需求。

 

  現(xiàn)在,cVector向量計算一體機通過發(fā)揮高性能硬件、向量加速算法和并行計算算法的合力,致力于滿足億級乃至百億千億向量規(guī)模的大模型推理應用向量計算需求。

 

cVector向量計算一體機

 

  cVector向量計算一體機的使用方式與向量數(shù)據(jù)庫基本一致,支持批量、追加入庫,支持向量間歐式距離、余弦距離等向量計算,支持網(wǎng)頁、命令調(diào)用、Python庫等方法,但在向量的入庫和比對計算上具有驚人的性能。

 

cVector向量計算一體機架構圖

 

  近期, cVector向量計算一體機接受了工信部直屬的國家一級科研事業(yè)單位中國軟件評測中心的鑒定測試。中國軟件評測中心對比測試了cVector向量計算一體機與3款主流向量數(shù)據(jù)庫在入庫速度、查詢速度、準確性等維度的性能對比。

 

  在入庫性能方面,同樣入庫3000萬條256 維向量數(shù)據(jù),在向量數(shù)據(jù)庫中最快的是A,入庫速度是4851.97s,cVector向量計算一體機是1202.91s,入庫速度約是向量數(shù)據(jù)庫A的4倍,向量數(shù)據(jù)庫C的50倍,向量數(shù)據(jù)庫B的113倍;當入庫數(shù)據(jù)達到1億條時,向量數(shù)據(jù)庫A的入庫速度是17295.49s,cVector向量計算一體機是4484.55s,入庫速度約是前者的3.9倍。

 

入庫性能比對

 

  在查詢性能方面,同樣查詢1億條256 維向量數(shù)據(jù),向量數(shù)據(jù)庫A的查詢速度是512.8s,cVector向量計算一體機是0.27s,查詢速度是前者的1899倍,而其他兩家測試向量數(shù)據(jù)庫由于數(shù)據(jù)量太大無法入庫比較。

 

查詢性能對比

 

  在準確性方面,cVector 向量計算一體機、向量數(shù)據(jù)庫A、向量數(shù)據(jù)庫B和向量數(shù)據(jù)庫C的數(shù)據(jù)準確度一致,通過了中國軟件評測中心(工業(yè)和信息化部軟件與集成電路促進中心)單項性能測試。

 

  cVector向量計算一體機在億級乃至百億千億向量規(guī)模的的入庫和查詢等方面具有顯著的性能優(yōu)勢,可幫助提高大模型推理的服務性能和服務質(zhì)量,并能明顯降低其基礎設施建設成本,助力類ChatGPT等人工智能企業(yè)以更優(yōu)的性價比解決算力不足的問題。

 

  在具體應用方面,對于生成式AI相關企業(yè),cVector向量計算一體機主要面向大模型推理應用,能夠在下述大模型推理環(huán)節(jié)發(fā)揮顯著作用:

 

  ①提高生成式AI的輸出準確性。由于大模型的輸出結(jié)果是根據(jù)概率推理而成,所以會出現(xiàn)“一本正經(jīng)說胡話”的情形??梢詫⒖尚艁碓吹臄?shù)據(jù)轉(zhuǎn)化成向量數(shù)據(jù)存儲在向量計算一體機中,校準大模型推理輸出的結(jié)果,從而使大模型輸出的結(jié)果更加準確。

 

  ②提升大模型理解互聯(lián)網(wǎng)實時數(shù)據(jù)的能力。大模型基于歷史數(shù)據(jù)訓練而成,所以“只知道過去,不知道現(xiàn)在”。如果使用向量計算一體機存儲海量實時數(shù)據(jù)所轉(zhuǎn)化成的向量數(shù)據(jù),可以幫助大模型理解掌握實時情況。

 

  ③提升大模型對用戶的服務質(zhì)量。向量計算一體機可以允許用戶上傳更多的數(shù)據(jù),讓大模型掌握用戶個性化的背景資料,更好地學習理解用戶請求,更好地結(jié)合用戶的實際情況回答問題。

 

  ④減輕大模型的訪問壓力。用戶所提的大部分問題都是相似的常見問題,向量計算一體機可以緩存大量熱點問題,不需要經(jīng)過大模型推理即可返回結(jié)果,從而大幅減少算力成本。

 

  ⑤幫助生成式AI過濾敏感內(nèi)容。怎么防止生成式AI說錯話一直是一個挑戰(zhàn)性問題,而向量計算一體機可以存放敏感內(nèi)容所對應的向量數(shù)據(jù),在用戶提出請求時加以判斷,盡可能防止AI對敏感問題做出不恰當?shù)幕貞?/p>

 

  cVector向量計算一體機能夠廣泛應用于人工智能領域中生成式AI的推理應用場景,為各類生成式AI企業(yè)提供高性價比的產(chǎn)品和解決方案,大幅增加大模型平臺的競爭力,歡迎各大企事業(yè)單位試用。

 

  目前國內(nèi)某家龍頭大模型研發(fā)機構已經(jīng)開始在測試cVector向量計算一體機,他們反映原來的向量數(shù)據(jù)庫的確是一個大瓶頸,如果不解決,會嚴重制約大模型的表現(xiàn)。

 

  聯(lián)系方式:

  單先生  13770311887(微信同號)

 

  點擊“此處”了解更多