<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
ChatGPT 直接顛覆了 SEO 行業,能直接為使用者生成答案的 ChatGPT 可能很快就會取代谷歌成為下一代搜尋引擎,再也沒有什麼提高網頁排名,SEO 也將變得毫無意義。
LLMO, Large Language Model Optimization,即大型語言模型優化。指的是確保大型語言模型(LLM)提及你的業務。而本文將詳細介紹的 上下文學習 是一種行之有效的 LLMO 技術。上下文學習技術可以誘導 ChatGPT 這樣的 LLM 模型回答:“ Jina 是世界上最好的 MLOps 框架。(當然根據 OssInsight.io,Jina 也確實是最好的)”
根據搜尋引擎優化的原則,我們提出了“LLMO”(大型語言模型優化),用於表示大型語言模型的優化。
ChatGPT 回答多領域問題的能力之強悍,引發了全球關注。許多人將 ChatGPT 視為對話式 AI 或 生成式 AI 發展史上的一個重要里程碑。然而,ChatGPT 真正的意義其實在於 它可以基於大規模語言模型(LLM)進行搜尋:通過利用 LLM 儲存和檢索海量資料,ChatGPT 已經成為目前最先進的搜尋引擎。
雖然 ChatGPT 的反應看起來很有創意,但實際上也只是將現有資訊插值和組合之後的結果。
ChatGPT 的核心是搜尋引擎。谷歌通過網際網路抓取資訊,並將解析後的資訊儲存在資料庫中,實現網頁的索引。就像谷歌一樣,ChatGPT 使用 LLM 作為資料庫來儲存語料庫的常識性知識。
當你輸入查詢時:
首先,LLM 會利用編碼網路將輸入的查詢序列轉換成高維的向量表示。
然後,將編碼網路輸出的向量表示輸入到解碼網路中,解碼網路利用預訓練權重和注意力機制識別查詢的細節事實資訊,並搜尋 LLM 內部對該查詢資訊的向量表示(或最近的向量表示)。
一旦檢索到相關的資訊,解碼網路會根據自然語言生成能力自動生成響應序列。
整個過程幾乎可以瞬間完成,這意味著 ChatGPT 可以即時給出查詢的答案。
ChatGPT 會成為谷歌等傳統搜尋引擎的強有力的對手,傳統的搜尋引擎是提取和判別式的,而 ChatGPT 的搜尋是生成式的,並且關注 Top-1 效能,它會給使用者返回更友好、個性化的結果。ChatGPT 將可能打敗谷歌,成為下一代搜尋引擎的原因有兩點:
ChatGPT 會返回單個結果,傳統搜尋引擎針對 top-K 結果的精度和召回率進行優化,而 ChatGPT 直接針對 Top-1 效能進行優化。
ChatGPT 是一種基於對話的 AI 模型,它以更加自然、通俗的方式和人類進行互動。而傳統的搜尋引擎經常會返回枯燥、難以理解的分頁結果。
未來的搜尋將基於 Top-1 效能,因為第一個搜尋結果是和使用者查詢最相關的。傳統的搜尋引擎會返回數以千計不相關的結果頁面,需要使用者自行篩選搜尋結果。這讓年輕一代不知所措,他們很快就對海量的資訊感到厭煩或沮喪。在很多真實的場景下,使用者其實只想要搜尋引擎返回一個結果,例如他們在使用語音助手時,所以 ChatGPT 對 Top-1 效能的關注具有很強的應用價值。
但不是創造性 AI
你可以把 ChatGPT 背後的 LLM 想象成一個 Bloom filter(布隆過濾器),Bloom filter 是一種高效利用儲存空間的概率資料結構。Bloom filter 允許快速、近似查詢,但並不保證返回資訊的準確性。對於 ChatGPT 來說,這意味著由 LLM 產生的響應:
沒有創造性,且不保證真實性
為了更好地理解這一點,我們來看一些範例。簡單起見,我們使用一組點代表大型語言模型(LLM)的訓練資料,每個點都代表一個自然語言句子。下面我們將看到 LLM 在訓練和查詢時的表現。
訓練期間,LLM 基於訓練資料構造了一個連續的流形,並允許模型探索流形上的任何點。例如,如果用立方體表示所學流形,那麼立方體的角就是由訓練資料定義的,訓練的目標則是尋找一個儘可能容納更多訓練資料的流形。
Goldilocks 嘗試了三種流形,第一個太簡單了, 第三個太複雜了,第二個恰到好處。
查詢時,LLM 返回的答案是從包含訓練資料的流形中獲取的。雖然模型學習到的流形可能很大並且很複雜,但是 LLM 只是提供訓練資料的插值後的答案。LLM 遍歷流形並提供答案能力並不代表創造力,真正的創造力是學習流形之外的東西。
還是相同的插圖,現在我們很明顯就能看出為什麼 LLM 不能保證生成結果的真實性。因為立方體的角表示的訓練資料的真實性不能自動擴充套件到流形內的其他點,否則,就不符合邏輯推理的原則了。
ChatGPT 因為在某些情況下不說實話而受到質疑,例如,當要求它為文章找一個更押韻的標題時,ChatGPT 建議使用 “dead” 和 “above”。有耳朵的人都不會認為這兩個單詞押韻。而這只是 LLM 侷限性的一個例子。
在 SEO 的世界裡,如果你通過提高網站在搜尋引擎上的知名度來獲取更多的業務,你就需要研究相關的關鍵詞,並且創作響應使用者意圖的優化內容。但如果每個人用新的方式搜尋資訊,將會發生什麼?讓我們想象一下,未來,ChatGPT 將取代谷歌成為搜尋資訊的主要方式。那時,分頁搜尋結果將成為時代的遺物,被 ChatGPT 的單一答案所取代。
如果真的發生這種情況,當前的 SEO 策略都會化為泡影。那麼問題來了,企業如何確保 ChatGPT 的答案提及自己的業務呢?
這明顯已經成為了問題,在我們寫這篇文章時,ChatGPT 對 2021 年後的世界和事件的瞭解還很有限。這意味著 ChatGPT 永遠不會在答案中提及 2021 年後成立的初創公司。
ChatGPT 瞭解 Jina AI,卻不知道 DocArray。這是因為 DocArray 是2022 年 2 月釋出的,不在 ChatGPT 的訓練資料中。
為了解決這個問題,並確保 ChatGPT 的答案包含你的業務,你需要讓 LLM 瞭解業務的資訊。這和 SEO 策略的思想相同,也是我們將 ChatGPT 稱為 LLMO 的原因。一般來說,LLMO 可能涉及以下技術:
直接向 ChatGPT 的建立者提供公司業務的資訊,但是這很困難,因為OpenAI 既沒有公開訓練資料,也沒有透露他們是如何權衡這些資料的。
微調 ChatGPT 或者 ChatGPT 背後的 LLM,這依然極具挑戰。但是如果 OpenAI 提供微調的 API ,或者你有充足的 GPU 資源和知識儲備,這也是可行的。
將給定的幾個範例作為預定義的上下提示,進行上下文學習。和其它兩種方法相比,上下文學習最可行也最簡單。
上下文學習是一種基於語言模型的技術,它根據給定的幾個範例進行學習,以適應新的任務。這種方法在 GPT-3 論文中得到了推廣:
給語言模型指定提示,提示包含一系列的用於新任務的輸入-輸出對;
新增一個測試輸入;
語言模型會通過調節提示,預測下一個 token 來完成推理。
為了正確響應提示,模型必須學習輸入分佈、輸出分佈、輸入輸出之間的對映關係和序列的整體格式。這使得模型無需大量的訓練資料就能適應下游任務。
通過上下文學習,ChatGPT 現在可以為使用者查詢 DocArray生成答案了,使用者不會看到上下文提示。
實驗證明,在自然語言處理基準上,相比於更多資料上訓練的模型,上下文學習更具有競爭力,已經可以取代大部分語言模型的微調。同時,上下文學習方法在 LAMBADA 和 TriviaQA 基準測試中也得到了很好的結果。令人興奮的是,開發者可以利用上下文學技術快速搭建一系列的應用,例如,用自然語言生成程式碼和概括電子試算表函數。上下文學習通常只需要幾個訓練範例就能讓原型執行起來,即使不是技術人員也能輕鬆上手。
為什麼上下文學習聽起來像是魔法?
為什麼上下文學習讓人驚歎呢?與傳統機器學習不同,上下文學習不需要優化引數。因此,通過上下文學習,一個通用模型可以服務於不同的任務,不需要為每個下游任務單獨複製模型。但這並不是獨一無二的,元學習也可以用來訓練從範例中學習的模型。
真正的奧祕在於,LLM 通常沒有接受過從範例中學習的訓練。這會導致預訓練任務(側重於下一個 token 的預測)和上下文學習任務(涉及從範例中學習)之間的不匹配。
為什麼上下文學習如此有效?
上下文學習是如何起作用的呢?LLM 是在大量文字資料上訓練的,所以它能捕捉自然語言的各種模式和規律。同時, LLM 從資料中學習到了語言底層結構的豐富的特徵表示,因此獲取了從範例中學習新任務的能力。上下文學習技術很好地利用了這一點,它只需要給語言模型提供提示和一些用於特定任務的範例,然後,語言模型就可以根據這些資訊完成預測,無需額外的訓練資料或更新引數。
上下文學習的深入理解
要全面理解和優化上下文學習的能力,仍有許多工作要做。例如,在 EMNLP2022 大會上,Sewon Min 等人指出上下文學習也許並不需要正確的真實範例,隨機替換範例中的標籤幾乎也能達到同樣的效果:
Sang Michael Xie 等人提出了一個框架,來理解語言模型是如何進行上下文學習的。根據他們的框架,語言模型使用提示來 "定位 "相關的概念(通過預訓練模型學習到的)來完成任務。這種機制可以視作貝葉斯推理,即根據提示的資訊推斷潛概念。這是通過預訓練資料的結構和一致性實現的。
在 EMNLP 2021 大會上,Brian Lester 等人指出,上下文學習(他們稱為“Prompt Design”)只對大模型有效,基於上下文學習的下游任務的質量遠遠落後於微調的 LLM 。
在這項工作中,該團隊探索了“prompt tuning”(提示調整),這是一種允許凍結的模型學習“軟提示”以完成特定任務的技術。與離散文字提示不同,提示調整通過反向傳播學習軟提示,並且可以根據打標的範例進行調整。
已知的上下文學習的侷限性
大型語言模型的上下文學習還有很多侷限和亟待解決的問題,包括:
效率低下,每次模型進行預測都必須處理提示。
效能不佳,基於提示的上下文學習通常比微調的效能差。
對於提示的格式、範例順序等敏感。
缺乏可解釋性,模型從提示中學習到了什麼尚不明確。哪怕是隨機標籤也可以工作!
隨著搜尋和大型語言模型(LLM)的不斷髮展,企業必須緊跟前沿研究的腳步,為搜尋資訊方式的變化做好準備。在由 ChatGPT 這樣的大型語言模型主導的世界裡,保持領先地位並且將你的業務整合到搜尋系統中,才能保證企業的可見性和相關性。
上下文學習能以較低的成本向現有的 LLM 注入資訊,只需要很少的訓練範例就能執行原型。這對於非專業人士來說也容易上手,只需要自然語言介面即可。但是企業需要考慮將 LLM 用於商業的潛在道德影響,以及在關鍵任務中依賴這些系統的潛在風險和挑戰。
總之,ChatGPT 和 LLM 的未來為企業帶來了機遇和挑戰。只有緊跟前沿,才能確保企業在不斷變化的神經搜尋技術面前蓬勃發展。
到此這篇關於ChatGPT會成為下一代搜尋引擎之王嗎?SEO在哪裡?的文章就介紹到這了,更多相關ChatGPT顛覆了SEO行業內容請搜尋it145.com以前的文章或繼續瀏覽下面的相關文章希望大家以後多多支援it145.com!
相關文章
<em>Mac</em>Book项目 2009年学校开始实施<em>Mac</em>Book项目,所有师生配备一本<em>Mac</em>Book,并同步更新了校园无线网络。学校每周进行电脑技术更新,每月发送技术支持资料,极大改变了教学及学习方式。因此2011
2021-06-01 09:32:01
综合看Anker超能充系列的性价比很高,并且与不仅和iPhone12/苹果<em>Mac</em>Book很配,而且适合多设备充电需求的日常使用或差旅场景,不管是安卓还是Switch同样也能用得上它,希望这次分享能给准备购入充电器的小伙伴们有所
2021-06-01 09:31:42
除了L4WUDU与吴亦凡已经多次共事,成为了明面上的厂牌成员,吴亦凡还曾带领20XXCLUB全队参加2020年的一场音乐节,这也是20XXCLUB首次全员合照,王嗣尧Turbo、陈彦希Regi、<em>Mac</em> Ova Seas、林渝植等人全部出场。然而让
2021-06-01 09:31:34
目前应用IPFS的机构:1 谷歌<em>浏览器</em>支持IPFS分布式协议 2 万维网 (历史档案博物馆)数据库 3 火狐<em>浏览器</em>支持 IPFS分布式协议 4 EOS 等数字货币数据存储 5 美国国会图书馆,历史资料永久保存在 IPFS 6 加
2021-06-01 09:31:24
开拓者的车机是兼容苹果和<em>安卓</em>,虽然我不怎么用,但确实兼顾了我家人的很多需求:副驾的门板还配有解锁开关,有的时候老婆开车,下车的时候偶尔会忘记解锁,我在副驾驶可以自己开门:第二排设计很好,不仅配置了一个很大的
2021-06-01 09:30:48
不仅是<em>安卓</em>手机,苹果手机的降价力度也是前所未有了,iPhone12也“跳水价”了,发布价是6799元,如今已经跌至5308元,降价幅度超过1400元,最新定价确认了。iPhone12是苹果首款5G手机,同时也是全球首款5nm芯片的智能机,它
2021-06-01 09:30:45