訂閱
糾錯
加入自媒體

OpenAI o1開辟“慢思考”,國產(chǎn)AI早已集結(jié)在CoE“組團”先出發(fā)

2024-09-19 09:13
腦極體
關(guān)注

圖片

OpenAI o1發(fā)布之后,復(fù)雜邏輯推理能力驚艷業(yè)界,數(shù)理能力達到博士水平。比如此前一直困擾LLMs的“9.9和9.11誰更大”問題,就在o1時代得到了解決。

于是有了一種說法:這一輪AI浪潮,中國越追趕越落后,跟OpenAI的差距越來越大。

圖片

現(xiàn)實情況真的如此嗎?我們不必急著下結(jié)論,不妨一起來思考三個問題:

近年來以大模型為主的通往AGI之路,究竟是怎么發(fā)展的?

中國AI在世界一流技術(shù)路線上到底發(fā)展到哪一步了?

以及面對o1,國產(chǎn)AI能應(yīng)對嗎、怎么應(yīng)對?

圖片

毋庸置疑,OpenAI此前一直稱得上是AI技術(shù)創(chuàng)新的“火車頭”。從ChatGPT至今,OpenAI用一個又一個模型證明了,通往AGI的三個技術(shù)方向:

1.GPT路線。從ChatGPT到GPT 4o,這一路線的核心是用模型對token流進行統(tǒng)計建模的通用技術(shù),token可以是文本、圖像、音頻、動作選擇、分子結(jié)構(gòu)等。最新的4o就是多模態(tài)融合的代表。有業(yè)內(nèi)專家表示,這一路線更貼切的名字可能是“Autoregressive(自回歸)Transformer”之類的,

2. Sora路線。Sora和GPTs一樣,都使用了Transformer架構(gòu),為什么單獨作為一支呢?因為展現(xiàn)了一種對現(xiàn)實世界復(fù)雜現(xiàn)象的建模能力。圖靈獎得主、Meta公司首席科學(xué)家楊立昆(Yann LeCun)認為,Sora可能是擺脫了人類專家所謂的一些知識干預(yù)后,更接近世界本源的,更準確的一種建模方式。

3. o1路線。GPTs也好,Sora也好,都是概率模型,以損失推理效率為代價,因此理論上永遠會出現(xiàn)偏差,具體表現(xiàn)為“幻覺”、不可靠性。怎么讓模型具備真正的邏輯推理能力呢?o1路線通過Inference 的方法,基于強化學(xué)習(xí)(RL)能力,使用CoT思維鏈將復(fù)雜問題拆解,并讓多個子模型來協(xié)作解決,相當于復(fù)雜Prompt的自動化,極大地提高了模型的推理能力,確實在LLMs難以搞定的數(shù)理問題和復(fù)雜任務(wù)上有很好的表現(xiàn)。

圖片

不難看到,兩年以來OpenAI引領(lǐng)的三個方向,只要目標明確,中國AI都是可以攻下的。目前,國產(chǎn)類GPT和類Sora模型,無論是底層架構(gòu)、具體技術(shù)、落地產(chǎn)品,其實并不遜色于OpenAI的模型,很快就縮小了技術(shù)代差。

這也說明了一件事,每一次OpenAI明確了方向,結(jié)果并不是“越追趕越落后”,反而可以讓中國AI聚焦并集中資源,進行有效研發(fā),進一步縮小差距。

具體到o1,我們認為也將延續(xù)上述走向,國產(chǎn)AI很快會完成突破。那么,目前業(yè)界準備得怎么樣了呢?

圖片

“在通往AGI的路上,已經(jīng)沒有任何阻礙”,這句話來形容o1的意義,并不夸張。如此跨越式的突破,國產(chǎn)AI真的做好準備了嗎?我們深入技術(shù)本質(zhì),去追根溯源。

OpenAI聯(lián)合創(chuàng)始人、科學(xué)家Greg Brockman,在博客中剖析了o1的底層邏輯。他寫道:OpenAI o1是我們第一個通過強化學(xué)習(xí)訓(xùn)練的模型,在回答問題之前會深入思考。模型進行系統(tǒng) I 思考,而思維鏈則解鎖了系統(tǒng) II 思考,可以產(chǎn)生極其令人印象深刻的結(jié)果。

所謂系統(tǒng) II 思考,指的是人腦依賴邏輯和理性分析,進行的慢速復(fù)雜推理?梢耘c負責(zé)快速直覺決策的系統(tǒng) I 相互配合,來實現(xiàn)更好的模型性能。

360集團創(chuàng)始人周鴻祎則表示,OpenAI o1遵循的可能是“雙系統(tǒng)理論 Dual Process Theory”,核心在于兩種系統(tǒng)并非獨立而是協(xié)同運作。由此推測,其內(nèi)部構(gòu)建的更加智能的模型或許是 GPT和o系列結(jié)合思維鏈的融合系統(tǒng),前者用于“快思考”,后者實現(xiàn)“慢思考”。而CoE(Collaboration-of-Experts,專家協(xié)同)架構(gòu)則集合了數(shù)量更多的大模型和專家模型,是通過思維鏈和“多系統(tǒng)協(xié)同”的方式實現(xiàn)“快思考”和“慢思考”。

熟悉國內(nèi)AI的讀者可能發(fā)現(xiàn)了,“慢思考”這個說法怎么這么眼熟呢?

沒錯,如何提升機器的認知智能是AI界長盛不衰的話題,而“慢思考”這個創(chuàng)意也并非OpenAI獨創(chuàng)。早在今年7月底舉辦的ISC.AI2024大會上,周鴻祎就提過,360將“用基于智能體的框架打造慢思考系統(tǒng),從而增強大模型的慢思考能力,把多個大模型組合起來解決業(yè)務(wù)問題”。

圖片

所以,大家可以放心的是,在技術(shù)創(chuàng)新高度依賴全球智力碰撞的今天,沒有一種技術(shù)思路是可以被壟斷的,甚至中國AI界提出“慢思考”更早。

當然,大家可能擔心的是,理念先進是一回事,是否具有相應(yīng)的工程能力,打造出一個基于系統(tǒng)II思考的模型又是另一回事。具體到產(chǎn)品上,國產(chǎn)AI是否已經(jīng)做好打造類o1模型的準備呢?我認為,三個條件已經(jīng)具備了:

1. 路線一致。模型的底層框架,是長期積累、厚積薄發(fā)的結(jié)果,國內(nèi)360就和o1的技術(shù)架構(gòu)保持著一致性。360首創(chuàng)的CoE架構(gòu)8月1日正式發(fā)布,所謂CoE,就是Collaboration-of-Experts,專家協(xié)同,讓多個模型分工協(xié)作、并行工作,執(zhí)行多步推理。CoE架構(gòu)與o1的理念一致、方法類似,卻比o1發(fā)布的時間更早,足以證明國產(chǎn)AI在技術(shù)方向上并沒有落后,早已開始探索。

2. 產(chǎn)品落地。目前o1仍是preview預(yù)覽版本,用戶體驗的實際效果與官方用例有差距,而且使用也受到限制,o1-mini對ChatGPT Plus用戶的每周限制為50個提示詞。技術(shù)再好,用不到也是“期貨”。這一點上,國產(chǎn)AI的產(chǎn)品化優(yōu)勢就體現(xiàn)出來了,比如CoE架構(gòu)已經(jīng)在360AI搜索中落地應(yīng)用,讓AI搜索在面對不確定或復(fù)雜輸入時表現(xiàn)出更好的穩(wěn)定性,輸出更準確、更具有時效性和權(quán)威性的內(nèi)容。基于CoE架構(gòu)的360AI搜索,也超越Perplexity AI,快速成長為全球最大的AI原生搜索引擎,并且還在以月增速113%的極高速度成長。

圖片

此外,360AI瀏覽器的AI助手,也可以非常直觀地讓用戶體會到模型競技場、多模型協(xié)作等功能。由于CoE架構(gòu)已經(jīng)接入了百度、騰訊、阿里巴巴、智譜AI、Minimax、月之暗面等 16 家國內(nèi)主流大模型廠商合作打造的 54 款大模型產(chǎn)品,用戶可以任意選擇3款大模型,進行多模型協(xié)作,以此達成比單個大模型回答問題好得多的效果。第一個做專家,對提問進行第一輪回答;第二個做反思者,對專家的回答進行糾錯和補充;第三個做總結(jié)者,對前兩輪回答進行優(yōu)化總結(jié)。在很多的實測例子中,第一個專家模型即使回答錯誤,反思模型和總結(jié)模型都能夠在后續(xù)的協(xié)作過程中修正,與人類在做出重要決策的思維活動很像。

圖片

3.能力領(lǐng)先。可能還會有人問,國產(chǎn)大模型在數(shù)據(jù)、算法、算力上和Open AI都還有差距,這是實際情況,CoE“人多力量大”真的能趕上o1嗎?這一點,我們可以用實測來檢驗一下。

用業(yè)內(nèi)著名的復(fù)雜邏輯推理題,比如假期調(diào)休題、9.9和9.11比大小等問題,同時詢問GPT-4o、o1-preview、360AI瀏覽器,會發(fā)現(xiàn)360的多模型協(xié)作,可以集各家所長,確實能起到“組團”打怪的效果。比如問“我爺爺?shù)男值艿膬鹤拥睦掀诺拿妹玫膬鹤,是我的什?rdquo;,360多模型和O1-preview都答對了,而4o 答錯。眾人拾柴火焰高,多模型協(xié)作力量大的優(yōu)勢又一次得到了驗證。

總的來說,國產(chǎn)AI通過CoE架構(gòu)進行協(xié)同,表現(xiàn)確實大多優(yōu)于4o,與o1互有勝負。目前只是起點,CoE這個路線被驗證可行,未來隨著思維鏈、慢思考、協(xié)作模式帶來模型推理能力的大幅提升,國產(chǎn)混合模型的能力也可能逐漸媲美o1。

所以,他強由他強,清風(fēng)拂山岡。OpenAI o1的確拆除了AGI路上的阻礙,但國產(chǎn)AI也并沒有臨淵羨魚,而是早已織好了網(wǎng),集結(jié)在CoE這一路線。

圖片

難道國產(chǎn)AI永遠都只能跟在OpenAI身后亦步亦趨,做一個追隨者嗎?

當然不是。中美AI的場景不同、產(chǎn)業(yè)稟賦不同、技術(shù)落地土壤不同,也造就了各自的優(yōu)勢所在。

誠然,OpenAI每一次都是新方向的開拓者、領(lǐng)頭人,但也可以發(fā)現(xiàn),Sora、o1都帶有“期貨”色彩,至少仍然難以被規(guī);褂。其中既有產(chǎn)品成熟度的問題,也有成本高、企業(yè)落地難度大的挑戰(zhàn)。比如有AI創(chuàng)業(yè)公司用o1解決實際業(yè)務(wù)問題時,發(fā)現(xiàn)Token數(shù)極大,成本極高,幾乎無法在現(xiàn)有業(yè)務(wù)中長期使用。有的創(chuàng)業(yè)公司為了平衡成本,甚至?xí)艞壥褂米钚掳姹镜哪P汀?/p>

圖片

這一點來看,o1也給了國產(chǎn)AI在自身優(yōu)勢上更進一步的機會,主要體現(xiàn)在:

1.基座模型的價值再次被肯定。此前頭部通用大模型廠商都多少進入到了“卷不動”的迷茫期,o1讓市場再次看到了基座模型的邏輯推理能力對于業(yè)務(wù)的價值是最關(guān)鍵的,是這一輪AI浪潮的核心,不容有失。這對于發(fā)力基座模型的廠商來說,是一個很好的消息,產(chǎn)業(yè)界和社會各界的信心進一步增強,有利于國產(chǎn)通用大模型繼續(xù)提高領(lǐng)先性。

2.技術(shù)產(chǎn)品化的優(yōu)勢被放大。相比Sora視頻生成、4o語音交互,o1的產(chǎn)品化路徑更不清晰,如何回收成本將是OpenAI的一大挑戰(zhàn)。這一點上,更重視大模型產(chǎn)品化、應(yīng)用化的國產(chǎn)AI,或許會為類o1模型更快找到落地途徑。

以CoE架構(gòu)的產(chǎn)品化為例,落地產(chǎn)品360AI搜索,已經(jīng)實現(xiàn)了商業(yè)閉環(huán),商業(yè)化收入已經(jīng)覆蓋了對應(yīng)的推理成本。這是因為,此前CoE模型就很重視在加快推理速度的同時,降低API接口和Token的使用成本。

3. AI創(chuàng)新與智能經(jīng)濟的加速。“比起AGI更重視ROI”,國產(chǎn)AI的務(wù)實特點,一度被認為技術(shù)信仰不如OpenAI強大。但遠大的AGI目標,是靠一個個行業(yè)的AI化支撐起來的,這也是這一輪AI浪潮不會再次化為泡沫的根本。那么,千行百業(yè)智能化就不得不談ROI,因為企業(yè)引入AI都是有成本的,從這一點上,國產(chǎn)AI走得更扎實。今年國產(chǎn)大模型紛紛“提效降費”,中小AI企業(yè)和開發(fā)者的Token使用成本和創(chuàng)新成本都在下降。

在此基礎(chǔ)上,隨著CoE等類o1模型的升級,讓AI深入行業(yè)、解決具體業(yè)務(wù)問題有了更大的價值,RL+CoT進一步降低了Prompt提示工程的門檻,這為中國智能經(jīng)濟的增長,又打開了一個新的周期。

總結(jié)一下,通往AGI和智能時代的道路沒有捷徑,中國AI要一步一個腳印去丈量。兩年、三條路證明了360等中國AI的先鋒隊已經(jīng)在新的技術(shù)路線上組隊出發(fā)。

凡走過的,必留下足跡;凡努力過的,必將收獲。從LLM到CoE,中國AI絕不會缺席這一輪技術(shù)浪潮。

圖片

       原文標題 : OpenAI o1開辟“慢思考”,國產(chǎn)AI早已集結(jié)在CoE“組團”先出發(fā)

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號