從大模型到人形機器人,從智能駕駛到低空經(jīng)濟,諸多AI技術的精進與突破、以人類福祉為出發(fā)點的AI應用,在展會上亮相。根據(jù)官方數(shù)據(jù),本屆WAIC有500余家企業(yè)確認參展,市外企業(yè)和國際企業(yè)占比超50%,展品數(shù)量已超1500項,展覽規(guī)模、參展企業(yè)、首發(fā)新品數(shù)均達歷史最高。
連續(xù)七屆參加大會的騰訊,今年聚焦“用AI助力美好生活,構建離產(chǎn)業(yè)最近的AI”這一主題,以“AI”圓為創(chuàng)意靈感,引導參觀者從大模型出發(fā),探索人工智能在用戶體驗、產(chǎn)業(yè)落地和社會價值創(chuàng)新領域的應用。
在騰訊展臺上,騰訊混元大模型位居C位,與今年5月底剛剛揭開“面紗”的“騰訊元寶”和“騰訊元器”一道,吸引眾多參觀者近距離互動。在展區(qū)入口處放置的“AI照相機”,能夠將參觀者拍攝的照片轉化成動漫、3D、水彩、插畫、黏土、玉石等多樣風格,并針對人像效果重點適配優(yōu)化,讓不少參觀者點贊“好city”。
在WAIC期間,“數(shù)字甲骨共創(chuàng)中心”宣布將全球最大的甲骨文多模態(tài)數(shù)據(jù)集正式開源。據(jù)介紹,數(shù)字甲骨共創(chuàng)中心由安陽師范學院甲骨文信息處理教育部實驗室、騰訊SSV數(shù)字文化實驗室等單位共同發(fā)起。
在接受財經(jīng)網(wǎng)科技等采訪時,騰訊云副總裁吳運聲表示,人工智能賦能傳統(tǒng)文化是一件很有意義的事情,這件事情的商業(yè)化不那么明顯,“這兩年跟甲骨文研究的合作,也取得了不錯的成績,今天也發(fā)布了全球首個甲骨文開源的數(shù)據(jù)集,希望通過這樣的動作,能夠讓更多的同行關注到,加入到AI+文化產(chǎn)業(yè)或其他有社會價值的項目。”
大模型工具升級,加速落地產(chǎn)業(yè)場景
為了進一步降低大模型的使用門檻,今年5月,騰訊云發(fā)布了“大模型知識引擎”、“大模型圖像創(chuàng)作引擎”和“大模型視頻創(chuàng)作引擎”三款PaaS工具,讓企業(yè)能快速調用大模型的底層能力,構建適合自身場景的應用。
其中,知識引擎聚焦企業(yè)知識服務場景。通過該平臺,企業(yè)用自然語言,5分鐘就可以開發(fā)出一款知識服務應用,快速在客服營銷、企業(yè)知識社區(qū)等業(yè)務場景落地。在本次論壇上,知識引擎發(fā)布了全新的多模態(tài)檢索能力,支持圖文互搜、以圖搜圖,能夠結合知識庫中檢索返回的圖文片段,給出圖文并茂的答案。同時,知識引擎進一步擴展了企業(yè)知識類型的覆蓋面,升級了泛BI對話式數(shù)據(jù)問答體驗,支持超大表格、多表場景的多步驟推理、多條件篩選、求和計算,并擴展支持對接客戶主流數(shù)據(jù)庫。
圖像創(chuàng)作引擎基于騰訊混元大模型底座,具備高質量的AI圖像生成和編輯能力,能夠為企業(yè)客戶提供圖像風格化、AI寫真等能力。目前,圖像創(chuàng)作引擎新增了商品背景生成、百變頭像、模特換裝、百變換裝和線稿生圖等接口,大幅降低了營銷和影視行業(yè)的制作成本。
在視頻領域,視頻創(chuàng)作引擎推出復雜舞蹈編排算法,利用先進的3D建模技術和背部生成技術,上傳一張圖片,就可以讓人物流暢地進行轉身舞蹈,未來也將支持多人舞蹈的復雜編排。同時,視頻轉譯功能接入混元文生文大模型和 TTS 技術,大幅提升轉譯后音頻的自然度、相似度和語速效果。
面向想要自己訓練大模型的行業(yè)客戶,騰訊云推出了向量數(shù)據(jù)庫和一站式機器學習平臺TI平臺等工具。騰訊云向量數(shù)據(jù)庫Tencent Cloud VectorDB每日支撐超過3700億次向量檢索請求,可支持千億級向量規(guī)模存儲,百萬級 QPS 及毫秒級查詢延遲,適用于大模型的訓練推理、RAG場景、AI應用以及搜索推薦服務,實現(xiàn)企業(yè)數(shù)據(jù)接入AI的效率比傳統(tǒng)方案提升10倍。
大模型快速發(fā)展以來,落地和商業(yè)化的問題一直是業(yè)內(nèi)討論的焦點,吳運聲稱比起之前,今年確實遇到了更多大模型落地的需求和場景,“我們現(xiàn)在遇到的產(chǎn)業(yè)需求是非常廣泛的,遇到需求后,也在不斷提煉哪些東西應該用什么樣的流程去解決,解決這一類問題真好,還可以很方便地遷移到另一類問題上,這種情形在非常迅速的發(fā)展過程中。”
騰訊云副總裁吳永堅也表示,目前大模型技術在越來越多的場景中落地并轉化成實際生產(chǎn)力。同時他指出,在這個過程中,To C場景下,用戶對于內(nèi)容準確性的預期相對較低,所以對產(chǎn)品的接受度更高,產(chǎn)品落地走得快一些;而面向“嚴肅場景”的To B產(chǎn)品,則走得更加穩(wěn)妥、更加謹慎。
Scaling Law是否奏效?
近年來,GPT系列模型的演進,客觀上驗證了Scaling Law的有效性。然而GPT5遲遲未發(fā)布,近期出現(xiàn)了不少聲音,討論Scaling Law是否奏效。
OpenAI 的創(chuàng)始人Sam Altman是Scaling Law的支持者,此前他表示,GPT-5將比GPT-4聰明得多、GPT-6將比GPT5能力強得多,“我們還沒到達這個曲線的頂端”。
月之暗面創(chuàng)始人楊植麟也是Scaling Law的擁護者,早前在智源大會上,他認為“大”依然是第一性原理,現(xiàn)在最大的問題是解決怎么取得原本稀缺或者不存在的數(shù)據(jù),以及如何高效Scale,“Scaling會一直持續(xù),只是Scale的方法會不斷變化”。
而智譜AI CEO張鵬和面壁智能CEO李大海的觀點,則更為保守。張鵬認為,Scaling Law肯定是AGI的基石,但是不是基石之一還是個問號。李大海則提出了一個假設:AI System 2(決策)的能力,需要依靠AI Agent去內(nèi)化外部的一些能力。
吳運聲也觀察到業(yè)界對于Scaling Law的討論很多,他坦言自己也在看相應的各方意見,目前也有不同的觀點,包括現(xiàn)實的觀點和理想的觀點。有一派的觀點認為Scaling Law已經(jīng)到了類似于比較緩和的地步,繼續(xù)加大投入不會像以前變化那么多;還有一派觀點認為還在持續(xù)高速發(fā)展的過程當中。
吳運聲告訴財經(jīng)網(wǎng)科技等,他個人覺得可能在不同的領域,Scaling Law還是在一定程度上發(fā)揮它的價值。“最近我們在做多模態(tài)研究,多模態(tài)近一年多時間里進展很快,我們加大數(shù)據(jù)和算力投入,模型還是呈現(xiàn)出能力的巨大提升,Scaling Law仍在一定程度上發(fā)揮價值。”他還表示,不希望對這個問題“一錘定音”,而要在不同場景、不同技術間做各種探索。
除此之外,他對開源和閉源的也持有類似的態(tài)度,他表示一個行業(yè)里面百花齊放、百家爭鳴是好事,不一定非得加入某一派的觀點。“不能說,我的觀點是什么,另外的就不對。有越多人參與討論,越多人有觀點,整個生態(tài)才會蓬勃發(fā)展,才會持續(xù)地把它往前推進。”