7月4日晚間消息,百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏在2024世界人工智能大會暨人工智能全球治理高級別會議產(chǎn)業(yè)發(fā)展主論壇上表示,要跳出移動時代的思維邏輯,避免掉入“超級應(yīng)用陷阱”,不是只有10億DAU的應(yīng)用才叫成功。同時,李彥宏指出,智能體是開發(fā)最簡單的AI應(yīng)用,“也是我們最看好的AI應(yīng)用的發(fā)展方向”。
演講中,李彥宏再次談及開源與閉源大模型,表示開源大模型在學(xué)術(shù)研究、教學(xué)領(lǐng)域等特定場景下有存在的價值,但并不適用于大多數(shù)應(yīng)用場景。“當(dāng)你處在激烈競爭的環(huán)境中,需要讓業(yè)務(wù)效率比同行更高、成本比同行更低,這時,商業(yè)化的閉源模型是最能打的!
李彥宏指出,今年以來,開源和閉源大模型是一個爭議較大的話題,但很多人混淆了模型開源和代碼開源的概念,他指出,模型開源只能拿到一堆參數(shù),還要在做SFT、安全對齊,即使是拿到對應(yīng)源代碼,也不知道是用了多少比例、什么比例的數(shù)據(jù)去訓(xùn)練這些參數(shù),無法做到眾人拾柴火焰高,“拿到這些東西,并不能讓你站在巨人的肩膀上迭代開發(fā)!
他直言,同樣參數(shù)規(guī)模下,開源模型的能力不如閉源,“如果開源想能力追平閉源,它需要有更大的參數(shù)規(guī)模,這意味著推理成本更高、反應(yīng)速度更慢。很多人拿開源模型來做改款,以為這樣可以更好地服務(wù)自己的個性化需求,殊不知這就變成了一個孤本模型,既無法從基礎(chǔ)模型的持續(xù)升級中獲益,也沒辦法跟別人共享算力。”
李彥宏承認,開源模型在一些學(xué)術(shù)研究、教學(xué)領(lǐng)域有存在價值,可以用于研究大模型的工作機制,形成理論。但開源模型并不適用于大多數(shù)應(yīng)用場景,在激烈的商業(yè)環(huán)境中,想要讓業(yè)務(wù)效率高于同行、成本低于同行,商業(yè)化的閉源模型是“最能打的”。他以百度在小說創(chuàng)作上的實踐為例,當(dāng)從開源模型轉(zhuǎn)向輕量級模型、再轉(zhuǎn)向文心大模型4.0后,小說生成的可用率和優(yōu)質(zhì)率得到極大提升,讓網(wǎng)文作者如虎添翼。
在他看來,大模型的重點還是“卷應(yīng)用”,“沒有應(yīng)用,光有基礎(chǔ)模型,不管是開源還是閉源都一文不值!
針對AI應(yīng)用,李彥宏指出,AI時代,“超級能干”的應(yīng)用比只看DAU的“超級應(yīng)用”更重要,“我們要避免掉入‘超級應(yīng)用陷阱’,覺得一定要出現(xiàn)一個10億DAU的APP才叫成功,這是移動時代的思維邏輯!彼J為,只要能對產(chǎn)業(yè)和應(yīng)用場景產(chǎn)生大的增益,整體價值就已大于移動互聯(lián)網(wǎng)。
他以快遞行業(yè)舉例,利用大模型能力處理訂單,快遞公司做到了“一張圖、一句話寄快遞”,不再需要其他繁瑣流程,時間從3分多鐘縮短到19秒。“而且,90%以上的售后問題,也都由大模型來解決,效率提升非常顯著!
在代碼生成等更通用的領(lǐng)域,李彥宏表示,百度的文心快碼已經(jīng)在各個領(lǐng)域逐步滲透,在百度內(nèi)部,已有30%左右的代碼由AI生成,代碼采用率超過了44%。
“應(yīng)用其實離我們并不遙遠,”李彥宏說,基于基礎(chǔ)模型的應(yīng)用在各行各業(yè)和各個領(lǐng)域已開始逐步滲透。兩個月之前,百度曾宣布文心大模型日調(diào)用量超過2億,近期,該調(diào)用量已超過5億!皟H僅兩個月,調(diào)用量發(fā)生這么大的變化,足見它背后代表了真實的需求,是有人在用、有人真的從大模型中獲益了,得到了價值。”