首頁|必讀|視頻|專訪|運營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|元宇宙|博客|特約記者
手機|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計算|芯片|報告|智慧城市|移動互聯(lián)網(wǎng)|會展
首頁 >> 人工智能 >> 正文

智源推出大模型全家桶及全棧開源技術(shù)基座新版圖

2024年6月14日 15:03  CCTIME飛象網(wǎng)  

2024年6月14日,第六屆“北京智源大會”在中關村展示中心開幕。

北京智源大會是智源研究院主辦的“AI內(nèi)行頂級盛會”,以“全球視野、思想碰撞、前沿引領”為特色,匯聚海內(nèi)外研究者分享研究成果、探尋前沿知識、交流實踐經(jīng)驗。2024北京智源大會邀請到了圖靈獎得主姚期智,OpenAI、Meta、DeepMind、斯坦福、UC Berkeley等國際明星機構(gòu)與技術(shù)團隊代表,以及百度、零一萬物、百川智能、智譜AI、面壁智能等國內(nèi)主流大模型公司CEO與CTO,匯聚了200余位人工智能頂尖學者和產(chǎn)業(yè)專家,圍繞人工智能關鍵技術(shù)路徑和應用場景展開精彩演講和尖峰對話。

開幕式由智源研究院理事長黃鐵軍主持。

智源研究院院長王仲遠做2024智源研究院進展報告,匯報智源研究院在語言、多模態(tài)、具身、生物計算大模型的前沿探索和研究進展以及大模型全棧開源技術(shù)基座的迭代升級與版圖布局。

王仲遠表示,現(xiàn)階段語言大模型的發(fā)展已經(jīng)具備了通用人工智能非常核心的理解和推理能力,并且形成了一條以語言大模型為核心對齊和映射其他模態(tài)的技術(shù)路線,從而讓模型具備了初步的多模態(tài)理解和生成能力。但這并不是讓人工智能感知、理解物理世界的終極技術(shù)路線,而是應該采取統(tǒng)一模型的范式,實現(xiàn)多模態(tài)的輸入和輸出,讓模型具備原生的多模態(tài)擴展能力,向世界模型演進。未來,大模型將以數(shù)字智能體的形態(tài)與智能硬件融合,以具身智能的形態(tài)從數(shù)字世界進入物理世界,同時,大模型這一技術(shù)手段可為科學研究提供新的知識表達范式,加速人類對微觀物理世界規(guī)律的探索與研究突破,不斷趨近通用人工智能的終極目標。

智源語言大模型

全球首個低碳單體稠密萬億語言模型Tele-FLM-1T

針對大模型訓練算力消耗高的問題,智源研究院和中國電信人工智能研究院(TeleAI)基于模型生長和損失預測等關鍵技術(shù),聯(lián)合研發(fā)并推出全球首個低碳單體稠密萬億語言模型 Tele-FLM-1T。該模型與百億級的52B版本,千億級的102B版本共同構(gòu)成Tele-FLM系列模型。

Tele-FLM系列模型實現(xiàn)了低碳生長,僅以業(yè)界普通訓練方案9%的算力資源,基于112臺A800服務器,用4個月完成3個模型總計2.3Ttokens的訓練,成功訓練出萬億稠密模型Tele-FLM-1T。模型訓練全程做到了零調(diào)整零重試,算力能效高且模型收斂性和穩(wěn)定性好。目前,TeleFLM系列模型已經(jīng)全面開源了52B版本,核心技術(shù)(生長技術(shù)、最優(yōu)超參預測)、訓練細節(jié)(loss曲線、最優(yōu)超參、數(shù)據(jù)配比和Grad Norm等)均開源,期望技術(shù)開源可以對大模型社區(qū)產(chǎn)生有益促進。Tele-FLM-1T版本即將開源,希望可以為社區(qū)訓練萬億稠密模型提供一個優(yōu)秀的初始參數(shù),避免萬億模型訓練收斂難等問題。

Tele-FLM-52B 版本開源地址 https://huggingface.co/CofeAI/Tele-FLM

Tele-FLM-Chat 試用(純模型單輪對話版)地址https://modelscope.cn/studios/FLM/ChatFLM

在基礎模型的性能方面:BPB 顯示,英文能力上,Tele-FLM-52B接近Llama3-70B,優(yōu)于 Llama2-70B和Llama3-8B;中文能力上,Tele-FLM-52B 為開源最強,優(yōu)于 Llama3-70B 和 Qwen1.5-72B。在對話模型性能方面:AlignBench評測顯示,Tele-FLM-Chat(52B)已經(jīng)達到GPT-4 中文語言能力的96%,總體能力達到GPT-4 的80%。

通用語言向量模型BGE系列

針對大模型幻覺等問題,智源研究院自主研發(fā)了通用語義向量模型BGE(BAAI General Embedding)系列,基于檢索增強RAG技術(shù),實現(xiàn)數(shù)據(jù)之間精準的語義匹配,支持大模型調(diào)用外部知識的調(diào)用。自2023年8月起,BGE模型系列先后進行了三次迭代,分別在中英文檢索、多語言檢索、精細化檢索三個任務中取得了業(yè)內(nèi)最佳的表現(xiàn),綜合能力顯著優(yōu)于OpenAI、Google、Microsoft、Cohere等機構(gòu)的同類模型。目前,BGE模型系列下載總量位列國產(chǎn)AI模型首位,并被HuggingFace、Langchain、Llama Index等國際主流AI開發(fā)框架以及騰訊、華為、阿里、字節(jié)、微軟、亞馬遜等主要云服務提供商集成,對外提供商業(yè)化服務。

二、智源多模態(tài)大模型

原生多模態(tài)世界模型Emu 3

行業(yè)現(xiàn)有的多模態(tài)大模型多為對于不同任務而訓練的專用模型,例如Stable Diffusion之于文生圖,Sora之于文生視頻,GPT-4V之于圖生文。每類模型都有對應的架構(gòu)和方法,例如對于視頻生成,行業(yè)普遍參照Sora選擇了DiT架構(gòu)。但是現(xiàn)有模型的能力多為單一分散的能力組合,而不是原生的統(tǒng)一能力,例如目前Sora還做不到圖像和視頻的理解。

為了實現(xiàn)多模態(tài)、統(tǒng)一、端到端的下一代大模型,智源研究院推出了Emu3原生多模態(tài)世界模型。Emu3采用智源自研的多模態(tài)自回歸技術(shù)路徑,在圖像、視頻、文字上聯(lián)合訓練,使模型具備原生多模態(tài)能力,實現(xiàn)了圖像、視頻、文字的統(tǒng)一輸入和輸出。Emu3從模型訓練開始就是為統(tǒng)一的多模態(tài)生成和理解而設計的,目前具備生成高質(zhì)量圖片和視頻、續(xù)寫視頻、理解物理世界等多模態(tài)能力。簡單來說,Emu3既統(tǒng)一了視頻、圖像、文字,也統(tǒng)一了生成和理解。值得注意的是,Emu3在持續(xù)訓練中,經(jīng)過安全評估之后將逐步開源

輕量級圖文多模態(tài)模型系列Bunny-3B/4B/8B

為適應智能端側(cè)的應用,智源研究院推出了輕量級圖文多模態(tài)模型系列 Bunny-3B/4B/8B,該模型系列采用靈活架構(gòu),可支持多種視覺編碼器和語言基座模型。多個榜單的綜合結(jié)果表明,Bunny-8B 的多模態(tài)能力可達到 GPT-4o 性能的 87%。目前,Bunny 模型參數(shù)、訓練代碼、訓練數(shù)據(jù)已全部開源。

開源地址:https://github.com/BAAI-DCAI/Bunny

三、智源具身大模型

智源研究院具身智能創(chuàng)新中心在機器人泛化動作執(zhí)行和智能大小腦決策控制等方面取得了多項世界級突破性成果。

全球領先真機實驗成功率突破95% 的泛化抓取技術(shù)ASGrasp

在具身智能通用抓取能力方面,針對跨任意形狀和材質(zhì)的泛化難題,智源率先突破95%的真機實驗成功率,從而實現(xiàn)了全球領先的商業(yè)級動作執(zhí)行水平。借助這項技術(shù),即使在復雜光線透射、反射的情況下,我們的機器人依然能夠準確感知包括透明、高反光物體的形狀和姿態(tài),并預測出高成功率的抓取位姿。

分級具身大模型系統(tǒng)之能反思、可隨機應變的鉸接物體操作大模型系統(tǒng)SAGE

在分級具身大模型系統(tǒng)方面,智源研發(fā)了能夠從失敗中重思考、再嘗試的鉸接物體操作大模型系統(tǒng)SAGE。該系統(tǒng)有效結(jié)合了三維視覺小模型對空間幾何的精確感知能力和通用圖文大模型的通用物體操作知識,使大模型驅(qū)動的機器人能夠在任務執(zhí)行失敗時能夠重新思考并再次嘗試新的交互方式,實現(xiàn)了傳統(tǒng)機器人技術(shù)無法企及的智能性和魯棒性。

分級具身大模型系統(tǒng)之全球首個開放指令六自由度拿取放置大模型系統(tǒng)Open6DOR

在分級具身大模型系統(tǒng)方面,智源還研發(fā)了全球首個能做到開放指令控制六自由度物體拿取放置的大模型系統(tǒng)Open6DOR。該系統(tǒng)不僅像谷歌RT系列大模型一樣按照自然語言指令中的要求將物體放到指定位置,還能夠進一步對物體的姿態(tài)進行精細化控制。該項技術(shù)極大地提高了具身操作大模型的商業(yè)應用范圍和價值。

全球首個端到端基于視頻的多模態(tài)具身導航大模型NaVid

在面向技術(shù)終局的端到端具身大模型層面,智源發(fā)布了全球首個端到端基于視頻的多模態(tài)具身導航大模型NaVid。該模型可直接將機器人視角的視頻和用戶的自然語言指令作為輸入,端到端輸出機器人的移動控制信號。不同于以往的機器人導航技術(shù),NaVid無需建圖,也不依賴于深度信息和里程計信息等其它傳感器信號,而是完全依靠機器人攝像頭采集的單視角RGB視頻流,并在只利用合成導航數(shù)據(jù)進行訓練的情況下,通過Sim2Real的方式,實現(xiàn)在真實世界室內(nèi)場景甚至是室外場景的zero-shot真機泛化,是一項勇敢而成功的前沿技術(shù)探索工作。

智能心臟超聲機器人

智源研究院聯(lián)合領視智遠研發(fā)了全球首個智能心臟超聲機器人,實現(xiàn)了全球首例真人身上的自主心臟超聲掃查,可解決心臟B超醫(yī)生緊缺,診斷準確率不高,標準化欠缺,效率低的難題;诔曈跋窈蜋C械臂的受力信息,智能心臟超聲機器人可在高速動態(tài)環(huán)境下,快速計算,提取心臟特征,實現(xiàn)了相當于自動駕駛L2、 L3 級的智能化水平。臨床驗證結(jié)果顯示,準確性上,智能心臟超聲機器人能和高年資醫(yī)生保持一致;穩(wěn)定性上,智能心臟超聲機器人更高;舒適性上,智能超聲機器人的力度可以控制在 4 牛以內(nèi),更舒適;效率上,智能超聲機器人實驗機可與人類醫(yī)生持平。

通用計算機控制框架Cradle

為實現(xiàn)通用計算機控制,智源研究院提出了通用計算機控制框架Cradle,讓智能體像人一樣看屏幕,通過鼠標、鍵盤完成計算機上的所有任務。Cradle 由信息收集、自我反思、任務推斷、技能管理、行動計劃以及記憶模塊等 6 個模塊組成,可進行 “反思過去,總結(jié)現(xiàn)在,規(guī)劃未來”的強大決策推理。不同于業(yè)界其他方法,Cradle不依賴任何內(nèi)部API實現(xiàn)了通用性。目前,智源研究院與昆侖萬維研究院等單位合作,在荒野大鏢客、星露谷物語、城市天際線、當鋪人生4款游戲,以及Chrome、Outlook、飛書、美圖秀秀以及剪映5種軟件上,對Cradle進行了驗證。智能體不僅可以根據(jù)提示自主學習玩游戲,還能對圖片、視頻進行有想象力的編輯。

未來,智源將依托多模態(tài)大模型技術(shù)優(yōu)勢資源,聯(lián)合北大、清華、中科院等高校院所,銀河通用、加速進化等產(chǎn)業(yè)鏈上下游企業(yè),建設具身智能創(chuàng)新平臺,重點開展數(shù)據(jù)、模型、場景驗證等研究,打造具身智能創(chuàng)新生態(tài)。

四、智源生物計算大模型

全原子生物分子模型OpenComplex 2

此外,智源研究院,還探索了生成式人工智能應用于分子生物學中的應用。智源研究院研發(fā)的全原子生物分子模型OpenComplex 2,是世界領先的大分子結(jié)構(gòu)預測模型,能有效預測蛋白質(zhì)、RNA、DNA、糖類、小分子等復合物。在生物分子結(jié)構(gòu)預測領域國際競賽CAMEO(Continous Automated Model EvaluatiOn)中,OpenComplex 連續(xù)2年穩(wěn)居賽道第一,并獲得了CASP(Critical Assessment of Techniques for Protein Structure Prediction)15的RNA自動化賽道預測冠軍。

OpenComplex 2 是基于全原子建模的生命分子基礎模型,科研人員發(fā)現(xiàn)不僅可以預測大分子的穩(wěn)定結(jié)構(gòu),還初步具備預測分子多構(gòu)型以及折疊過程的能力;谶@樣的能力,生命科學家可以進一步探索蛋白質(zhì)的生物學功能。目前,智源已和研究伙伴在多項重要疾病上展開了研究,提供成藥性和分子機理研究。未來,基于OpenComplex的能力,我們有望能夠開啟生命科學研究的新紀元,為進一步揭示如HIV病毒、神經(jīng)元等復雜生命機理提供新的可能。

全球首個實時孿生心臟計算模型

智源研究院構(gòu)建了全球首個實時孿生心臟計算模型,可實現(xiàn)高精度的前提下生物時間/仿真時間比小于1,位于國際領先水平。

實時心臟計算模型是虛擬心臟科學研究的開端,是孿生心臟走向臨床應用的基礎;谶@一模型,智源將創(chuàng)新性地采用物理-數(shù)據(jù)雙驅(qū)動模型,融合第一性原理和人工智能方法,從亞細胞級、細胞級、器官級、軀干級仿真出一個“透明心臟”,且能根據(jù)患者的臨床數(shù)據(jù),構(gòu)建出反映患者的個性化生理病理的孿生心臟,從而進行藥物篩選、治療方案優(yōu)化、術(shù)前規(guī)劃等臨床應用。

目前,智源與北醫(yī)一院共同成立了“北京大學第一醫(yī)院-北京智源人工智能研究院心臟AI 聯(lián)合研究中心”,正在開展基于超聲影像的急性心肌梗死診斷、心衰的病理仿真、腎動脈造影等課題,與安貞醫(yī)院合作進行室速疾病的無創(chuàng)心外膜標測技術(shù)的前沿研究,與斯高電生理研究院開展藥物篩選平臺的開發(fā)與應用以及與清華長庚醫(yī)院和朝陽醫(yī)院合作開展肥厚性心肌病課題。

智源研究院作為創(chuàng)新性研究機構(gòu),引領人工智能前沿技術(shù)的發(fā)展,也發(fā)揮第三方中立、非營利機構(gòu)的優(yōu)勢,搭建公共技術(shù)基座,解決當前產(chǎn)業(yè)的痛點。

FlagOpen大模型開源技術(shù)基座2.0,模型、數(shù)據(jù)、算法、評測、系統(tǒng)五大版圖布局升級

為幫助全球開發(fā)者一站式啟動大模型開發(fā)和研究工作,智源研究院推出了面向異構(gòu)芯片、支持多種框架的大模型全棧開源技術(shù)基座FlagOpen 2.0,在1.0的基礎上,進一步完善了模型、數(shù)據(jù)、算法、評測、系統(tǒng)五大版圖布局,旨在打造大模型時代的 Linux。

FlagOpen 2.0可支持多種芯片和多種深度學習框架。目前,開源模型全球總下載量超 4755 萬次,累計開源數(shù)據(jù)集 57 個,下載量近9萬次,開源項目代碼下載量超 51 萬次。

開源地址:https://github.com/FlagOpen

一、支持異構(gòu)算力集群的大模型“操作系統(tǒng)”FlagOS

為滿足不斷攀升的大模型訓練和推理計算需求,應對大規(guī)模AI系統(tǒng)和平臺面臨的集群內(nèi)或集群間異構(gòu)計算、高速互聯(lián)、彈性穩(wěn)定的技術(shù)挑戰(zhàn),智源研究院推出了面向大模型、支持多種異構(gòu)算力的智算集群軟件棧 FlagOS。FlagOS融合了智源長期深耕的面向多元AI芯片的關鍵技術(shù),包括異構(gòu)算力智能調(diào)度管理平臺九鼎、支持多元AI異構(gòu)算力的并行訓推框架FlagScale、支持多種AI芯片架構(gòu)的高性能算子庫FlagAttention和FlagGems,集群診斷工具FlagDiagnose和AI芯片評測工具FlagPerf。FlagOS如同“操作系統(tǒng)”一樣,集異構(gòu)算力管理、算力自動遷移、并行訓練優(yōu)化、高性能算子于一體。向上支撐大模型訓練、推理、評測等重要任務,向下管理底層異構(gòu)算力、高速網(wǎng)絡、分布式存儲。目前,F(xiàn)lagOS已支持了超過50個團隊的大模型研發(fā),支持8種芯片,管理超過4600個AI加速卡,穩(wěn)定運行20個月,SLA超過99.5%,幫助用戶實現(xiàn)高效穩(wěn)定的集群管理、資源優(yōu)化、大模型研發(fā)。FlagOS的推出將為中國新一代智算中心的建設提供助力,顯著提升智算集群的能力水平,加速大模型產(chǎn)業(yè)的發(fā)展。

二、首個千萬級高質(zhì)量開源指令微調(diào)數(shù)據(jù)集 InfinityInstruct

高質(zhì)量的指令數(shù)據(jù)是大模型性能的“養(yǎng)料”。智源研究院發(fā)布首個千萬級高質(zhì)量開源指令微調(diào)數(shù)據(jù)集開源項目,首期發(fā)布經(jīng)過驗證的300萬條中英文指令數(shù)據(jù),近期將完成千萬條指令數(shù)據(jù)的開源。智源對現(xiàn)有開源數(shù)據(jù)進行領域分析,確保合理類型分布,對大規(guī)模數(shù)據(jù)進行質(zhì)量篩選保留高價值數(shù)據(jù),針對開源數(shù)據(jù)缺乏的領域和任務,進行數(shù)據(jù)增廣,并結(jié)合人工標注對數(shù)據(jù)質(zhì)量進行控制,避免合成數(shù)據(jù)分布偏差。當前開源的300萬條指令數(shù)據(jù)集已經(jīng)顯示出超越Mistral、Openhermes等的SFT數(shù)據(jù)能力。我們期待在提升到千萬級數(shù)據(jù)量級后,基座模型基于該指令微調(diào)數(shù)據(jù)集進行訓練,對話模型能力可達GPT-4 水平。

三、全球最大的開源中英文多行業(yè)數(shù)據(jù)集IndustryCorpus

為加速推進大模型技術(shù)的產(chǎn)業(yè)應用進程,智源研究院構(gòu)建并開源了IndustryCorpus中英文多行業(yè)數(shù)據(jù)集,包含總計3.4TB預訓練數(shù)據(jù)集,其中中文1TB,英文2.4TB,覆蓋18類行業(yè),分類準確率達到80%,未來計劃增加到30類。

智源通過構(gòu)建多行業(yè)數(shù)據(jù)算子,訓練行業(yè)分類和質(zhì)量過濾模型,實現(xiàn)高效的高質(zhì)量預訓練數(shù)據(jù)處理流程,并提出了一套提升精調(diào)數(shù)據(jù)集問題復雜度、解答思維鏈和多輪問答質(zhì)量篩選的方法,處理預訓練、SFT和RLHF數(shù)據(jù)。

為驗證行業(yè)數(shù)據(jù)集的性能表現(xiàn),智源訓練了醫(yī)療行業(yè)示范模型,對比繼續(xù)預訓練前的模型,客觀性能總體提升了20%,而經(jīng)過我們制作的醫(yī)療SFT數(shù)據(jù)集和DPO數(shù)據(jù)集的精調(diào)訓練,相對參考答案的主觀勝率達到82%,5分制多輪對話能力CMTMedQA評分達到4.45。

行業(yè)預訓練數(shù)據(jù)集:https://data.baai.ac.cn/details/BAAI-IndustryCorpus

醫(yī)療示范模型地址:https://huggingface.co/BAAI/AquilaMed-RL

醫(yī)療示范模型SFT數(shù)據(jù)集地址:https://huggingface.co/datasets/BAAI/AquilaMed-Instruct

醫(yī)療示范模型DPO數(shù)據(jù)集地址:https://huggingface.co/datasets/BAAI/AquilaMed-RL

四、支持多元AI異構(gòu)算力的并行訓練框架FlagScale實現(xiàn)首次突破

FlagScale首次在異構(gòu)集群上實現(xiàn)不同廠商跨節(jié)點RDMA直連和多種并行策略的高效混合訓練,成為業(yè)界首個在多元異構(gòu)AI芯片上同時支持縱向和橫向擴展兩階段增長模式的訓練框架。

FlagScale支持語言及多模態(tài)模型的稠密及稀疏訓練,可實現(xiàn)1M長序列大規(guī)模穩(wěn)定訓練和推理;支持基于國產(chǎn)算力的8x16B千億參數(shù)MoE語言大模型1024卡40天以上的穩(wěn)定訓練,實現(xiàn)端到端的訓練、微調(diào)與推理部署;支持不同架構(gòu)的多種芯片合池訓練,基于業(yè)界領先的異構(gòu)并行策略,可達到85%以上的混合訓練性能上界,與同構(gòu)芯片的模型訓練效果一致;適配8款國內(nèi)外不同芯片,可在不同集群進行規(guī)模訓練驗證,實現(xiàn)Loss逐位與收斂曲線嚴格對齊。

五、面向大模型的開源Triton算子庫

為更好地支持多元AI芯片統(tǒng)一生態(tài)發(fā)展,智源研究院推出了面向大模型的開源Triton算子庫,包括首個通用算子庫FlagGems和大模型專用算子庫FlagAttention,可基于統(tǒng)一開源編程語言,大幅提升算子開發(fā)效率,同時,面向多元芯片共享算子庫。

目前主流語言和多模態(tài)模型需要的127個算子,通用算子庫FlagGems已覆蓋66個,預計2024年底實現(xiàn)全覆蓋。大模型專用算子庫FlagAttention,包含6種高頻使用的且緊跟算法前沿的最新Attention類算子,為用戶提供編程范例,可自定義算子。

應用了專為 pointwise 類別的算子設計的自動代碼生成技術(shù),用戶只需通過簡潔的計算邏輯描述,即可自動生成高效的 Triton 代碼。該技術(shù)目前已經(jīng)應用于31個pointwise類算子,占算子庫整體的47%。同時,基于運行時優(yōu)化技術(shù),算子運行速度提升70%,保障了算子高性能。

六、FlagEval大模型評估全面升級

打造丈量大模型能力高峰的“尺子”乃是充滿挑戰(zhàn)的科研難題。智源秉持科學、權(quán)威、公正、開放原則,不斷推動評估工具和方法的迭代優(yōu)化。FlagEval大模型評估自2023年發(fā)布以來,已從主要面向語言模型擴展到視頻、語音、多模態(tài)模型,實現(xiàn)多領域全覆蓋,采用主觀客觀結(jié)合以及開卷閉卷綜合的考察方式,首次聯(lián)合權(quán)威教育部門開展大模型K12學科測驗,與中國傳媒大學合作共建文生視頻模型主觀評價體系。智源研究院已與全國10余家高校和機構(gòu)合作共建評測方法與工具,探索基于AI的輔助評測模型 FlagJudge,打造面向大模型新能力的有挑戰(zhàn)的評測集,包括與北京大學共建的HalluDial幻覺評測集、與北師大共建的CMMU多模態(tài)評測集、多語言跨模態(tài)評測集MG18、復雜代碼評測集TACO以及長視頻理解評測MLVU等,其中與北京大學共建的HalluDial是目前全球規(guī)模最大的對話場景下的幻覺評測集,有18000多個輪次對話,和14萬多個回答。

智源研究院牽頭成立了IEEE大模型評測標準小組P3419,與hugging face社區(qū)合作發(fā)布多個榜單,并將先進的評測數(shù)據(jù)以及裁判模型與新加坡IMDA合作,共同貢獻到AI Verify Foundation,以促進在大模型評估方法和工具上的國際合作。

大模型先鋒集結(jié)共探AGI之路

2024北京智源大會開幕式上,OpenAI Sora及DALL·E團隊負責人Aditya Ramesh,紐約大學助理教授謝賽寧,就多模態(tài)模型的技術(shù)路徑以及未來演化方向進行了觀點碰撞。

在智源研究院理事長黃鐵軍主持的Fireside Chat中,零一萬物CEO李開復,中國工程院院士、清華大學智能產(chǎn)業(yè)研究院(AIR)院長張亞勤,分別分享了對通用人工智能技術(shù)發(fā)展的趨勢判斷。

百度CTO王海峰做“大模型為通用人工智能帶來曙光”的報告分享。

在通往AGI的尖峰對話中,智源研究院王仲遠,百川智能CEO王小川,智譜AI CEO張鵬,月之暗面CEO楊植麟,面壁智能CEO李大海針對大模型的技術(shù)路徑依賴與突破、開放生態(tài)與封閉研究、商業(yè)模式探索等熱點話題,展開深度討論。

未來,智源研究院將繼續(xù)堅持原始技術(shù)創(chuàng)新,做前沿方向的路線探索,廣泛鏈接學術(shù)生態(tài),賦能產(chǎn)業(yè)發(fā)展。

編 輯:陳翔
聲明:刊載本文目的在于傳播更多行業(yè)信息,本站只提供參考并不構(gòu)成任何投資及應用建議。如網(wǎng)站內(nèi)容涉及作品版權(quán)和其它問題,請在30日內(nèi)與本網(wǎng)聯(lián)系,我們將在第一時間刪除內(nèi)容。本站聯(lián)系電話為86-010-87765777,郵件后綴為#cctime.com,冒充本站員工以任何其他聯(lián)系方式,進行的“內(nèi)容核實”、“商務聯(lián)系”等行為,均不能代表本站。本站擁有對此聲明的最終解釋權(quán)。
相關新聞              
 
人物
鄔賀銓:大模型下沉到手機 將激活萬億元規(guī)模手機產(chǎn)業(yè)
精彩專題
CES 2024國際消費電子展
2023年信息通信產(chǎn)業(yè)盤點暨頒獎禮
飛象網(wǎng)2023年手機評選
第24屆中國國際光電博覽會
CCTIME推薦
關于我們 | 廣告報價 | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號-1  電信與信息服務業(yè)務經(jīng)營許可證080234號 京公網(wǎng)安備110105000771號
公司名稱: 北京飛象互動文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復制、鏡像