CNCC2023上,騰訊首席科學(xué)家、騰訊AI Lab及騰訊Robotics X實(shí)驗(yàn)室主任張正友發(fā)言指出,現(xiàn)在的大模型,只能預(yù)測(cè)下一個(gè)token,更像System 1,不管簡(jiǎn)單還是復(fù)雜問題,都是同樣快速響應(yīng),但不能實(shí)現(xiàn)復(fù)雜的推理。
在張正友看來(lái),“現(xiàn)在的大模型,學(xué)到的推理更多是‘套模板’的類推推理能力。為了實(shí)現(xiàn)復(fù)雜推理,需要另外的架構(gòu)來(lái)實(shí)現(xiàn)System 2。”
張正友進(jìn)一步介紹指出,基于文本的LLM不是完整的“世界模型”。在人與人的交互過(guò)程中,通過(guò)語(yǔ)言文字傳遞的信息量不到10%,更多地還包括表情、語(yǔ)氣以及表述語(yǔ)言的方式等。
“多模態(tài)大模型是通往AGI的必經(jīng)之路,文本的LLM需要其它模態(tài)來(lái)grounded。”張正友表示。在他看來(lái),“通向AGI的道路雖然是曲折的,但前途也是光明的。”