ChatGPT火爆全球,各大科技公司紛紛加碼人工智能。不過聊天機器人工具這一新興技術不僅在準確性方面存在問題,還使得研發(fā)公司背負高昂的運營成本。
當?shù)貢r間2月22日,谷歌母公司Alphabet的董事長約翰·亨尼斯(John Hennessy)在路透社的采訪中表示,大型語言模型等人工智能的對話成本可能是傳統(tǒng)搜索引擎的10倍以上。他認為谷歌必須降低此類人工智能的運營成本,但這一過程并不容易,“最壞的情況是需要幾年時間。”
聊天機器人成本高昂
與傳統(tǒng)搜索引擎相比,聊天機器人的運營成本略顯高昂。
摩根士丹利的分析表示,谷歌去年共計3.3萬億次搜索,每次搜索的成本僅為0.2美分。而此前有分析師指出,ChatGPT的一次回復則會產生2美分的成本。
摩根士丹利預計,若將谷歌旗下聊天機器人Bard引入搜索引擎,并用其處理谷歌一半的搜索和提問,按照每次答案50詞計算,該公司2024年的成本可能會增加60億美元。
同樣的,專注于芯片技術的咨詢公司SemiAnalysis表示,受到谷歌的內部芯片Tensor Processing Units等的影響,將聊天機器人添加至搜索引擎中,可能會導致該公司額外花費30億美元。
搜索引擎You.com的首席執(zhí)行官Richard Socher則認為,添加聊天機器人、圖表、視頻及其他生成技術應用程序,將對應30%至50%的額外支出。不過他認為,“隨著時間的推移,這類技術會變得越來越便宜。”
聊天機器人的成本之所以高于傳統(tǒng)搜索,主要是因為其所需的算力(computing power)更大。分析師稱,此類人工智能依賴于價值數(shù)十億美元的芯片,將這項成本平攤到幾年的使用期中,單次使用成本會增加。此外電力消耗同樣會導致成本提高,還會為公司帶來碳排放指標方面的壓力。
聊天機器人式的人工智能與搜索引擎的工作原理并不相同。人工智能處理用戶問題的過程被稱為“推理(inference)”,它模擬人腦的“神經網絡”,根據此前的訓練數(shù)據推斷出答案。而傳統(tǒng)搜索引擎中,谷歌的網絡爬蟲會掃描互聯(lián)網并編制為信息索引。當用戶輸入搜索問題時,谷歌會提供存儲在索引中最相關的答案。
對于聊天機器人而言,其所依賴的語言模型規(guī)模越大,需要越多的芯片支持“推理”,對應的成本就更高昂。
以ChatGPT為例, 其技術來源是OpenAI旗下自然語言處理(NLP)模型GPT-3,該模型擁有1750億參數(shù),訓練成本花費約1200萬美元,是同類中參數(shù)數(shù)量最多、最昂貴的模型之一。
因此ChatGPT的成本居高不下。OpenAI的首席執(zhí)行官薩姆·奧特曼(Sam Altman)曾在推特上表示,ChatGPT與用戶對話的成本非常“驚人”,每次對話需要花費幾美分或更多。
有媒體根據微軟對單個100 AGPU的收費情況進行推斷,得出ChatGPT生成一個單詞的費用約為0.0003美元,若以每次回復50詞來計算,ChatGPT的一次回復需消耗1.5美分。
對此,亨尼斯表示,“你必須降低推理成本,最壞的情況需要幾年時間(解決這一問題)。”
科技公司設法降低成本
盡管聊天機器人為公司帶來額外花銷,但它同時也會帶來用戶增長。
微軟此前表示,新版必應推出的48小時內,超過100萬用戶注冊新版必應。第三方數(shù)據公司data.ai的分析顯示,必應應用程序的全球下載量在一夜之間猛增10倍,并躥升到蘋果App Store應用商店最受歡迎的免費應用榜中的第十位。
微軟的首席財務官艾米·胡德(Amy Hood)也告訴分析師,隨著新版必應上線,用戶數(shù)量增加及廣告收入帶來的好處已經超過了成本。她認為公司的毛利率其實處于增長狀態(tài)。
但也有人提出公司需要采取措施降低成本。一位資深技術高管在路透社的采訪中表示,要使幾百萬消費者使用人工智能,目前成本仍然過高。該高管表示,“這些模型非常昂貴,因此下一階段的重點是降低這些模型的訓練和推理的成本,以便用戶能夠在每個應用程序中使用它們。”
有技術專家認為,降低成本的方法之一是使用較小的人工智能模型,并將其應用于更簡單的任務。
Alphabet目前正在探索這條道路。其聊天機器人Bard基于公司旗下大型對話語言模型LaMDA的輕量化版本。相比標準版本,輕量化版本模型所需要的運算能力較小,能面向更多使用者開放,使其參與體驗。
也有知情人士透露,OpenAI的計算機科學家已經找到如何通過復雜代碼優(yōu)化推理成本的方法,并以此提高芯片運行效率。
除了降低成本,該公司還通過收取費用獲得營收。2月初,OpenAI宣布推出付費版ChatGPT Plus,定價每月20美元。付費版功能包括高峰時段免排隊、快速響應以及優(yōu)先獲得新功能等。