近日,美國(guó)人工智能公司OpenAI在其春季發(fā)布會(huì)上展示了新一代旗艦生成模型GPT-4o。接入GPT-4o的ChatGPT語音助手,能和用戶實(shí)時(shí)對(duì)話且從語音中分辨用戶是否緊張,能通過前置攝像頭觀察用戶的面部表情并分析其情緒變化,能當(dāng)家教老師在線教孩子解數(shù)學(xué)題……能聽、能看、能說,且達(dá)到人類級(jí)別的響應(yīng)時(shí)間和表達(dá)能力,難怪不少網(wǎng)友驚呼:大模型從“呆瓜”變“真人”了!
作為人工智能大模型浪潮的領(lǐng)航者,OpenAI這次發(fā)布展現(xiàn)了人工智能大模型2個(gè)新趨勢(shì)。
一方面,大模型向應(yīng)用端需求進(jìn)化,商業(yè)價(jià)值更加凸顯。
在GPT-4o之前,用戶以語音模式與ChatGPT對(duì)話,要通過音頻轉(zhuǎn)文本、文本處理、文本轉(zhuǎn)音頻3個(gè)模型來實(shí)現(xiàn),平均延遲為2.8秒(GPT-3.5)和5.4秒(GPT-4)。GPT-4o是OpenAI的首個(gè)“端到端多模態(tài)大模型”,“o”代表omni,即“全能”的意思。它用一個(gè)模型同時(shí)處理文本、視覺和音頻的輸入輸出,所有輸入和輸出都由同一個(gè)神經(jīng)網(wǎng)絡(luò)完成,這讓它的反應(yīng)速度有了質(zhì)的提升。GPT-4o可以在短至232毫秒、平均320毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,與人類在對(duì)話中的反應(yīng)速度一致。這意味著高端人工智能產(chǎn)品更接近一個(gè)自然人,向自然人機(jī)交互邁出了重要一步。
GPT-4o在資源消耗和響應(yīng)速度上進(jìn)行了優(yōu)化,達(dá)到了與GPT-4 Turbo相當(dāng)?shù)哪芰,且降?0%的推理成本,打開了商業(yè)推廣的空間,更有利于在智能手機(jī)、智能電腦等個(gè)人終端上實(shí)現(xiàn)端側(cè)應(yīng)用。在消費(fèi)終端,用戶需求多樣化且變化迅速,需要提升交互界面的友好性和易用性,讓用戶獲得流暢、自然的交互體驗(yàn)。GPT-4o向具備情緒價(jià)值和自然交互能力的方向進(jìn)化,意味著大模型在端側(cè)的落地更進(jìn)一步,有望開啟下一波科技應(yīng)用和商業(yè)模式的革命,出現(xiàn)人工智能的國(guó)民級(jí)應(yīng)用。
另一方面,大模型技術(shù)迭代放緩,風(fēng)險(xiǎn)和不確定性增加。
OpenAI并沒有推出萬眾期待的GPT-5,這讓不少業(yè)內(nèi)人士推測(cè),OpenAI“用更多大數(shù)據(jù)煉更大模型”這條技術(shù)迭代路線可能已遇到瓶頸,國(guó)內(nèi)底層大模型加速追趕的窗口期或許到了。人們還期待GPT-5解決當(dāng)代大模型存在的最大問題——幻覺(胡編亂造),因?yàn)樗绊懘竽P偷目煽啃。這個(gè)問題也沒能在GPT-4o中獲得解決。有些網(wǎng)友就在試用中發(fā)現(xiàn)它會(huì)認(rèn)字不會(huì)寫字,如果讓它輸出一張含有特定文字內(nèi)容的手寫字體圖畫,它會(huì)寫出誰都看不懂的自造字。此外,OpenAI去年發(fā)布的GPT-4模型僅限付費(fèi)用戶使用,今年則宣布新模型GPT-4o用戶不用注冊(cè)、功能全部免費(fèi)。OpenAI開始卷起了免費(fèi),可能是GPT的用戶增長(zhǎng)和收入增長(zhǎng)都已經(jīng)碰到瓶頸。
從卷參數(shù)、卷文本長(zhǎng)度再到卷多模態(tài),大模型的競(jìng)爭(zhēng)一直很激烈。隨著當(dāng)前人工智能技術(shù)的快速發(fā)展,大模型技術(shù)路徑和商業(yè)模式的多樣性和不確定性增加,商業(yè)投資風(fēng)險(xiǎn)也隨之增加。對(duì)國(guó)產(chǎn)大模型來說,風(fēng)險(xiǎn)也是機(jī)遇。比如,全球首個(gè)三模態(tài)大模型其實(shí)是2021年7月中國(guó)發(fā)布的“紫東太初”。不管大模型賽道往什么方向去,中國(guó)都有基礎(chǔ),也應(yīng)該有信心打開更廣闊的應(yīng)用商業(yè)化空間。 (本文來源:經(jīng)濟(jì)日?qǐng)?bào) 作者:佘惠敏)