智通財(cái)經(jīng)APP獲悉,天風(fēng)證券發(fā)布研究報(bào)告稱,OpenAI5月14日春季發(fā)布會(huì)推出GPT-4的迭代版本—GPT-4o,該模型具備更強(qiáng)的實(shí)時(shí)語音功能和更快的運(yùn)行速度,并免費(fèi)向公眾開放。該行認(rèn)為此次OpenAI發(fā)布的GPT-4o在用戶的易用性、體驗(yàn)度上實(shí)現(xiàn)了大幅提升,隨著未來模型日漸升級(jí)迭代,對算力、互聯(lián)的需求將持續(xù),國內(nèi)光模塊廠商有望進(jìn)一步受益AI發(fā)展。推薦:中際旭創(chuàng)(300308.SZ)、天孚通信(300394.SZ)、新易盛(300502.SZ)、源杰科技(688498.SH)、博創(chuàng)科技(300548.SZ)、仕佳光子(688313.SH)等。
天風(fēng)證券觀點(diǎn)如下:
GPT-4o可在同一個(gè)神經(jīng)網(wǎng)絡(luò)中處理文本、語音和視覺信息
GPT-4o可接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像的任意組合輸出,從而用戶交互體驗(yàn)更自然簡單。而此前的ChatGPT語音模式由三個(gè)獨(dú)立模型組成,其輸入和輸出并非在同一神經(jīng)網(wǎng)絡(luò)中處理完成,從而丟失大量信息如無法直接觀察音調(diào)、背景噪音,無法表達(dá)情感等。
語音模式具備“實(shí)時(shí)”響應(yīng)功能,感知用戶情緒功能
GPT-4o的語音模式最快可在232毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,已經(jīng)接近人類在交談的響應(yīng)時(shí)間,用戶可與模型進(jìn)行真人聊天,在模型回應(yīng)過程中打斷、并提出更多要求,無需等待模型完成上一個(gè)問題回復(fù)后再提出新的問題。此外,GPT-4o可識(shí)別用戶聲音中展現(xiàn)的情感,并根據(jù)用戶需求來使用不同情感風(fēng)格的聲音。
GPT-4o將免費(fèi)開放,付費(fèi)用戶消息數(shù)量上限比免費(fèi)用戶多5倍
此前免費(fèi)用戶只能使用GPT-3.5,GPT-4o將對所有用戶免費(fèi)開放,免費(fèi)用戶的可發(fā)送消息數(shù)量達(dá)到上限則會(huì)被強(qiáng)制退回到3.5版本。付費(fèi)用戶可使用的消息數(shù)量上限比免費(fèi)用戶多5倍。
API效率更高、速度更快、費(fèi)用更低
相較于GPT-4Tubo,GPT-4oAPI速度提升2倍,費(fèi)用便宜50%,速率上限提升5倍,最高可達(dá)每分鐘1000萬token。
該行認(rèn)為此次OpenAI發(fā)布的GPT-4o在用戶的易用性、體驗(yàn)度上實(shí)現(xiàn)了大幅提升,隨著未來模型日漸升級(jí)迭代,對算力、互聯(lián)的需求將持續(xù),國內(nèi)光模塊廠商有望進(jìn)一步受益AI發(fā)展。
風(fēng)險(xiǎn)提示:行業(yè)競爭加劇;中美貿(mào)易摩擦升級(jí);原材料缺貨漲價(jià)影響超預(yù)期等。