天風(fēng)證券:OpenAI發(fā)布新模型GPT-4o 光模塊廠商有望進(jìn)一步受益

OpenAI5月14日春季發(fā)布會(huì)推出GPT-4的迭代版本—GPT-4o。

智通財(cái)經(jīng)APP獲悉,天風(fēng)證券發(fā)布研究報(bào)告稱,OpenAI5月14日春季發(fā)布會(huì)推出GPT-4的迭代版本—GPT-4o,該模型具備更強(qiáng)的實(shí)時(shí)語音功能和更快的運(yùn)行速度,并免費(fèi)向公眾開放。該行認(rèn)為此次OpenAI發(fā)布的GPT-4o在用戶的易用性、體驗(yàn)度上實(shí)現(xiàn)了大幅提升,隨著未來模型日漸升級(jí)迭代,對算力、互聯(lián)的需求將持續(xù),國內(nèi)光模塊廠商有望進(jìn)一步受益AI發(fā)展。推薦:中際旭創(chuàng)(300308.SZ)、天孚通信(300394.SZ)、新易盛(300502.SZ)、源杰科技(688498.SH)、博創(chuàng)科技(300548.SZ)、仕佳光子(688313.SH)等。

天風(fēng)證券觀點(diǎn)如下:

GPT-4o可在同一個(gè)神經(jīng)網(wǎng)絡(luò)中處理文本、語音和視覺信息

GPT-4o可接受文本、音頻和圖像的任意組合作為輸入,并生成文本、音頻和圖像的任意組合輸出,從而用戶交互體驗(yàn)更自然簡單。而此前的ChatGPT語音模式由三個(gè)獨(dú)立模型組成,其輸入和輸出并非在同一神經(jīng)網(wǎng)絡(luò)中處理完成,從而丟失大量信息如無法直接觀察音調(diào)、背景噪音,無法表達(dá)情感等。

語音模式具備“實(shí)時(shí)”響應(yīng)功能,感知用戶情緒功能

GPT-4o的語音模式最快可在232毫秒的時(shí)間內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,已經(jīng)接近人類在交談的響應(yīng)時(shí)間,用戶可與模型進(jìn)行真人聊天,在模型回應(yīng)過程中打斷、并提出更多要求,無需等待模型完成上一個(gè)問題回復(fù)后再提出新的問題。此外,GPT-4o可識(shí)別用戶聲音中展現(xiàn)的情感,并根據(jù)用戶需求來使用不同情感風(fēng)格的聲音。

GPT-4o將免費(fèi)開放,付費(fèi)用戶消息數(shù)量上限比免費(fèi)用戶多5倍

此前免費(fèi)用戶只能使用GPT-3.5,GPT-4o將對所有用戶免費(fèi)開放,免費(fèi)用戶的可發(fā)送消息數(shù)量達(dá)到上限則會(huì)被強(qiáng)制退回到3.5版本。付費(fèi)用戶可使用的消息數(shù)量上限比免費(fèi)用戶多5倍。

API效率更高、速度更快、費(fèi)用更低

相較于GPT-4Tubo,GPT-4oAPI速度提升2倍,費(fèi)用便宜50%,速率上限提升5倍,最高可達(dá)每分鐘1000萬token。

該行認(rèn)為此次OpenAI發(fā)布的GPT-4o在用戶的易用性、體驗(yàn)度上實(shí)現(xiàn)了大幅提升,隨著未來模型日漸升級(jí)迭代,對算力、互聯(lián)的需求將持續(xù),國內(nèi)光模塊廠商有望進(jìn)一步受益AI發(fā)展。

風(fēng)險(xiǎn)提示:行業(yè)競爭加劇;中美貿(mào)易摩擦升級(jí);原材料缺貨漲價(jià)影響超預(yù)期等。

智通聲明:本內(nèi)容為作者獨(dú)立觀點(diǎn),不代表智通財(cái)經(jīng)立場。未經(jīng)允許不得轉(zhuǎn)載,文中內(nèi)容僅供參考,不作為實(shí)際操作建議,交易風(fēng)險(xiǎn)自擔(dān)。更多最新最全港美股資訊,請點(diǎn)擊下載智通財(cái)經(jīng)App
分享
微信
分享
QQ
分享
微博
收藏