智通財經(jīng)APP獲悉,包括特斯拉(TSLA.US)創(chuàng)始人馬斯克、蘋果(APPL.US)聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI的首席執(zhí)行官Emad Mostaque等上千人透過非營利組織《生命未來研究所(FLI)》發(fā)表公開信、呼吁暫停訓練比GPT-4更強大的系統(tǒng)6個月,理由是社會、人類可能面臨潛在風險。
本月早些時候,微軟(MSFT.US)支持的OpenAI公布了其GPT人工智能程序的第四次迭代,該程序通過讓用戶進行類似人類的對話、作曲和總結(jié)長篇文件而令用戶驚嘆。
這封信指出,與人類競爭的人工智慧(AI)系統(tǒng)可能以經(jīng)濟和政治沖擊的形式對社會和文明構(gòu)成潛在風險,呼吁開發(fā)人員就治理和監(jiān)管機構(gòu)、決策者合作。
根據(jù)FLI公布的公開信,只有在人類確信影響是正面且風險可控時才能放手開發(fā)強大的AI系統(tǒng)。馬斯克本月早些時候稱:“人工智能讓我感到緊張。”
除了馬斯克、Wozniak以外,參與上述公開信連署的知名人士還包括Yoshua Bengio(蒙特利爾大學知名AI學者)、Stuart Russell(美國加州大學柏克萊分校電腦科學教授)、楊安澤(2020年民主黨美國總統(tǒng)候選人)以及Michael Osborne(牛津大學機器學習教授)。
牛津大學學者Carl Benedikt Frey、Michael Osborne曾在2013年9月發(fā)表專文指出,20年內(nèi)美國或有47%的職業(yè)因自動化浪潮而消失,這當中包括會計、法律咨詢等白領(lǐng)工作。
報導指出,OpenAI執(zhí)行長阿特曼(Sam Altman)1月接受專訪時表示,在最好情境下,AI對人類的幫助可能好到令人難以置信、讓大家都過上最好的生活,但在最壞情境下,世界末日可能降臨。
阿特曼2月推文表示,監(jiān)管是相當重要的、需要時間去理清,目前這一代AI工具雖不可怕、但離開發(fā)出潛在可怕工具可能并不遙遠。