智通財經APP獲悉,前OpenAI聯合創(chuàng)始人Ilya Sutskever周三宣布了其新人工智能公司Safe Superintelligence(SSI)?!拔艺趧?chuàng)辦一家新公司,”Sutskever周三在X社交平臺上寫道,“我們將以一個重點、一個目標和一個產品,致力于追求安全的超級智能?!?/p>
據了解,Sutskever是OpenAI的首席科學官,于上月離開了OpenAI。OpenAI核心安全團隊“Superalignment”的負責人Jan Leike同日也宣布離職,加入競爭對手人工智能公司Anthropic,他們離職的原因是在如何處理人工智能安全問題上與OpenAI領導層發(fā)生了激烈爭執(zhí)。
OpenAI的Superalignment團隊專注于指導和控制人工智能系統(tǒng),但在Sutskever和Leike宣布離職后不久就解散了。
專注安全
據介紹,在這家新創(chuàng)辦公司中,Sutskever將繼續(xù)關注安全問題。Sutskever在一次采訪中表示,SSI旨在在一個純粹的研究組織內創(chuàng)建一個安全、強大的人工智能系統(tǒng),該組織近期無意銷售人工智能產品或服務。
“SSI是我們的使命、我們的名字,也是我們整個產品路線圖,因為這是我們唯一的關注點,”SSI的一個賬戶在X上發(fā)帖稱,“我們的單一重點意味著不會受到管理費用或產品周期的干擾,而我們的商業(yè)模式意味著安全、保障和進步都不受短期商業(yè)壓力的影響。”
Sutskever拒絕透露SSI的財務支持者,也拒絕透露他籌集了多少資金。Sutskever與前蘋果(AAPL.US)人工智能和搜索業(yè)務的Daniel Gross和前OpenAI的Daniel Levy共同創(chuàng)辦了這家公司。該公司在加州帕洛阿爾托和特拉維夫都設有辦事處。
正如公司名稱所強調的那樣,Sutskever將人工智能安全作為首要任務。當然,關鍵在于確定是什么讓一個人工智能系統(tǒng)比另一個更安全,或者說什么是真正的安全。Sutskever目前對此含糊其辭,不過他確實表示,這家新合資企業(yè)將努力通過在人工智能系統(tǒng)中實現工程突破來實現安全,而不是依靠應用于該技術的護欄。他表示:“我們所說的安全,是指像核安全這樣的安全,而不是‘信任和安全’那樣的安全?!?/p>
考慮到Sutskever在人工智能行業(yè)中近乎神話般的地位,幾個月來,圍繞其地位的不確定性一直是硅谷關注的焦點。作為一名大學研究員,后來又成為谷歌(GOOGL.US)的科學家,他在開發(fā)人工智能的一些關鍵進展中發(fā)揮了重要作用。他在OpenAI早期的參與幫助它吸引了對其成功至關重要的頂尖人才。Sutskever以其構建更大模型的主要倡導者而聞名,這一策略幫助這家初創(chuàng)公司超越了谷歌,并被證明對ChatGPT的崛起至關重要。
在去年年底OpenAI的戲劇性事件之后,人們對Sutskever計劃的興趣進一步增強。他仍然拒絕對去年OpenAI董事會發(fā)生的事件透露太多。當被問及他與OpenAI CEO奧特曼的關系時,Sutskever只說“很好”,他表示奧特曼“大致”了解這家新公司。關于他過去幾個月的經歷,他補充道,“這很奇怪。我不知道我是否能給出比這更好的答案。”
在某種程度上,SSI是對最初OpenAI概念的回歸:一個研究組織試圖建立一種通用人工智能,在許多任務上可以與人類匹敵,甚至超越人類。但隨著為計算能力籌集巨額資金的需求變得明顯,OpenAI的結構也在隨之演變。這導致該公司與微軟(MSFT.US)建立了緊密的合作關系,并推動了其生產創(chuàng)收產品的努力。所有主要的人工智能參與者都面臨著同樣的難題,隨著人工智能模型的規(guī)模繼續(xù)以指數級的速度增長,他們需要為不斷擴大的計算需求付費。
但這樣的經濟現實讓SSI成為投資者的一場冒險,他們會押注于Sutskever和他的團隊將取得突破,從而使其相對于擁有更大團隊和領先優(yōu)勢的競爭對手占據優(yōu)勢。這些投資者將投入資金,但并不期望在此過程中創(chuàng)造出有利可圖的熱門產品。而且,SSI所希望實現的目標是否可能實現,這一點目前尚不清楚。
盡管如此,鑒于其創(chuàng)始團隊的卓越背景和該領域的濃厚興趣,SSI在籌集資金方面可能不會遇到太大困難。Gross表示:“在我們面臨的所有問題中,融資不會是其中之一?!?/p>