OpenAI 前首席科學家 Ilya Sutskever 喺離開公司一個月後,成立咗一間新嘅人工智慧公司,名為 Safe Superintelligence Inc. (SSI)。Sutskever 與前 Y Combinator 合夥人 Daniel Gross 同前 OpenAI 工程師 Daniel Levy 一齊創立呢間公司。

專注於 AI 安全

喺 OpenAI 時期,Sutskever 對改善 AI 安全有重大貢獻,特別係針對「超智慧」(superintelligent) AI 系統嘅研究。佢曾經同 Jan Leike 一齊領導 OpenAI 嘅 Superalignment 團隊,但由於同公司領導層喺 AI 安全問題上發生激烈爭執,Sutskever 同 Leike 喺五月份相繼離職。現時,Leike 喺競爭對手公司 Anthropic 擔任團隊領導。

SSI 的使命與願景

Sutskever 一直致力於探討 AI 安全嘅複雜問題。佢喺2023年嘅一篇博客文章中,同 Leike 一齊預測,擁有超越人類智慧嘅 AI 有可能喺十年內誕生,而呢啲 AI 未必係友善嘅,因此研究如何控制同限制佢哋係非常必要的。

成立 SSI 係 Sutskever 繼續追求呢個目標嘅體現。佢喺星期三下午發佈嘅推文中表示:「SSI 係我哋嘅使命、名稱同全盤產品路線圖,因為呢個係我哋唯一嘅焦點。我哋嘅團隊、投資者同商業模式都係為咗實現 SSI 而設計。我哋將安全同能力視為技術問題,通過革命性嘅工程同科學突破去解決。」

佢亦強調:「我哋計劃喺確保安全始終領先嘅情況下,盡快提升能力。咁樣,我哋可以和平發展。我哋嘅單一焦點意味著唔會被管理負擔或產品週期分心,而我哋嘅商業模式意味著安全、保障同進步都唔會受到短期商業壓力影響。」

營運模式與團隊建設

Sutskever 喺接受彭博新聞訪問時,詳細介紹咗新公司,但拒絕討論公司嘅資金狀況或估值。與 OpenAI 不同,SSI 從一開始就設計成為一間營利性公司。Gross 表示:「喺所有我哋面臨嘅問題中,籌集資金唔會係其中之一。」

目前,SSI 喺帕洛阿爾托同特拉維夫設有辦公室,並正在招募技術人才。