OpenAI 最近發佈咗一份 有關 GPT-4o , 名為「系統卡」(System Card) 嘅報告,呢份研究文件概述咗公司喺推出最新模型前所進行嘅安全措施同風險評估。 GPT-4o 於今年五月公開推出。喺發布之前,OpenAI 聘請外部安全專家團隊進行測試,尋找模型中嘅潛在風險。

風險評估結果

根據 OpenAI 自家嘅評估框架, GPT-4o 嘅風險被評為「中等」。整體風險水平係根據四個主要類別中最高風險評級得出:網絡安全、生物威脅、說服力同模型自主性。除咗說服力被評為中等外,其他類別嘅風險都被認為係低。研究人員發現, GPT-4o 喺某些文本樣本中能夠比人類寫作更具說服力。

安全評估過程

OpenAI 發言人 Lindsay McCallum Rémy 表示,系統卡包含咗內部團隊嘅準備評估,並由 OpenAI 網站上列出嘅外部測試者進行,包括模型評估與威脅研究(METR)同 Apollo Research。

面對安全批評

呢唔係 OpenAI 首次發佈系統卡。之前 GPT-4、GPT-4 with vision 同 DALL-E 3 都曾經過類似嘅測試。不過,OpenAI 喺呢個關鍵時間點發佈系統卡,因為公司正面對來自員工同州參議員嘅不斷批評。就喺 GPT-4o 系統卡發佈前,科技新聞網《The Verge》報導咗一封由參議員 Elizabeth Warren 同眾議員 Lori Trahan 發表嘅公開信,要求解釋 OpenAI 嘅安全檢查和內部舉報處理。

潛在風險與法規

GPT-4o 喺美國總統選舉前夕推出,可能存在誤傳信息或被惡意利用嘅風險。加州參議員 Scott Wiener 正努力通過一項法案,以規範大型語言模型,要求公司為 AI 嘅有害使用負法律責任。如果法案通過,OpenAI 需要遵守州規定嘅風險評估。