Meta 近日更新咗 私隱政策 ,計劃使用用戶嘅公開資料訓練人工智慧 (AI) 模型。呢個消息引起咗廣泛嘅關注,特別係來自歐洲同英國嘅用戶。根據新 私隱政策 , Meta  旗下 Facebook 同 Instagram 用戶嘅公開帖子、圖片、評論同知識產權將被用嚟訓練 Meta AI 以及包括 Llama 大型語言模型 (LLM) 喺內嘅生成性 AI 模型。

歐洲監管機構嘅反應

歐洲同英國用戶得知呢個政策變動後,監管機構迅速作出反應,表達咗對私隱嘅擔憂。Meta 隨後暫停咗喺歐洲推行呢項政策,並表示呢個延遲意味著 Meta AI 暫時唔能夠喺歐洲推出。愛爾蘭數據保護委員會 (DPC) 喺回應中表示,呢個決定係經過同 Meta 進行緊密接觸後作出嘅,佢哋將繼續同其他歐盟數據保護機構一齊,繼續就呢個問題同 Meta 進行溝通。

美國用戶嘅情況

喺美國,Meta 一直以嚟都使用公共嘅 Facebook 同 Instagram 帖子嚟訓練佢嘅 Meta AI 聊天機器人。美國用戶並無選擇退出呢個計劃嘅機會。Meta 喺一份聲明中表示:「雖然我哋目前無退出功能,但我哋已經建立咗平台工具,讓人們可以刪除喺 Meta AI 聊天中的個人信息。」

業界反應與批評

Gartner 副總裁分析師 Avivah Litan 表示,Meta 嘅計劃令人擔憂,並認為 Meta 應該更加透明,並讓用戶更容易選擇退出。同時,佢亦指出,用戶同企業客戶對於模型擁有者使用佢哋嘅私人數據嚟訓練同改進模型嘅擔憂係合理嘅,Meta 目前嘅行動證明咗呢啲擔憂係有道理嘅。

Litan 認為,Meta 應該為使用用戶嘅數據而支付報酬,因為呢啲數據係用嚟提升公司嘅盈利能力。佢補充道,除咗蘋果之外,無一間大規模科技公司或技術巨頭允許用戶驗證佢哋有關安全同私隱嘅聲明,呢個行業基本上係基於「信任但唔驗證」嘅模式。

Meta 嘅回應

Meta 全球參與總監 Stefano Fratta 喺博客文章中回應咗呢啲批評,佢表示,Meta 嘅方法比業界其他同行更加透明,並提供咗更容易控制嘅選項。Fratta 強調,Meta 只會使用用戶選擇公開嘅內容嚟建立其基礎 AI 模型,並唔係用嚟識別特定個人或佢哋嘅信息。

爭議不斷

Meta 嘅私隱政策更新引發咗廣泛關注,特別係歐洲同英國用戶嘅反應。儘管監管機構已成功推遲咗政策嘅實施,美國用戶仍然面臨無法選擇退出嘅情況。隨著 AI 技術嘅發展,如何平衡數據使用同用戶私隱嘅問題將成為未來嘅重要課題。