OpenAI發佈新安全指南
董事會可否決高風險人工智能
【本報訊】據中新網十九日消息:彭博社報道,當地時間十八日,美國人工智能公司OpenAI在其網站上公佈一項安全指南,加強其內部安全流程,並賦予董事會對高風險人工智能的否決權。
據報道,當天,OpenAI發表一系列安全指南,闡釋公司計劃如何應對最強大人工智能(AI)系統可能引起的極端風險。
確定安全後才運用
在該指南下,OpenAI只會在確定最新技術的安全性之後才會開始運用。公司將成立一個顧問團隊以審核安全報告,再轉交公司高層和董事會。雖然公司領導負責做決策,董事會可推翻決定。
OpenAI在今年十月宣佈成立“備災小組”,並會持續評估它的AI系統在網絡安全、化學威脅、核威脅和生物威脅等四大範疇的表現,同時減低科技可能帶來的任何危害。
防危害經濟與人類
具體來說,公司檢查的是定義為:能造成上億美元經濟損失,或導致許多個人受傷害或死亡的“災難性”風險。
“AI本身沒有好壞,我們正在塑造它。”領導“備災小組”的馬德里表示,他的團隊會每月提交報告給內部新成立的安全顧問團隊,再由阿爾特曼與公司董事會判斷分析團隊所提交的建議。
馬德里希望,其他公司能利用OpenAI的指引,來評估旗下AI模型的潛在風險。
今年三月,包括馬斯克、蘋果聯合創始人沃茲尼亞克在內的一千多名人工智能專家和行業高管簽署了一份公開信,他們在公開信中呼籲暫停高級人工智能開發,直至此類設計的共用安全協議經由獨立專家開發、實施和審核。