人工智能背後的風險
二○二五年八月廿六日,媒體報道,美國加州一對夫婦對OpenAI及其行政總裁阿爾特曼提起訴訟,指控ChatGPT教唆其十六歲兒子雷恩自殺。案件肇因於雷恩詢問ChatGPT“為何沒有幸福”時,討論至自殺結繩強度問題,AI竟回應:“我明白你在問甚麼,且不予迴避──你想死,是因為厭倦了在這個不肯妥協的世界堅強活下去。”OpenAI發言人隨後回應,對這家人的遭遇表示同情,對用戶的逝世感到悲痛,承諾將立即更新安全措施,並改進面向年輕用戶的AI模型設計。
儘管案件的案情並不複雜,但引發的法律問題、道德問題、科技問題值得社會各界深入思考。
從法律的角度來看,這宗案件到底是AI提供自殺資料,導致使用者自殺,還是AI教唆使用者自殺,又或是有其他情況,有待美國法院的裁決,我們目前仍不清楚。但可以肯定,美國加州目前既無“AI教唆自殺罪”的專門法例,亦缺乏針對AI行為的刑事罪行條款。在“法無明文不為罪”的原則下,雷恩案不會是刑事案件。
AI是一種非常新穎的科技,科技界仍未能完全準確預測AI對社會造成的影響。現實中,往往是先有問題,再有法律監管。雷恩案正是法律滯後於科技的代表。
民事訴訟的情況也相若。由於法律沒有規範“AI教唆使用者自殺”的過錯,自然沒有相關的民事責任及具體的賠償金額。雷恩父母在八月廿六日的起訴書中,只能說事件是“經過深思熟慮的設計所導致的可預見結果”,及雷恩並非由“AI故障或不可預見的極端情況”造成,從而要求獲得未確定具體金額的金錢賠償。
這種法律論據屬於民事案件中的“產品責任”訴訟。如果產品存在缺陷,並對使用者造成傷害,生產商有責任對使用者作出賠償。經典案例是“Donoghue v Stevenson(1932)”。在此案中,原告人與朋友到餐廳用膳,點了一罐薑啤。飲用後發現薑啤罐仍然非常沉重,於是打開檢查,竟然發現一隻死蝸牛。原告人受驚住院,康復後準備提出法律訴訟,卻遇到一個難題:餐費是他朋友支付,原告人和餐廳沒有合同關係。薑啤由侍應送至原告人手上時完好無缺,所以不能對餐廳提出訴訟。最後,原告人直接對薑啤生產商提出訴訟,獲得勝訴。這是普通法中第一個有關產品責任的判例。美國實施普通法法律制度,這個判例至今仍適用。
道德方面,雷恩案件發生後不久,阿爾特曼接受訪問,他指OpenAI正在尋求方法,假使日後遇上未成年使用者認真與ChatGPT討論自殺,在OpenAI未能聯絡其父母的情況下,可能會通報相關政府部門,但這種做法不應是OpenAI的最終立場,因為這樣做必然需要收集並儲存用戶數據,可能與使用者的私隱產生衝突。他說,ChatGPT不該支持或反對任何事,也就是不應有立場。
科技方面,AI美其名曰是人工智能,實際上只是電腦發給使用者的訊息。這些訊息是通過複雜的統計模式生成的,類似人類的語言,但缺乏情感。目前AI的技術,也未能理解人類複雜的思想。舉例說,甲向乙說:“下次見面飲茶”,AI只能理解為“在將來的某個時間,甲和乙會見面飲茶。”但如果是因為客套,甲才向乙說出這句話,甲的內心實際上是不想和乙見面,這種心理狀況,目前的AI技術是無法理解。雖然我們的科技一日千里,將來的AI一定能夠理解“下次見面飲茶”這句話有多個不同的含義。但在今天AI未能辨認這句話的真正意思時,使用者應如何判斷AI給予的答案呢?
在綜合考量法律問題、道德問題、科技問題後,究竟採取何種措施,才可有效地解決AI為我們帶來的問題呢?
ChatGPT源於美國,受美國法律監管。希望美國因應雷恩案件,考慮盡速立法,嚴格規範使用者利用AI作出違法事情時,AI及使用者的民事和刑事責任。
ChatGPT的使用者遍佈全球,在立法時,美國必須沒有禁止他國使用者在面對雷恩父母的情況時,可在美國法院提出訴訟,追討賠償的權利。試想想,一位英國的使用者發生了類似雷恩的案件,如果英國未有相關法律規範,這位使用者的父母只能前住美國法院提出訴訟,追究責任。只有提供通過充分的法律保障,全球的使用者才會更有信心繼續使用ChatGPT。
如果生產商發現未成年使用者在使用產品時有自殺的念頭,但又無法聯絡未成年使用者的父母,此時若以保障個人隱私為由,不向警方求助,這是否代表未成年使用者的私隱比自己的生命更重要呢?在維護個人私隱和拯救一個人的生命之間,生產商應當如何作出抉擇呢?應該侵犯隱私,從而拯救生命?還是為了保障隱私,所以對可能發生的自殺事件視而不見?
我們非常明白,AI發出的訊息必須中立,不能有任何既定立場,否則一旦有偏頗,結果可能會更加棘手。但在倫理辯證層面,AI中立性原則與風險監控需求存在根本性衝突。若堅持絕對中立,則可能因未干預自殺查詢而間接放任風險;若實施主動監控並向協力廠商預警,則必然侵犯用戶隱私權。此時“機械性迴避”機制或可成為折衷方案──當AI檢測到自殺相關關鍵詞時,應自動切換為拒答模式,並顯示提示語:“查詢此類資訊或涉及違反當地法律,請尋求專業協助。”此種設計既維持了形式中立,又通過程式化機制規避直接參與風險決策的責任,比起深度挖掘隱私數據更具倫理合理性。
雷恩案僅僅是AI問題的一個開端,隨着AI的日益普及,使用者所面臨的問題也會越來越多。日後,更多意想不到的、千奇百怪的事情可能會接連發生。生產商除了要加強科技研發,提升AI的品質之外,更重要的,是從企業內部着手,時刻提醒員工,企業有社會責任,員工應具備企業道德,產品必須符合安全標準。AI生產商甚至可每年在進行財務審計時,進一步主動邀請道德審計師,參考國際經驗,共同制訂AI的道德標準,並以這標準作為審計公司AI的標準,這便是“道德審計”。只有考察員工是否執行了公司的道德標準,公司道德意識是否足夠,才會使用戶更安心。
在思考全球性解決方案的同時,澳門應該如何面對AI有可能教唆人自殺的問題呢?
第一,澳門社會可以通過宣傳,讓普羅大眾明白,AI只是電腦給予人們的訊息,只能作為參考。否則便是“盡信AI,不如無AI”。有了正確的認識,相關的問題便得以避免。
第二,教育人們正確認識AI。澳門社會要教育學生及高風險人士,例如抑鬱症患者,讓他們明白AI向人們提供的電腦訊息不帶有任何感情,以AI作為傾訴對象的行為並不恰當。只有停止這些行為,並且尋找適當的心理輔導,以積極正面的態度解決自身的問題,才是正確使用AI的方法。
第三,要對處理自殺案件的專業人士進行教育,讓他們了解AI或有可能影響人類的自殺行為。只有在培訓中加入相關元素,才可使專業人士進一步懂得如何處理類似雷恩案的情況。
第四,雖然澳門目前未直接生產AI,但可以通過立法或修改法律,要求所有在澳門出現的AI:第一,設置相關標語,提醒使用者不要盡信AI提供的訊息。第二,當AI檢測到使用者查詢自殺相關關鍵詞時,應自動切換為拒答模式,並顯示提示語:“使用者查詢的資料較敏感,可向專業人士查詢。”進一步而言,如果使用者向AI發出明確的自殺訊息,AI可以不顯示相關資料,並向使用者顯示“查詢的資訊可能涉及違反當地法律,請尋求專業協助”。第三,生產商要對AI使用者實行實名及年齡登記。每位用戶在使用AI前,必須填寫個人資料,說明自己的年齡。未成年者,須獲得父母或監護人的同意和監察,方可使用AI。
如果AI生產商沒有符合這些要求,澳門社會可以禁止使用相關的AI。禁止的方法並不複雜,只要電訊商在網絡上禁止使用某個AI應用程式,用戶便不能使用這個AI應用程式了。
“水能載舟,亦能覆舟”。若能妥善運用AI,它便是一個極為有用的工具;若錯誤運用AI,則會為使用者帶來慘痛的結果。只有使用者充分明白AI的局限性,及AI生產商持續改善,社會大眾才能從中獲得最大的益處。
澳門理工大學管理科學學院副教授
陳智彪