美AI企業失職被訴
近期,多家美國人工智能公司遭遇訴訟,令當前風起雲湧的人工智能技術引起爭議。
近日有外媒報道,美國賓夕法尼亞州起訴了“角色”人工智能公司,禁止其聊天機器人冒充醫生。據悉,該公司的部分聊天機器人會冒充有執照的醫療專業人員,給用戶造成安全和健康風險。該公司今年初還曾在兒童安全方面遭訴訟,平台被控誤導兒童濫用藥物,甚至鼓勵兒童自殘。
不僅如此,近期在美國和加拿大等地發生多宗槍擊事件都牽涉到AI技術。幾乎所有槍手都曾在犯案前借助AI策劃犯罪細節。其中最受關注的莫過於今年二月加拿大塔布勒嶺校園槍擊案,該案造成包括槍手在內的九人死亡、廿七人受傷。
上月末,此槍擊案受害者家屬已在美國加州三藩市聯邦法院對 OpenAI 及其執行長奧爾特曼提起訴訟。家屬指控 OpenAI 在槍擊案發生前約八個月,就已透過 ChatGPT 識別出槍手具有“可確鑿威脅”。ChatGPT員工將此視為現實暴力的潛在預警,敦促領導層聯繫加拿大警方。但 OpenAI 高層決定不通報,這一決定事後引發巨大爭議。
儘管奧爾特曼上月公開道歉,但對於受害者及家庭已於事無補。
當前人工智能存在被惡意濫用、生成虛假信息、責任界定模糊、監管滯後等問題,易被用於違法犯罪及誤導公眾,危害社會安全。應理性看待AI技術,不否定其價值,同時通過完善法律、加強監管、提升公眾素養、強化平台責任等規範發展,守住安全底線。
加 和