中銀全幣種信用卡
2022年06月16日
第B03版:要聞
澳門虛擬圖書館

美專家稱機器人“有知覺”遭停職

AI爭議浮檯面

美專家稱機器人“有知覺”遭停職

【本報訊】據中央社三藩市十四日消息:谷歌(Google)內部針對AI(人工智能)技術是否具有人類意識的爭論曝光,讓AI伴隨的野心與風險浮上檯面。

谷歌駁斥“有知覺”

谷歌這家矽谷巨頭上周將一名工程師停職,因為他認為公司的AI系統LaMDA似乎“有知覺”,谷歌已經正式駁斥這種說法。

多位AI專家告訴法新社,他們也對LaMDA有意識的說法高度懷疑,但人類的本質和野心很容易模糊問題。

美國華盛頓大學語言學教授班德說:“問題在於……當我們遇到屬於我們語言的字串時,就會加以理解。”“我們在做的是想像一個不存在的頭腦。”

機器人模擬人溝通

LaMDA是一個使用先進模型、功能強大的系統,能夠用文字聊天來模擬人類溝通。

根據谷歌的解釋,該系統建立在一個模型上,模型觀察單字之間的關係,然後預測接下來會出現在句子或段落中的單字。

北卡羅來納大學教堂山分校電腦科學助理教授斯里瓦斯塔瓦說:“它在某種程度上仍然只是模式匹配。”“當然,你可以找到一些真正有意義的對話,可以生成一些非常有創意的文字,但在許多情況下它會迅速轉移。”

“對話中時有創意”

儘管如此,確定它們有沒有意識還是棘手問題,這通常得使用圖靈測試這樣的基準測試。

加拿大多倫多大學哲學教授金威爾說:“對於二○二二年我們這裡的任何AI來說,這實際上是一個相當容易通過的測試。”“更嚴格的測試是上下文測試,當前系統似乎會被上下文測試中的常識知識或背景想法等難倒,那是演算法很難處理的東西。”

AI議題或喜或憂

AI在科技界內外仍然是微妙議題,可能讓人驚訝,卻也讓人有些不舒服。

谷歌在聲明中迅速且堅定地淡化LaMDA是不是有自我意識的問題,“這些系統模仿了數百萬個句子中的交流類型,並且可以重複任何奇異的話題”。

2022-06-16 1 1 澳门日报 content_199226.html 1 美專家稱機器人“有知覺”遭停職 /enpproperty-->