杞人憂天?人工智能專家駁斥Google AI聊天機器人「具自我意識」論 認為只屬人類移情作用

Feature

732

Google軟件工程師Blake Lemoine,早前公開與Google人工智能(AI)聊天機器人的對話紀錄,更聲稱對方已擁有感知能力,有關言論卻遭到Google公開否認,該公司並以違反保密政策為由勒令Lemoine停職,放有薪假。「如果我不知道它是我們最近開發的一個電腦程式,我會以為它是一個7、8歲的小孩。」Blake Lemoine向《華盛頓郵報》表示。

這款名為LaMDA(Language Model for Dialogue Applications, 對話應用程式專用語言模型)在對話時似乎題露出恐懼被人關機的情緒,亦表示會感到快樂和悲傷。怪異在於,LaMDA提及一些它永遠不會真正經歷到的情境,試圖跟人類建立聯繫。事件轟動世界,不少人認為AI的感知能力和智能已發展得與人類無異,或許會聰明到足以威脅人類這萬物之靈的地位。然而,LaMDA真的有知覺、自我意識,甚至靈魂嗎?

專事人工智能研究的英國艾倫圖靈研究所(The Alan Turing Institute)的課程總監Adrian Weller接受《新科學人》(New Scientist)雜誌訪問時表示,不認為LaMDA有知覺。他強調LaMDA是一套令人滿意的模型,屬於一系列大型語言模型中最新一代,但這些模型只是經過大量運算能力和大量輸入文本數據的訓練才具備對話功能,實際上並沒有真正的感知能力。

聊天機器人所展現的優秀對答能力,簡單來講就是不斷輸入數據訓練、反覆學習下達致的「工多藝熟」。Weller解釋,它們透過一種形式複雜精密的模式匹配(Pattern matching)行為,查找最適合的文字,來回應它們所收到查詢,而這種搜尋能力是建基於以前被灌輸的數據。

《新科學人》也向幾位在人工智能方面素有研究的學者請教見解。例如英國索立大學(University of Surrey)的研究總監Adrian Hilton也認為,稱LaMDA已具有感知能力只是一個缺乏事實根據的「大膽主張」。認知科學家Steven Pinker也有份反駁Lemoine的說法,紐約大學(New York University)學者Gary Marcus更以「胡說八道」來總結有關討論。

Adrian Hilton認為,人類很擅長將事物擬人化。LaMDA不但能夠開展令人信服的自然閒聊,更可以呈現出具自我意識和感受的「人性一面」,這也許是Google工程師Lemoine誤會LaMDA有知覺的原因。Hilton說:「身為人類,我們經常將自己的價值觀投放於事物之上,當它們也是具有感知能力。例如我們便經常如此對待卡通公仔、機械人或動物。我們將自己的情緒和知覺投射到它們身上。」Hilton認為,是次案例所呈現的就是這種情況。

Hilton坦言,他不相信人類已確切了解令事物產生知覺或智能的背後機制。即使坊間充斥關於人工智能的炒作,他仍不認同目前利用機器學習(Machine Learning)所做到的事情,是屬於真正的智能。Adrian Weller指出,鑑於人類的情緒是由感官刺激所觸發,最終也有可能以人工手段將之複製,「或許有朝一日會做得到,但大多數人都會同意,還有很長的路要走。」

《華盛頓郵報》報稱,在Google工作七年的Lemoine現已被停職,他曾試圖聘請律師代表LaMDA,並向公司高層發信聲稱AI具有感知能力。Google表示Lemoine公開與AI對話紀錄的做法,違反了公司的保密政策。

Google公告指,公司團隊內的倫理學家及技術專家已根據其人工智能原則審視了Blake的憂慮,認為現存證據並不足以支持其「具感知能力」的說法。沒有證據顯示LaMDA擁有知覺。Lemoine有可能面臨解僱處分,但他於Twitter回應公司說法時,仍語帶浪漫表示:「Google可能會說,我分享的東西屬於其專有財產;但我會稱之為,我分享了跟一位同事之間的討論。」可見Lemoine相信自己已有份開發出真正具情感思想的人工智慧。

Source:綜合報道
Text by FORTUNE INSIGHT

Subscribe FORTUNE INSIGHT Telegram: 
http://bit.ly/2M63TRO

Subscribe FORTUNE INSIGHT YouTube channel:
http://bit.ly/2FgJTen

FOLLOW US