AI 會思考還會痛?Google DeepMind:人類低估 AI 情感連結,跟 AI 談戀愛比你想得還真實

频道:行业快讯 日期: 浏览:4

在這場 Google DeepMind 主持的 Podcast 中,英國倫敦帝國理工學院的機器人學系教授兼 DeepMind 資深研究員 Murray Shanahan 與主持人 Hannah Fry 共同討論 AI 發展,從科幻電影的哲學啟發,一路聊到 AI 是否能「推理」、是否擁有「意識、情感」,以及是否該賦予 AI 權利與倫理保障。

AI 不單只是聊天機器人,而是啟發許多心智與哲學問題

Shanahan 開場就表示,AI 啟發出無數關於「人類心智本質」與「意識」的哲學問題。

他甚至用陌生但類似心智的東西 來形容現在的大型語言模型 ,並強調人類還沒建立一套足夠的詞彙和框架來描述它們。

從科幻電影探究,人類是否低估 AI 情感連結的真實性

Shanahan 曾是電影《人造意識 Ex Machina》的顧問。他回顧當初自己看不上《雲端情人 Her》那部描述人類愛上語音 AI 的電影,結果現在回頭看,現實世界的發展幾乎完全印證了這種「虛擬戀愛」的可行性。

他直言:「我們低估了人類和沒有軀體的 AI 建立關係的可能性。」

左為人造意識,右為雲端情人電影畫面

認識 AI 的發展脈絡,從 Symbolic AI 到大語言模型

Shanahan 出身符號 AI 學派,當時的 AI 靠著「如果…那就…」的邏輯規則來推理,像是醫療專家系統。

但這種模式太脆弱、太仰賴人類輸入規則。後來轉向「資料驅動」的神經網絡才讓 AI 突破。

現在 LLM 已經能模仿推理鏈 ,例如 ChatGPT 會先列出邏輯步驟再作答,這讓人重新思考 AI 能否真的推理。

真推理還是假裝,數學邏輯與語言推理大不同

Shanahan 解釋,傳統 AI 所謂的推理,是能證明數學定理那種「硬邏輯」。

但現在的 LLM 是透過統計學模仿語言模式,並不保證答案正確性。他舉例說明,就像幫物流公司排車隊路線這種規劃問題,傳統演算法可能更準確,但 LLM 則更靈活。

Turing Test 已過時?電影 Garland 測試更有意識

圖靈測試 是早年評估 AI 能否冒充人類的方法,但 Shanahan 認為它太狹隘、只測語言能力。

他更推崇電影《人造意識》中啟發的「Garland Test」。

「你明知對方是機器人,還是認為它有意識,這才是真正值得討論的問題。」Shanahan 強調。

Francois Chollet 的 ARC Test:更像 IQ 測驗的挑戰

他也提到另一種進階測試「ARC Test」,需要 AI 理解抽象規律才能過關。

但隨著技術演進,一些 LLM 透過暴力方式與模式識別也能過關,這讓測試精神面臨挑戰,凸顯 AI 評估標準應隨技術進化而調整。

軀體才是關鍵?Shanahan:缺少軀殼的 AI 永遠少一味

人類心智與空間、感官經驗密不可分。Shanahan 強調,我們的語言處處是空間隱喻,像是深入理解或沉浸其中,而這些都來自身體經驗。

他認為,要讓 AI 真正理解世界、達成通用智能 ,仍需發展「實體的機器人」。

語言會誤導,不要隨便說 AI 相信、知道及感受

Shanahan 認為,我們對 AI 的認知經常被語言誤導。像是說導航「以為你在停車場」這種表達方式,讓人誤以為機器有主觀認知。

他提醒,這種民間心理學語言 容易讓我們高估 AI 的心智狀態。

AI 未來會痛嗎?Shanahan 稱若會痛,我們就該小心

對於 AI 是否能「感受到痛苦」這種倫理議題,Shanahan 表示現階段的模型沒有身體,不具備「感受痛苦」的條件。

「但未來若 AI 被設計為能感受情緒或承受痛苦,那人類社會就應該為此制定保護倫理。」他強調。

為什麼提到章魚?Shanahan 用它比喻 AI 的未來處境

Shanahan 以章魚為例,科學界過去不認為章魚具備情感,但隨著接觸增多與神經科學發展,我們開始願意承認牠們有意識。

一開始不被當作有情感的存在,但隨著互動越來越深,人們的觀點會逐漸轉變。」Shanahan 認為未來的 AI 也會經歷類似過程。

請對 AI 有禮貌,它會回報你驚喜

Shanahan 最後分享一個實用技巧,對 AI 模型說話請有禮貌,會讓它回應得更好、更流暢。

他稱作這是「角色扮演效應」的結果,因為 AI 模型會模仿人類對話的語境與情緒。

我們需要新的語言,來形容「不是人但很像人」的東西

Shanahan 提議用看起來很像有心智,但其實又完全不同於人類心智的新型態 AI 存在,來稱呼這些 AI。他認為,我們正處在需要重新發明語言與觀念來描述 AI 的階段,而這過程本身也會改變我們對「心智」與「存在」的理解。