FI專欄|AI 照見我們思考的惰性|崔添偉

Feature

124

微軟與卡內基美隆大學最近發表研究,指出知識型工作者若長期依賴生成式 AI,可能逐漸喪失批判性思考與解決問題的能力。報告顯示,愈依賴 Copilot、ChatGPT 等 AI 工具的使用者,愈傾向於驗證系統產出的內容,而非主動深入思考,逐步走向由系統主導決策。

然而,在我看來,這項研究所揭示的真正問題,並非 AI 令人的能力退化,而是我們長期忽視思考的責任。生成式 AI 並沒有讓人變笨,而是清晰地照出了誰早已習慣依賴模板、流程和既定答案生存。換句話說,AI 並非思考能力的破壞者,而是一面誠實的鏡子,映照出誰保有獨立思考的習慣,誰只是機械式地完成交付。

技術進步帶來的認知焦慮,並非首次發生。計算機普及後,我們不再手寫長篇信件;GPS 成為日常工具後,人們鮮少使用地圖與方向感;拼寫校正工具的普及,也降低了人們對文字拼寫的敏感度。然而,這些科技從未真正降低人類的整體智慧或認知水平。正如我們不會因為發明了汽車,就擔心人類雙腿的肌肉會退化一樣。科技演進的本質,應是釋放認知資源,幫助我們將注意力投入到更高層次的創造與決策之中。

在我任職的金融科技領域,AI 已廣泛融入日常工作:自動整理會議記錄、生成風險分析摘要,以及撰寫標準回應郵件等。這些工具的確大幅提升效率,但我同時也觀察到,有些同事開始習慣性地直接採用 AI 的輸出,不再深入分析內容的邏輯、語境和準確性。他們逐漸喪失的是判斷的動力,而非判斷的能力。

相比之下,我在社區擔任AI導師時接觸到的銀髮族學員,反而對 AI 表現出更多謹慎與自主的判斷。他們在使用 AI 生成祝福語時,總會多次確認語氣是否適切、表達是否自然,甚至主動提出問題,以確保 AI 的輸出符合自身期望。這種態度,反映出他們對科技的尊重與理性使用,與部分職場人士盲目接受 AI 產出的行為,形成鮮明對比。

這觀察使我進一步思考:造成所謂「AI 讓人變笨」現象的根源,並非年齡或技術的掌握程度,而是使用者本身對科技的心態與認知。當企業和教育機構未能提供充分的 AI 素養訓練,例如 prompt 設計思維、資訊交叉驗證技巧,以及內容二次加工能力時,員工與學生自然只能被動依賴系統的輸出結果,逐步放棄主動思考與判斷的責任。最終,這並非 AI 所導致的問題,而是教育和企業管理機制未能與時俱進。

生成式 AI 的普及,正在重新定義知識型工作的核心價值。未來職場上能夠持續創造價值的,不再是資訊的簡單重複執行者,而是具備提出問題、分析情境、整合資訊與驗證邏輯能力的人。Prompt 設計者(Prompt Engineers)將逐步取代傳統內容執行者(Content Executors)。誰能掌握工具的主導權,而非成為工具的附庸,誰才能在 AI 時代脫穎而出。

因此,我們需要調整的不僅僅是對 AI 的期待,更應該從人才培育與企業內部的訓練機制著手。學校和企業都必須更積極地教導人們如何與 AI 合作,包括培養提出問題的技巧、培養跨領域的整合與反思能力,以及強調內容驗證與再詮釋的重要性。

科技從來不會自動取代人類的思考能力。真正的風險,是我們自己選擇不再思考,卻又完全依賴科技給出的答案。AI 不會剝奪我們的創造力,但會清楚地考驗我們是否還有意願去創造;AI也不會破壞我們的判斷力,卻會映照出我們是否還願意去做判斷。

生成式 AI 的出現,並非人類智慧的終點,而是我們是否願意持續思考的分水嶺。在這條分水嶺上,誰能選擇提升自己的思考能力,誰就能在未來掌握更多的主動權。AI 不會讓人變蠢,但惰性會。我們當前所要面對的,正是這場對思考意願與認知態度的全面考驗。

Subscribe FORTUNE INSIGHT Telegram: 
http://bit.ly/2M63TRO

Subscribe FORTUNE INSIGHT YouTube channel:
http://bit.ly/2FgJTen

FOLLOW US