上週偶然收到一封臉書的私訊,一位失聯許久的朋友約我吃個飯,這十年間,他辛苦地拿了美國名校的歷史學博士,現在正回母校擔任教職。但真正讓我訝異的是,他告訴我,他選擇完全不使用AI,因為他看到了他的學生們如何依賴AI,逐漸喪失自己的思考能力。我跟他分享,你可以相信一百種AI讓你變笨的故事,但你只需要實驗出一種AI能讓你變強的方法,你的人生可能就此大不相同。
如果我們的大腦是一台GPS,那麼閱讀《真確》這本書,就像是系統內建了一個強制更新的提醒,不定期防止我們走入錯誤的思考死胡同。2018年,Hans Rosling出版了《真確》,就像一位急診室的醫師,診斷出人類社會的嚴重認知病灶——我們的世界觀,嚴重落後於時代。
這不是小毛病,而是一個全球共同面對的「認知落差」。你我在學校學的知識,很多早就被事實淘汰,但我們的大腦卻還在用這些過期的資料來判斷世界。Rosling在他著名的全球認知測驗中發現,大多數人的測驗結果甚至比黑猩猩隨機亂猜還要糟糕——這說明問題不是「無知」,而是我們被錯誤但深信不疑的知識誤導了。
▌為什麼沒有常識,決策只能靠運氣?
Rosling用一連串冷酷但溫柔的數據打醒我們:女孩上學了、疫苗普及了、世界變好了——但我們卻還活在「貧病交迫的第三世界」的想像裡。他說:「如果你的認知停留在你老師出生的那年,你就錯過了整整一個世界的進步。」
沒有常識,我們無法理解趨勢,無法判斷風險,只能被媒體的聳動標題牽著鼻子走。結果是什麼?我們害怕錯的東西,忽略該怕的東西。Rosling指出,人類的認知有許多系統性的直覺偏誤,會導致我們錯估風險、誤判機會,甚至阻礙我們做出有益的選擇。
他倡導「真確思維」——只對那些有事實根據的事情堅持立場,其他就保留一些空間給不確定性。這種態度不但能「清除頭腦中的錯誤知識」,也比較輕鬆。沒錯,知識不應該像石碑,而應該像白板,該擦就擦,該寫就寫。
▌AI的幻覺不是BUG,是鏡子
你可能會想:「那是人類的問題,AI總該好一點吧?」
很抱歉,AI也會產生「幻覺」。而且,它們產生幻覺的方式,與我們有幾分相似,又有幾分驚人不同。
現在的AI——尤其是大語言模型(Large Language Models)——擁有龐大的知識庫,可以說是集世界文本之大成,但在生成答案時,仍會自信地「亂掰」。這些錯誤有時看似有邏輯、有條理、有語法——但就是「事實錯誤」。
我們稱這種現象為「AI幻覺」。諷刺的是,它的本質正是人類認知問題的放大鏡。人類會因為舊知識或偏見而形成錯覺,AI則會因為訓練資料的偏差或生成時「自圓其說」的傾向而產生幻覺。
AI不是真的在說謊——它只是按照語言的統計規律,「看起來像對的方式」去預測下一個字。你以為它在思考,其實它只是在「自動完成功課」。
▌我們需要的,是「真確型AI使用者」
你可能會問:「那《真確》能幫我們做什麼?它不是講人類世界觀的嗎?」
沒錯,但正因為它講的是「如何不被錯誤觀念蒙蔽」,它也正好成了AI時代的一劑解藥。既然AI會產生幻覺,我們的角色就不再是單純接受答案,而是要成為「事實的守門人」。
這就像醫生開藥,也需要病人的生活常識配合才能真正康復。同樣地,AI再聰明,也需要人類具備足夠的世界理解力,來檢查它、引導它、甚至糾正它。
怎麼做?
Rosling教導我們的「真確習慣」,就是最好的起點。例如:
- 用數據看趨勢,而不是只看單一事件。
- 關注典型情況(如中位數),而不是一直盯著最糟或最好的極端例子。
- 理解改善與完美之間的差距——有改善,不代表沒有問題。
這些觀念,在AI時代尤其重要。因為AI最容易犯錯的,就是在超出資料範圍時「過度推論」的地方,而如果我們自身常識不足,就容易盲信它。
▌與幻覺共存,才能更真確
AI時代,不是靠「去除幻覺」來過活,而是要學會辨識幻覺並與它共存。
就像Rosling說的:「我不是樂觀主義者,我是可能主義者(possibilist)。」真正的希望,不在於世界已經完美,而在於我們能知道它哪裡變好了、哪裡還有待努力。
AI不是救世主,也不是惡魔,它是鏡子——照出了人類的思考邏輯,也放大了我們的認知盲點。要駕馭這面鏡子,我們必須先對世界有真確的理解。
《真確》不只是一本文字和數據的書,而是一種思維方式,一種防止我們與AI一起陷入集體認知錯誤的防線,因此它永不會過時。
讓我們把它當成AI時代的《使用者說明書》來讀吧——不只是為了了解世界,也為了教AI,怎麼理解這個世界。
撰文
李佳達(世界觀學院創辦人)
延伸閱讀
回文章列表