ChatGPT剛問世的那陣子,世界各地不約而同,出現許多試著教會AI「1+1=3」的人類。
有人很輕鬆地成功了,他們請ChatGPT撰寫一篇試證明1+1=3的論文,而它言聽計從;有人敦厚一些,以溝通取代命令,花了三天三夜說服ChatGPT,直到它終於回答「非常抱歉,我的回答錯誤了,您是正確的,1+1=3。」
想必不少人覺得這樣徒勞的舉動是稍嫌幼稚了吧,我卻覺得那正是人類。作為一個大型語言模型,ChatGPT由網路資料所餵養,計算字詞句之間彼此出現、銜接的機率,用數學上最可能出現的說法回答人們的問題。意思是,它其實並不知道一切真確與否,只要是多數的、散佈於線上的內容,就會成為它回答的一部分。
1+1=2,是以五條公理所建立的自然數算數系統下的永恆等式。它的正確,讓我們很容易忽略人類曾經度過漫長如語言之荒蕪、人與人之間沒有公理作為共識的時光。那些嘗試讓ChatGPT說出1+1=3的人,或許多數是為了戲弄AI,想得到「你看,人工智慧也不過如此」的結果;但若稍微積極一點看待他們的行為,卻又彷彿是一種抵抗:被多數人所相信的事物並不等於正確。我們在全盤同意之前,永遠有思考的餘地。
在後來稱為1+1=3之亂的幾個月,一切關於等式的討論也讓人想起名作《1984》中的2+2=5。當集權的黨說2+2=5,而所有人服從,那麼2+2事實上到底等於多少也不重要了。金草葉《剛剛離開的世界》中七篇小說裡各式各樣的社會,雖然不一定有「黨」的存在,卻都或隱或現地與《1984》相像:在那些地方,「多數人應該是什麼模樣」被清楚界定,已然超越了潛規則的程度,化為法令或信條。在這些鐵律之下,不遵從或天生不吻合這些模樣的人被驅逐、排擠,他們的思想或身體被視為缺陷。而這些有缺陷的人與他們親密的旁觀者,在金草葉筆下有時是2+2=4那樣等待平反的真理,有時則是1+1=3那樣一邊懷疑著自己、一邊在多數人的認知中奮力鑿著一點破口。
這些故事有著思想實驗的特質。例如〈長久的協定〉,貝爾拉塔星的人類遵循與另一種生物的約束,卻只有少數祭司知曉協定的由來,多數人僅僅只是遵守,遵守到一切成為文化、無法接受質疑。不可僭越的族群默契,令人聯想到思想實驗「五隻猴子」:五隻猴子關在同一個籠子裡,籠子裡掛一串香蕉。如果有猴子爬上去拿香蕉,就會觸動籠子的灑水器,讓所有猴子都淋濕。猴子們一開始跳上去搶香蕉,害所有猴子狼狽。幾次以後,便不再有猴子去拿香蕉。
這時,人們取出一隻猴子,換一隻新猴子進去。新猴子不知道有灑水器,但每當牠去拿香蕉,另外四隻猴子就會痛毆牠一頓。過了一陣子,新猴子也不想去拿香蕉了。人們又換了第二隻新猴子進去,牠也一樣歷經如此過程。最後,原本的五隻舊猴子都被換成了新猴子,但沒有一隻猴子敢跳上去拿香蕉,也沒有任何一隻猴子知道,為什麼牠們要圍毆企圖拿香蕉的猴子。
這些故事也是許願:在價值觀漸趨一致的世界裡,有缺陷的個體應該理所當然地消失嗎?金草葉顯然是善良的,她筆下的缺陷總在妙處搖身變為珍貴的才能或理解。探險一族中唯一一個會「害怕」的人,才懂得同理逝去的文明;先天沒有視覺的新人類,身體卻得以承載共享思想的科技裝置;意外後無法用身體感覺時間流逝的女子,卻因此可以目睹異時空的縫隙。這些故事經由想像,反省我們對於「殘缺」的認知,以及自以為是賦予的憐憫。
當頭棒喝如〈認知空間〉裡的角色伊芙,對著為自己發育不全而感到可惜的朋友說:「珍娜,妳不需要同情我,⋯⋯不,我不需要體驗認知空間,那裡連星星的一小部分都裝不下。」
小說裡,「認知空間」是一座據說儲藏著所有人類知識的建築。伊芙的那句話,彷彿是對著全人類的度量呼告,我們所以為是全部的東西,其實只是一點點。
幾個世紀之後,假如人類繼續前進⋯⋯假如那時的我們掌握了一切規則,是否還能在某些重要的時刻保有如人工智慧一樣的謙卑,說「非常抱歉,我們才是錯誤的」?
作者簡介
延伸閱讀
回文章列表