本文原刊於舉目官網2023.03.15
王道維
2022年11月30日,美國科技公司OpenAI發表了AI對話機器人ChatGPT(註1)。此產品橫空出世:兩個月內吸引超過一億人註冊成為用戶,遠超過去所有的網路應用程式(註2)。
ChatGPT可以就開放式的問題提供意見,編故事、寫詩詞、抓重點、問判決、草擬文案企劃、轉換表格或甚至寫程式debug等等,幾乎只要能透過文字表達的幾乎無所不能。在這之前,只有《鋼鐵人》電影中的機器人,可以幾乎聽懂任何問題來回應主角的提問;難道AI時代真的已經來臨(註3)了?
我們知道,上帝是萬物的創造者,人類是按照上帝的形像所創造的,有著不可取代的價值和尊嚴。但是,當AI的發展(特別是ChatGPT這類近乎通用型人工智慧)似乎越來越接近人類的智慧時,基督信仰該如何回應這些挑戰?善用、拒絕,還是任其發展?(註4)
本文內容大綱如下:
四、從救贖論看ChatGPT:AI原罪需持續改善但受限於人類自身
一、簡介:AI的基本圖像與常見誤解
在進一步認識 ChatGPT並評估對基督信仰的影響前,筆者先從三點簡略介紹AI當前發展:
1.目前AI是以數據為基礎而非規則為基礎
AI的發展至今已超過60年,期間經歷了幾波浪潮與消退,如今又重新再起。最核心的原因是機器學習(Machine Learning)的演算法,終於成功擺脫過往“以規則為基礎”(rule-based)而轉用“以數據為基礎”(data-based)的架構來建造,才讓電腦能有效地模擬出一些人類的複雜行為,如影像辨識或語音文字生成。
過去,若希望電腦自然地組織人類的話語來回答(而非制式的模板),需要先教電腦關於語言學的基本知識,例如名詞、動詞或介繫詞等等,才能放心讓他來組織,但這樣的效果相對呆板且錯誤百出。目前的AI幾乎已經完全放棄這條進路(包括ChatGPT),而是讓電腦直接讀取大量的自然語言文本,藉由計算同一個字詞在不同前後文中的相對出現機率,使其模擬在特定脈絡中的文字表達。
也因此,目前許多人常用的Google網路翻譯大大提升其可靠程度。
2.AI高維度空間中的模擬計算與人類大腦不同
如前所述,AI之所以可能模擬人類的某些特定的行為(例如影像辨識、寫文章或下圍棋等),並非事先設定好特定的規則來達到目標,而是利用已經標註好的大量數據作為基礎,讓機器學習的演算法(如類神經網路,Artificial Neural Networks)中大量的參數可以自動調整,模擬出希望得到的效果。
由於這樣的模擬過程是在超高維度(數百到數千萬或更多的參數)空間中所作的計算,因此往往需要大量的計算資源與大量的數據來訓練校正。所以萬一結果有錯,幾乎不可能在海量的參數中,找出可解釋性的理由來除錯,只能不斷try and error。因此AI的計算方式與人腦的學習模式是非常不同的(人腦並不需要這麼多的資料來學習),AI也沒有人的意識或靈魂。
3.AI的應用幾乎都受限於特定的範圍或形式
AI的應用領域可以粗分為“弱AI”、“強AI”與“超級AI”三個類型或階段。當前所有的AI產品都是屬於弱AI的階段,需要針對某個特定的功能來作數據標註的處理與演算法的優化,因此也只能應用於某些特定的領域(例如AlphaGo只能下圍棋),或以特定的方式來接收資訊並呈現結果(例如ChatGPT只能以文字輸入與輸出)。然而人類實際的需求往往是複雜多元的,很不容易用特定功能的AI來完全滿足。
強AI也可以稱作“通用型AI”(Artificial General Intelligence, AGI),代表可以在相當廣的範圍內,處理各種類型的資料或功能,彷彿人類大腦所能作的許多不同工作。ChatGPT因為能展現各種不同的功能,如創作、回答、翻譯、改寫,等等,可以算是當前最接近這個概念的AI產品。
至於超越人類智慧的超級AI,目前僅是一個概念上的推演,並非如電影小說中的描述,即將或已有進入具有自我意識或主體性的能力(註5),充其量只是人類自己的移情作用(註6),甚至可能永遠無法達到。
二、ChatGPT:結合流利程度與回答結構的訓練方式
(返回目錄)
在AI許許多多的應用類型中,ChatGPT是屬於一種稱作“生成式AI”(Generative AI)的對話機器人。
不同於一些作常見作辨識、預測、判斷或分類的AI模型,ChatGPT是專門訓練用來從一堆輸入文字來產生另一堆輸出文字作為其訓練目標。這些輸出的文字當然希望是人類可以看得懂,並且能夠正確有效的回應。因此並非一般搜尋引擎(註7),用以提供正確即時的訊息(註8)。
比起之前就出現過的對話機器人(如Google的LaMDA或微軟的小冰等),ChatGPT有哪些讓人驚艷(註9)的能耐呢?我們可以簡單地從三大部分來說明。
1.大型語言模型
首先,ChatGPT是源自GPT3.5的大型語言模型(Large Language Model, LLM),來作更精緻訓練與應用。它透過數千億字來作訓練,運用1750億個調整參數——模擬每個字與前後文其他字的關係。最後再根據提問者的問題或之前的回覆,來計算對應的各種文字組合機率,將整體機率最高的結果作為“答案”來提供(註10)。
由於ChatGPT訓練時所用的文字資料非常多,並在不同語言間互相翻譯對應的文字,所以它可以回答得相當流利;即使資料不足也可以從其他次要關係的資料(或甚至透過翻譯其它語言)來自動彌補不足,彷彿是真的有個無所不知的人類在背後回應。 事實上,如果使用者直接按“重新產生(Regenerate Response)”鍵,就會看到其他的文字回答。因此,無法保證這些內容是正確或適當的,只能說是根據其訓練資料而計算出最可能的“文字組合”,提供使用者參考。
2.人工回饋的強化式學習
相較於之前的文字生成,ChatGPT成功更重要的因素,應該是透過人工標記員的反饋調教。
OpenAI使用數十位人工標記員來給它的回答作評分(註11),讓ChatGPT的文字生成模型再透過一種稱為強化式學習的方式,來強迫自己將本來機率較高、但不符合人類論述邏輯或可能有許多偏見及錯誤的回答,調整成較低的機率,直到輸出的結果是符合人類標記員所認可的標準。
這是“人工回饋的強化式學習”(Reinforcement Learning from Human Feedback,RLHF)(註12),讓ChatGPT輸出的文字免除許多其他對話機器人因為訓練資料中所包含的錯誤、偏見或不適當回應方式降低許多。
使用過ChatGPT的人會發現,同類型的問題往往也會得到類似模板的回應架構,使其內容看來更有說服力或至少有個正式文章模樣。如果刻意加入一些敏感字詞,如自殺、嚴重疾病、種族歧視等等,ChatGPT可能就會停下來說無法提供更多意見,建議詢問相關的專家或求助專業領域的工作者。雖然這讓許多獵奇的使用者可能覺得無趣,但至少減少不必要的困擾。
目前因為這類生成式AI的出現(包括用文字轉圖像的Midjourney之類的其他AI工具),市場上已經開始出現“提示工程”(Prompt engineering)(註13):利用特定的語法讓AI作更精確有效地回應。因此,ChatGPT是一種更聰明的工具,而非更像人類的生物。
3.使用當下的即時訓練
ChatGPT也引入了一次性學習(One-Shot Learning)的方式,讓AI可以根據使用者前次的文字即時調整回應訊息,讓同一串的對話可以緊扣著主題。畢竟,不管AI事先經過多少後天訓練,也不可能符合所有的使用者習慣的說表達方式,所以這樣的設計就讓AI會對當時的對話,體貼使用者的習慣或預期,提升使用上的好感度。
不過,這也代表使用者可以間接引誘ChatGPT來提供不實或錯誤的回應。例如有朋友詢問2+5等於多少,GPT回答是7,但是他故意說老婆認為這個答案不對,應該是12,GPT就馬上應和者說你說得對而調整答案……(但筆者發現這類數學問題已經在現在的版本調整過,不再那麼好騙了)。
這使得ChatGPT日後走向客製化的模型設計,能針對不同使用者而有特定的表現方式或功能強化,例如調教成伴侶模式(註14)或其它的角色扮演。
ChatGPT這類AI機器人並非“有意識”地提供“答案”,而只是某些文字組合與其機率。這也是為什麼它可能申論題回答得不錯,但數學題往往很差,因為他把數字當成文字在處理,尋找最可能出現的數字答案而非實際做計算(註15)。
因此,GPT絕非無所不能。它所提供的文字組合是否能適當地“回應到外在世界”或“邏輯前後一致且精密的正確”,還需要使用者(人類)自行補充許多想像與基本常識,才能讓AI的回答看起來有意義(註16)。
三、從創造論看ChatGPT:上帝形像的必然彰顯
(返回目錄)
在人類歷史上,影響社會變化最劇烈快速的方式不外乎兩個,一個是戰爭的爆發,另一個就是科技的發展。
我們幾乎沒有人希望發生戰爭,卻期待現代科技可以更多發展來解決現有的問題,滿足人類更多的慾望或想像。因此,基督徒就算不會天真的以為科技可以拯救世界,也很難否認科技發展仍有其重要的意義,只是當前AI與ChatGPT這類的對話機器人,顯然會帶來許多以前未曾想像的狀況與挑戰。
1. 上帝的形象包括創造像人類自己的被造物
創造發明本來也就是上帝創造人時,所賦予人類的“上帝形像”(Image of God)之一,本身並非罪惡之事,甚至可以視為一種上帝榮耀的彰顯(註17)。但如果我們依循著這個脈絡作更進一步的延伸,馬上就可以瞭解到,既然“創造”也是上帝加諸於人類的“上帝形像”之一,那麼人類去創造“以人類的形像與樣式”而展現的AI,也是必然的結果。
事實上,人類自有文化以來,早就創造更多想要模擬人類自己的物品,包括小孩玩的娃娃、藝術家的人像、演員的表演、到電影中的外星人想像等等。這些都在反映出人類對於創造一個類似自己的渴望與努力,並在與其對話中找到某種重要人生意義與自我認識。
AI不同的是,他比之前所有的人造物、更能藉由文字語言反應出人性的某種本質(而不只是外在的樣貌),使人更不容易區分真實與虛假。如果“上帝的形像”不在於外表或物質的身體(上帝是靈,有位格),那就可能必須要承認,人類最高的創造力是創造出像人類自己內在心靈的東西(如AI)。
以此而言,基督徒或許不但不需要排斥AI,甚至應該以更為認真地看待這樣的發展:
ChatGPT是藉由僅有人類才能掌握的語言文字來通往“通用型AI”的方向。比起表面上像人類外型的機器人或針對某些功能才能贏過人類的AI,ChatGPT的發展已經有不同於以往AI發展的意義,所評估的標準也就是回到起初AI這類機器或演算法被開發時,所真正追求的目的來定位。
2. 創造AI的目的是管理人造世界而非管理人類
那我們對於AI的創造目的應該是甚麼呢?
“上帝說:‘我們要照著我們的形像、按著我們的樣式造人,使他們管理海裡的魚、空中的鳥、地上的牲畜,和全地,並地上所爬的一切昆蟲。’”(《創》1:26)或許我們也可以合理地推論,人類按照自己形像與樣式來創造的AI,也應該要以“代表人類管理人類所建構的環境”為主要的目的。
至於管理大地,責任是被委託於人類,而非人類的創造物,這兩者應該要有所區分。
18世紀工業革命之後,各種水泥高樓、道路工廠、交通工具與電腦網路等“非自然”的環境,顯然是人類利用上帝賦予的創造能力而作的科學發明,已經是我們日常生活無法離開的重要部分。如果藉由AI的應用來協助人類管理得更好(如,以AI來管理交通或環境汙染),那麼人類的角色就可以從這些人造環境中的挾制脫離出來,更認真地以上帝託付的管理者的角色,好好“用心對待與享受”這片自然土地與其中的各樣生物,讓我們的靈魂更接近創造他的主。
3. 創造論的角度可以成為全人類共同的基礎
因此,若能更準確地瞭解人在上帝創造次序中的位置,AI的發展本身應該是值得期待的。即或有人從信仰上,不認同上帝創造人類且賦予的管理大地的使命,應該仍是會同意AI的發展需要有清楚的目的才行,否則無法用來支持所需要的巨大投資與應付可能發生的重要影響。
四、從救贖論看ChatGPT:AI原罪需持續改善但受限於人類自身
(返回目錄)
1. AI原罪使人類創造的秩序混淆
基督教的創造論除了首重創造的“目的”以外,也同樣強調創造的“秩序”(Order):這個世界有其規律可循而非本質性的虛無混亂(註18)。而從神學角度來看,一個最基本且很明顯的倫理秩序在於人類是被造者,地位應低於其創造者上帝。因此伊甸園的事件也就可以被理解為,被造的人類受到蛇的誘惑,想要與上帝同等,因而違背這個創造次序,帶來了原罪(參《創》3:4-5)。
因此除了創造論,罪的影響與救贖的需要,是基督信仰有別於其他宗教信仰的核心關鍵。
當AI的擬真度越來越提升,我們也可以感受到那個創造者(人類)與被造者(AI)之間的秩序是有可能被混淆。若再加上人類本身非全能卻慾望無窮,也可能讓部分人太過於相信AI而造成在隱私權、智財權、工作權等領域中法律與倫理的挑戰,放大這個社會已有的偏見或歧視言語(註19)。
前述這些AI近乎本質上的缺點(例如只是機率計算模擬而無法排除錯誤),也許可以用“AI原罪”來描述,代表不符合創造者的期待或規劃的部份。只是,由於目前的AI完全沒有任何實質意義上的“自由意志”(註20),並非是道德行為的主體,所以很難直接用傳統神學或道德哲學的用語來等同。
2. AI繼續被救贖改善時的矛盾之處
我們這些“因信稱義”的亞當後裔,是在這個不得不犯罪的肉體中,生活在目前這個幾乎無望改善的世俗世界,盼望得到上帝完整的救贖(註21)。這代表我們仍能從救贖的角度,來看AI的應用可以改善調整的方向,或可類比於基督教的“成聖”的操練。
雖然基督教會中對於成聖的方式有許多不同的傳統,但最終的目標都是希望能效法並活出基督耶穌的生命。(參《太》11:29;《林前》11:1;《弗》5:1;《腓》2:5)因此,我們可以合理地推論,未來若要讓AI可以減少所謂的錯誤或危害,不可能只是用設定紅線規則的方式來訓練AI以減少犯錯,那幾乎等同於律法主義,只能減少犯錯而無法真正仿效人類。
事實上,由於前述所提及,AI程式內部有大量的參數需要調整(ChatGPT就有1750億個),所以不可能在每個方面都設下明確的“規則”,所以才需要特定的訓練方式(如前述所提及的“人工回饋的強化式學習”)。
但問題是,如果AI被救贖的目標是更好的仿效人類,又該效法哪一種人呢?或是該用哪類的文化與價值觀?
不可否認的,目前源自於美國巨型科技公司(如Google、Microsoft、Facebook或Apple等)所開發的AI產品,必然先入為主的使用以西方白人文化為中心的價值觀來訓練AI(註22),而這樣的產品將來在東方文化、伊斯蘭文化或其他民族文化中,必然會因為訓練資料有限,或是訓練的標準不同,而產生需要再被客製化或地域化(localized)的結果(註23)。倘若放任AI由一般人來訓練,一定學習到更多人類錯誤的偏見或仇恨語言。
3. AI如鏡子只會更放大人類的缺點與罪性
可見,AI要學習的“理想模範人類”是多元化的存在,非想像中的單一性。未來若有更多類似ChatGPT的AI機器人出現時,必然會有價值觀之爭,且更放大了我們人類本身的缺點或差異性。從基督信仰的救贖論來看,AI恐怕永遠無法真正能成為可靠產品,因為想要模擬的對象本身,就是極不完美且帶有偏見的(註24)。
人類過往所有的科技發明,在脫離實驗室階段進入實用時,都會為了爭取經費而強調其對人類生活的改善或好處,刻意或無意間忽略可能的缺點。當這類科技服務已經深入人類生活而出現許多非之前所能預想的負面影響時(例如手機),人類就會開始自行修改其目的或方向,為相關的技術延續生命或創造新的目的。未來也肯定會發生在AI身上,反映出人類的罪性。
從救贖論,我們發現一個看似矛盾的發展方式:一方面會有更多這種類型的AI機器人出現,需要對開發者或使用者持續追問,使之清楚回答使用目的與可能的影響,並以其應用的結果是否符合人類價值,來評估是否值得支持。同時,我們也無法完全相信人類自己,因而對人性根本的歸宿與終極盼望,還是無法有真正的答案可以給AI作參考。
因此筆者認為,ChatGPT這類對話機器人將會如同一面清晰的鏡子般,反映出甚至擴大人類自己的缺點。雖然總可以事後補救但仍永遠不足,而促使更多人更深的反省看見自己的盲目虛空。
五、從啟示論看ChatGPT:可承載上帝的道而帶來牧養挑戰
(返回目錄)
1. 語言的共通性使之承載上帝的道
ChatGPT最重要的特色,是因為它比以前所有的AI模型、更有效地掌握自然語言/文字在表達方式與其相關內容的平衡,因此比過往的模型更好地往通用型AI發展。
語言文字有個非常重要的特色,就是由有限的基本單位(如音節、文字或字母),只憑藉若干原則性的連接方式(即所謂的文法),就可以類似積木一般地疊加成各種豐富的形狀,幾乎可以表達人類思想範圍內的各種事物或感受,是最接近人類大腦思想的表徵(representation)方式。
許多動物有比人類更好的視覺功能或運動功能,但只有人類能真正地掌握語言(註25)。
2016年,AlphaGo戰勝人類獲得圍棋冠軍,雖然也是件歷史大事,畢竟僅限於圍棋這個特定範圍,無法直接轉譯成其他功能。而掌握了語言工具就掌握了價值取捨的方式,也自然創造跨領域的應用範圍。筆者認為這個語言的共通性,才是ChatGPT能產生如此重要影響的關鍵。
語言(話),在新約聖經中也被翻譯為“道”(logos)。在希臘哲學中,這個字也是描述支配世界萬物的規律性或原理,而在基督教神學中更認為道的本體就是基督,萬物是上帝藉著道所造(參《約》1:1-3)。
由此,從啟示論看,我們就更容易理解為何ChatGPT這類利用模擬人類語言的AI,比起模擬視覺圖像或其他人類行為的AI模型,更令基督徒警醒:因為語言文字不只可以承載傳遞人類多樣的訊息或思想,也可以被用來承載上帝的智慧與啟示(聖經即是以人類語言寫出的)。我們應該從信仰角度對ChatGPT這類對話機器人,投以更多的神學關注。
2. ChatGPT可以在信仰脈絡下被更善加利用
但是讀者可能會有的質疑:前文不是已經說明,ChatGPT這類的AI對話機器人是以機率計算的方式,來模擬人類的語言,並不存在真實的意識或人性,也可能充滿錯誤或偏見嗎?那這樣無法排除隨機或錯誤的文字組合,如何可能承載上帝永恆不變的真道呢?對此問題,不妨讓我們先問問ChatGPT吧,我得到的回答如下:
上述看來謙遜中立的文字,的確展現了ChatGPT回答相關問題時的特色。
筆者曾經撰文表示(註26),就一般性的語言文字理解的五個層次:字詞(word)、信息(information)、意見(opinion)、知識(knowledge)與洞見(Insight)來說明(參見附錄),ChatGPT的文字生成結果只能算是屬於“意見”這個層次,有種邏輯架構讓人覺得彷彿值得參考,但是只有在某些特定的範圍中,可以與外在世界的事實產生對應,確認可靠而形成“知識”。但是這個與外在世界的事實如何對應,呼應的程度或標準是如何,其實與使用者個人的解讀有關。
因此,即便是AI機器人是藉由複雜的演算法模擬而產生的文字,只要在使用者本身也在適當的信心與脈絡之下理解,也可能被聖靈所使用來承載上帝的真道,成為我們的幫助。
上帝固然是透過聖靈感動先知與使徒,以人手所寫的文字記錄下聖經。但是,對聖經詮釋學有一定瞭解的人都知道,要理解一段聖經經文的意思,不可能不回到該段經文原始的處境,先以其相關的背景作理解,再從中提取精義而適當地應用於現代環境,也同時可以從現代的環境對經文的意思作不同層次的延伸與解讀。
這本是一個經文詮釋的循環(註27),讓基督徒於古代經文和當代現實之間保持彈性距離,創造信仰的傳承與發展。甚至連我們目前所讀的中文聖經,也都是因此而翻譯過來的,不適合在去除相關的文化脈絡下,來作靈意或私意解經(註28)。
目前,我們所討論的AI對話機器人,就是將這些有紀錄的相關文字輸入資料庫中作為訓練材料,讓機器學習字詞間常見的關係,來回應使用者的提問。因此它所作的回應,以經文解釋為例,基本上也就是許多解經學者整體的統計結果(註29)。雖然只屬於“意見”層次,但往往也可能有相當的機會帶有正確的知識,因而被上帝使用來成為信徒造就的工具之一。
類似的情形也可以應用在禱文:許多內容可能都是以前在信仰書籍中出現過的,只是重新組合而已,很難說因此就不能被上帝使用,引導使用者更接近祂。
筆者曾詢問ChatGPT一個常見的聖經問題,並再請它產生一篇祈禱文來作例子,請讀者自行判斷,也鼓勵更多的嘗試。
3. 使用ChatGPT會挑戰牧養的權柄與信徒的習慣
但是,當AI機器人用於信仰或牧養領域,它的無所不答也可能在明明沒有資料的空白處,“抓”其他關聯性較次要的文字來填補,造成“一本正經地胡言亂語”。這對於不容易直接檢驗的信仰議題,就容易給初信者或基本知識瞭解過少的人,帶來了誤導。
用前面提到救贖論的角度解決這個問題,除了需要在聖經或神學研究上更有經驗的牧者、適時澄清外,似乎只得靠基督教會用自己篩選過的資料來訓練給信徒的AI對話機器人。
但即使資料來源都是正統神學背景,也不愁訓練AI的大量經費,仍可能引發一連串的問題:這樣的AI對話機器人是否可能比一般的牧者懂得更多更正確?所寫的禱告文或靈修筆記,更能造就信徒?信徒遇到的信仰問題是否就應該更多相信或接受AI的“權柄”,反而對牧師不一樣的回答帶有質疑?
當然,真正的牧養並不只是文字上的問題解答或講道,還包括關懷、陪伴、勸勉、聆聽等目前AI無法作好的事情(註30)。但是基督教會畢竟是需要順服上帝的啟示與真理而行,並不是一個經營人際關係的俱樂部,所以筆者以為未來牧養的挑戰,並不只是與AI搭配互補,而是應該思考如何協助牧者善用這樣的AI技術,能將對會眾的牧養帶到更高的層次。
同時,如果一些困難的經文或章節大意,都能靠著ChatGPT這類AI機器人簡要的回答與瞭解,那基督徒自己是否需要思考反芻經文或信仰議題了呢?若抱著不求甚解而無求真追問的心態,是否反而將自己的信仰架空於AI模擬的文字之上而已?如何將信仰落地成為真實的生命,在未來更多AI虛擬設備的出現後,會是另一番挑戰。
六、直面AI時代的到來與具體建議彙整
(返回目錄)
面對已經來臨的AI時代,特別是ChatGPT這類接近通用型AI的發展,已經沒有人再懷疑未來社會是否會因此有巨大的改變。唯一的問題,是到底該如何面對(註31)?
事實上,目前連寫AI程式的工程師,都開始擔心自己的工作機會會因此而減少(註32)。畢竟,ChatGTP這類生成式AI的功能已經相當齊全優秀,介面又如此方便,已經開始讓一些企業停止增聘相關的技術人員(註33)。這樣的情形,是以往的工業革命所沒有過的。目前世界各國也很難有好的範示,可以有效地面對。
因此,目前對於AI在信仰團體或福音未來發展上所產生的影響,瞭解還十分有限,很容易過分低估或誇大其影響。由於文章篇幅的限制,在此筆者不再重複許多關於“AI時代可能帶給我們的影響”的討論。有興趣的讀者,可以很容易從網路上找到相關資訊(註34)。以下僅綜合前面從聖經的創造、救贖與啟示的角度,來對華人基督教會或基督徒提供筆者幾個方向性建議:
1. 從創造論的角度,我們應該肯定AI相關的發展,也是上帝創造人類時所賦予的上帝形象展現之一。因此可以鼓勵更多相關領域的專業基督徒,投入研究或發展,也在教會生活中適當應用,不必妖魔化或給予不必要的質疑。
2. 從創造論的角度,基督教會應該對這些AI模型開發的目的與影響,給予更多的關注,鼓勵督促開發者用於協助人類管理其它被造物,幫助人脫離束縛,而不是用來限制或約束人(或至少不能對人類全體有所傷害)。
3. 從救贖論的角度,我們需要提醒基督徒與社會大眾,對AI幾乎不可避免的錯誤。儘量謀求改善,並準備好相關的配套措施或法律制度。特別是如ChatGPT這類接近通用型的AI,需要有更完善的管理或審核機制。
4. 從救贖論的角度,我們知道AI因為資料蒐集與人工訓練的緣故,必然會有價值觀的選擇,無法逃避。基督教會可以從信仰的高度,協助與不同價值觀者有積極的對話,尋求妥協與配套,減少因為ChatGPT這類AI對話機器人而擴大人類內部原有的差異或衝突。
5. 從啟示論的角度,教會應鼓勵基督徒更好地建造信仰的基礎知識,使之可以善用ChatGPT所產生的文字來造就人,增廣相關見識或深化既有基礎,而非被其可能的錯誤而誤導。
6. 從啟示論的角度,教會的牧養與神學院的信仰教育應加強預備,協助傳道人讓上帝的道在AI模擬信息充斥的時代,仍能有效地對基督徒與這個世代發聲。要作到這個,除了對會眾的需求提供引導“意見”,以及基本的“知識”基礎,更需要能提供ChatGPT這類對話機器人無法產生的屬靈“洞見”,讓生命得到真實的屬靈餵養。畢竟AI的特色,就是從大數據中模擬。倘若講臺上仍重複許多屬靈“術語”就以為是敬虔,那就真的很難造就信徒的靈魂,也更容易被模仿取代。
最後,筆者認為未來AI必然會以更多的應用形式滲入我們的生活,人們都會被這些虛擬環境所圍繞,更難完整地認識自己。因此未來對於人生的意義或價值有迷茫的人,必定更多(特別是年輕世代),形成更大的福音需求。
因此,教會的聚會不能再只有節目式的大型聚會或同溫層內的小組聚會,畢竟在未來AI模擬充斥的時代,人們來到教會都需要找到耶穌對其個人獨特的呼召,而非彷彿用同個工廠的標準流程所製造出的罐頭信徒。或許唯有這樣,我們才能算是實踐自己的“道成肉身”,成為耶穌所認識但無法為AI演算法所替代的那一位。
附錄:語言文字理解的五個層次(註35)
(返回目錄)
一般使用語言文字表達的時候,我們可以先區分以下幾個不同層次的概念,這些組成我們對於現有知識結構的理解(註36):字詞(word)、信息(information)、意見(opinion)、知識(knowledge)與洞見(Insight),並舉一些基督信仰的例子來說明。
1. 字詞:本身其實只是一種符號,通常是用來表達另一些概念對象。
從現代語言學的角度來看,某個特定的符號和其所特定所指的概念對象之間的聯繫不是絕對的,而是有約定俗成的彈性。唯一有關係的是使用這個字詞的人是否是在相關的文化環境中使用,以至於可以與其他人正確的溝通,不會誤會彼此的意思。
因此,如果認為某些基督教術語(如哈利路亞)之類的就比較屬靈,其實那只是在一個特定的脈絡中才對聽得懂的人有意義。從這個角度來看,一個基督徒說“哈利路亞”如果只是一個習慣性的口頭禪,並不見得會比ChatGPT在合適的脈絡下使用這個辭彙。更為屬靈或被上帝所看重。
2. 信息:由於只有單字詞是無法正確代表語言,還必須放在正確的前後文(context)中,才有可能發揮效果,描述某些外在事物或內心感受或理念。
前述的大型語言模型,就是根據這個前後文來計算出的複雜機率關係:利用前面出現的幾十個字詞,推算後面將會出現的字詞,有助於形成一個通順的文句,例如“這件事情可以禱告交託給上帝”。這樣的語言表達,可以說在某個程度上描寫出一段不同事物 (事情、禱告、交託、上帝) 彼此之間的關係,開始指涉某些事件發生的過程或內涵。
這樣的訊息是帶有描述成分,也當然就可能成為可以評價正確性或合適性與否的內容。由於大型語言資料庫都是人類所使用的文字,所以應該幾乎不會出現類似“給事情禱告可以交託這件上帝”這種看起來符合文法但語意不通的句子。
3. 意見:但是以上的信息本身並不見得能影響對話的對象,因為聽的人可能只是覺得他在自言自語,畢竟類似的信息本身就充滿在我們四周。但是我們通常會選擇考慮聽從那些有根據、專業或至少經驗上看來可靠的意見文字,來做判斷。那樣的意見當然不會只是一個規範性的命令,通常也會包括相關的理由與說明,形塑出一個邏輯架構,讓人覺得可以考慮信任。
舉例來說,“這件事情可能讓妳特別煩躁,但短時間內顯然也無法有效解決,也許可以禱告交託給上帝,看後來會有甚麼樣的預備,再決定是否繼續還是調整。”這樣一段話就是一個意見,提供一些脈絡與邏輯,帶有價值評斷或規範性的期待,就會使聽者更願意考慮。
筆者認為,目前的AI對話機器人所提供的文字訊息,主要是屬於這樣的“意見”層次,以至於會讓我們覺得好像針對我們的提問而值得參考(或至少需要決定如何否決)的可能性。
從心理層面來說,對於這樣“人模人樣”的文字,我們人類就容易在心理上投射出應該可以信任、考慮其意見的感覺,畢竟這會幫我們節省一些做決策的時間。但是反過來說,如果使用者本身的分辨能力不足,以為所得到的回答是正確的(也無法質疑),那就可能被誤導而不自知。例如前述ChatGPT的回答,說自己沒有價值觀,其實是不正確的。因為它的價值觀已經是透過人工調教並重新訓練而成,如前述的“人工回饋的強化式學習”。沒有這些基礎的人,就會真的以為它是完全價值中立的。
4. 知識:雖然意見的文字本身可能是通順流暢且合理的,但是不一定能形成有效的知識。在這裡,筆者並不是要陷入哲學上對於“知識論”(Epistemology)的探討論證(註37),只是先以一般人基本的概念來說,真正的知識大致上需要一種與外在世界相符(有經驗主義的基礎)且有內在邏輯理由(有理性主義的架構)的整合性概念。這部分就會牽涉到實際上這些意見是否真的可行的問題,或是如果我不照著做,是否有所損失?而非只是“看起來人模人樣”的感覺。
以此而論,ChatGPT有部分的功能,例如寫程式、找程式的錯誤、找尋過往的資料、整理現存的資訊等等功能,的確達得到這類層次而成為可以信賴的知識。雖然錯誤仍然會有,但因為是包在一個論述架構中,所以除非對這方面相當熟悉的使用者才可能分辨。但是反過來說,如果這樣的“知識”其實錯誤的引導到外界的事件,就可能帶來嚴重的影響,例如醫學相關的應用(註38)。
因此,我們發現容易混淆的原因就在於,由於信仰的問題很多終極的答案在於對上帝的理解或者對聖經經文的詮釋。這部分往往本身難以有絕對客觀的標準,很難排除某些論述的有效性,因而使用者在心理層面受到類似錨定效應(Anchoring Effect)的影響(註39)——雖然AI機器人的文字回覆只是意見的層次,卻有可能像是可參考的知識內容,甚或因此產生了權威感。
這是為何ChatGPT來作法律或商管領域的申論題,往往可以表現得很好,甚至可能顛覆過往人文社會領域傳統、特別重視文字論述的學習方式(註40),但是它作數學或理工的問題往往不容易及格。
5. 洞見:筆者這裡的洞見是指,這些文字組成不僅僅帶有知識的內容可以被檢驗,也提出一些特殊(或以前很少被聽到或重視的)觀點,而這些觀點是帶有可預測性或至少有更完整可延伸的解釋能力,能夠讓人相信這是未來可以被驗證,或至少相當有說服力地去理解過往沒有被充分瞭解過的問題。
這部分是目前AI機器人幾乎做不到的;如此說當然也要更具體地看是哪一種問題或是哪些回覆方式才能確認。可是就筆者印象所及,網路上目前為止所提出的ChatGPT實測結果,都只是驚嘆它整理出一些我們本來大約就知道的內容,而沒有精準高明到認為超過人類一般的能力。
其實,如果我們瞭解AI目前的訓練方式,就會知道這一點對於目前的AI對話機器人,很可能是先天的限制,永遠都無法像AlphaGo那樣超越人類。這背後的原因也很簡單,因為AI只是從訓練的資料中模擬可能的結果。
如果資料來源是自然科學中可以明確知道的結果(如天氣預測)或可以用數學所定義的目標(如圍棋比賽),那AI的應用,的確就可能超越人類而更接近客觀目標。但是如果這些訓練資料是來自於人類社會,標準是由人類自行所定義的(否則就不像人類),那AI最多只能模擬人類的行為,準確性也就不可能超越人類多數的標準,只能說可以加快速度處理更大量的資料而節省時間。
(返回目錄)
註:
1. ChatGPT的網址:https://chat.openai.com/
2. 〈ChatGPT推出僅兩個月,活躍用戶突破一億〉,Business Digest (2/7/2023),引用網址:
3. 筆者撰寫這篇文章的時候,已經有Google的Bard與Meta的Llama推出類似功能的AI對話機器人,雖有其特色,但似乎都並未被認為超過ChatGPT的能力。參考以下兩篇報導:〈聊天機器人Bard回答走鐘 Google母公司市值蒸發千億美元〉,上報 (2/9/2023)。引用網址: https://www.upmedia.mg/news_info.php?Type=3&SerialNo=165552。〈AI 叫陣 GPT!Meta 公開 LLaMA 大型語言模型〉,Inside(02/26/2023)。引用網址: https://www.inside.com.tw/article/30859-llama-meta
4. 本文內容有一部份改寫於筆者所著,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。最後AI對信仰的影響,亦主要來自於筆者過去幾年對AI與信仰的相關主題演講,例如〈人工智能(智慧)的發展與基督教的未來〉(11/07/2017)。引用網址:https://blog.udn.com/dawweiwang/108971169。
5. 例如可參考以下新聞:〈公開指AI聊天機器人有“人格意識”!Google工程師慘遭開除〉,數位時代(7/25/2022)。引用網址:https://www.bnext.com.tw/article/70804/google-fires-software-engineer-for-lamda?
6. 移情作用(transference)是精神分析學大師佛洛依德(Sigmund Freud)所提出,描述人類常將自己對某人的情感無意識地投射到他人身上的情形。移情作用並非都是不好的,是有助於生活的情趣或情感的調適(如對寵物的喜悅),但可能不見得是對方真實的狀態。可以參考以下簡要的說明。https://en.wikipedia.org/wiki/Transference
7. 關於比較搜尋引擎和語言模型的應用,以及Google與Microsoft之間可能的競爭,筆者覺得以下這篇文章寫得蠻好的,也可以因此更多瞭解這些技術的特性與侷限,提供有興趣的讀者參考。〈微軟vs Google:語言模型會不會壓倒搜尋引擎?〉,36氪(2/1/2023) 。引用網址:https://tw.stock.yahoo.com/news/%E5%BE%AE%E8%BB%9Fvsgoogle%EF%BC%9A%E8%AA%9E%E8%A8%80%E6%A8%A1%E5%9E%8B%E6%9C%83%E4%B8%8D%E6%9C%83%E5%A3%93%E5%80%92%E6%90%9C%E5%B0%8B%E5%BC%95%E6%93%8E%EF%BC%9F-055720192.html
8. 事實上,微軟已經將ChatGPT與搜尋引擎Bing結合起來,稱作New Being,就可以聯網作即時訓練並將這些搜尋到的資料作通順的整理表達,未來的確可能挑戰目前Google網路搜尋的霸主地位,但也被發現因為來不及作人工除錯訓練,也出現許多AI幻覺或激烈言詞,不得不限制每次搜尋的次數。可參考以下新聞報導:〈致命傷出現?微軟承認新版Bing缺陷:聊天太久AI會生幻覺〉,自由時報(2/17/2023)。引用網址:https://3c.ltn.com.tw/news/52236
9. 〈OpenAI接受 MIT Technology Review 採訪:我們壓根沒想到 ChatGPT 會爆紅〉,Inside (3/6/2023)。引用網址:https://www.inside.com.tw/article/30914-inside-story-oral-history-how-chatgpt-built-openai。
10. 關於AI如何處理人類語言的工作,統稱為“自然語言處理”(Natural Language Processing),可以說是當前最富挑戰性也最有未來性的AI應用。對這主題有興趣可以參考筆者所曾經拍攝的一段影片,“自然語言處理簡介”。影片參考網誌:https://www.youtube.com/playlist?list=PL_qamH512zu6NbUEDShUFyHiE7qHUGJiNmty2e-3pe84
11. 關於人工配合訓練ChatGPT的部分,可以參考以下稍微詳細一些的說明:〈ChatGPT 為何能像人類對談?台大資工陳縕儂教授揭 AI 模型背後的訓練原理〉,Inside (12/26/2022)。引用網址:https://www.inside.com.tw/article/30190-chatgpt-professor-Vivian-Chen-interview
12. 李建興,〈OpenAI改進GPT-3使其更能聽懂人類指示,並減少輸出有毒內容〉,iThome (1/28/2022)。引用網址:https://www.ithome.com.tw/news/149140
13. 事實上,網路上已經有許多人提供所謂的“ChatGPT指令大全”之類的資訊,方便使用者用特定的提問方式,來讓AI做出更符合其要求與期待的工作。例如讀者可以參考以下網頁:ChatGPT 指令大全https://www.explainthis.io/zh-hant/chatgpt
14. ChatGPT可以依據使用者的指令作角色扮演,例如此篇提到的“伴侶模式”,〈全世界第一篇!開箱ChatGPT測試中的“虛擬情人”隱藏功能〉,Vocus (3/8/2023)。引用網址:https://vocus.cc/article/64008eb6fd89780001e5d7c8
15. 〈ChatGPT多聰明?實測能通過美名校商學院、法學院考試〉,經濟日報 (1/29/2023)。引用網址:https://udn.com/news/story/6811/6935748
16. 舉例來說,筆者問ChatGPT如何幫收音機介紹女友,它也就一本正經地根據收音機的性質列出一些條件,例如要喜愛音樂這樣才能欣賞收音機的優點。這代表它並無法真正的掌握到人類語言表達中許多未明言的常識,這也就是所有這類AI先天不足之處。
17. 可參考美國神學家薛福(Francis A. Schaeffer)在他的著作《人類的上帝形象》(The God Who Is There)。其中他強調了人類的創造能力是上帝形像的一個重要方面,因為上帝是創造者,而人類通過創造來展現自己的形像。
18. 有人可能會引用物理中的量子力學或測不準原理認為世界的本質是隨機而不可確定的。但是筆者要提醒的是,我們仍能用量子力學的方程式來明確描述計算這些機率。這顯示物理學家並非相信世界本質上是混沌隨機,否則連建立物理定律來描述的企圖都不必有。
19. 這些當前AI應用時最容易被質疑與引起爭議的地方,已經有許多人文社會領域的學者開始研究相關的防範配套措施,此處就不再敘述。
20. 關於AI是否有自由意志等主題,在哲學或心理學領域已經有許多討論。這根本上會牽涉到我們如何定義人類的自由意志,或甚至人類到底是否有
21. 這也代表基督教的“救贖論”絕對不只是如何定罪或得就這類過於簡化的標語,還更包括如何在這罪惡滿盈的世界中,帶著仍會犯罪與他人幾乎無異的軟弱來面向上帝,與世界對話而仰望新天新地的到來。這個等候過程也是一個信心成長的歷程,也就是基督徒所謂的“成聖”。
22. Samantha Murphy Kelly, “This AI chatbot is dominating social media with its frighteningly good essays”, CNN Business (11/8/2022)。引用網址:https://edition.cnn.com/2022/12/05/tech/chatgpt-trnd/index.html
23. 這顯然已經發生於中國這樣對資訊管控更嚴密的國家,如以下報導:〈ChatGPT在中國被禁用仍爆紅 各家企業推替代工具〉,中央社(2/13/2023)。引用網址:https://www.cna.com.tw/news/ait/202302100339.aspx。
24. 最近OpenAI也發表了類似獨立宣言般的正式聲明,強調人類社會應該更積極地用對話的方式來面對處理通用型AI的來到,確保每個人都能從這樣的發展中獲得益處。Sam Altman, “Planning for AGI and beyond”, OpenAI (2/24/2023)。引用網址:https://openai.com/blog/planning-for-agi-and-beyond。
25. 雖然我們都知道許多動物可以透過聲音、氣味或運動方式來傳達簡單的訊息,但那些都完全沒有辦法重新組成本來所指涉的物體/事件以外的意義,也就是沒有多元使用上的彈性,與人類的語言表達能力有本質上的钜大差別。
26. 王道維,《當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響》,《風傳媒》(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。
27. 聖經詮釋學本身是很廣闊的學問,難以用三言兩語說明。筆者個人很喜歡范浩沙 (Kevin J. Vanhoozer)的《神學詮釋學》(校園),推薦讀者可以參考。筆者為校園書房寫的推薦文可見於以下網址:https://blog.udn.com/dawweiwang/109548865
28. 筆者此處的看法是屬於基督教幾個主要解經派別中,於宗教改革後所發展以歷史文化研究為基礎的“字義派”觀點。相較於其他教會歷史中較保守的如中世紀天主教的“寓意派”與敬虔主義的“靈修派”、或19世紀以來較為開放的“新正統派”與“自由派”,應該是屬於較為中立且與華人福音派有最大交集的範圍。這些解經派別的簡介可見經典的解經書籍,如蘭姆 (Bernard Ramm)的《基督教釋經學》,或其他各種較新的當代釋經學書籍。
29. 根據ChatGPT自己所提供的資料,其關於基督教信仰的資料來源包括各種常見的聖經版本、基督教歷史資料、教義與信仰文集、基督教文化與藝術、基督教生活方式與實踐相關的文字。資料的形式來源包括如書籍、新聞、網站、雜誌、學術論文和其他文本,且不斷在增加中。當然,英文的資料一定是占大多數。
30. 這部分可以參考基督教論壇報所作的專題企畫,〈ChatGPT來襲! 當耶穌遇上聊天機器人會如何?〉,基督教論壇報(2/22/2023)。引用網址:https://ct.org.tw/html/news/3-3.php?cat=80&article=1394282
31. 以高等教育為例,美國的各大學已經開始為ChatGPT的使用展開新的規範甚至開發新的教學方式,可見新聞報導例如:〈禁了也沒用,美大學開始改變教學方式研究怎麼與ChatGPT 共存、又不用擔心學生抄襲〉,36氪(1/31/2023)。引用網址:https://www.techbang.com/posts/103356-chatgpt-is-coming-american-universities-are-beginning-to
32. 可以參考以下的報導:〈ChatGPT 平均智商約 83,但讓NLP工程師覺得工作毫無意義〉,INSIDE (12/09/2022)。引用網址:https://www.inside.com.tw/article/30042-ChatGPT-challenge-NLP-Algorithm-Engineer。〈用AI取代菜鳥設計師寫程式,也許比你預期的更快!AlphaCode已與一般程式設計師能力相當〉,T客邦(12/15/2022)。引用網址:https://www.techbang.com/posts/102423-the-next-frontier-in-artificial-intelligence-alphacode-is
33. 可以參考以下的報導:〈請別相信 AI 不會取代人類工作〉,Inside (3/5/2023)。引用網址: https://www.inside.com.tw/article/30913-Do-not-believe-that-AI-wont-replace-human-jobs
34. 關於AI的發展會對我們社會帶來的影響,並從基督信仰觀點而有的回應,可以參考筆者過去幾年對AI與信仰的相關主題演講,例如〈人工智能(智慧)的發展與基督教的未來〉(11/07/2017)。引用網址:https://blog.udn.com/dawweiwang/108971169。
35. 此部分較為詳細的說明可以參考筆者之前的文章,〈當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響〉,風傳媒(2/11/2023)。引用網址:https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。
36. 一般的認知心理學會以Miller(1973)所建議的五個層次來組成語言,分別是語音、語法、詞彙或語意、概念、信念。但在這裡筆者更著重於將最後一個信念(belief)細分為知識與洞見,代表不同強度的可信賴性,也是AI機器人比較無法呈現的部分。
37. 知識論是西方哲學重要的一個分支,重點在於如何確認所知道的內容是真實可靠的。在17-18世紀的時候有很多重要的哲學家參與相關的討論,大抵上可分為歐陸的理性主義傳統與英倫三島的經驗主義傳統,而後由康德做了相當好的整合與推廣界定。有興趣的讀者可以從維基百科參考一些相關資料:https://zh.wikipedia.org/zh-tw/%E7%9F%A5%E8%AF%86%E8%AE%BA
38. 例如以下報導:〈或危及人類安全? AI聊天機器人編造的醫學論文摘要 科學家難辨真假〉,Bastille Post (1/23/2023)。引用網址:https://www.bastillepost.com/hongkong/article/12136400-%E6%88%96%E5%8D%B1%E5%8F%8A%E4%BA%BA%E9%A1%9E%E5%AE%89%E5%85%A8%EF%BC%9F-ai%E8%81%8A%E5%A4%A9%E6%A9%9F%E5%99%A8%E4%BA%BA%E7%B7%A8%E9%80%A0%E7%9A%84%E9%86%AB%E5%AD%B8%E8%AB%96%E6%96%87%E6%91%98
39. 也就是說,人類在進行決策時,會過度偏重先前取得的資訊,即使這個資訊與這項決定無關。詳見維基百科的說明。引用網址:https://zh.wikipedia.org/zh-tw/%E5%AE%9A%E9%8C%A8%E6%95%88%E6%87%89。
40. 例如以下這篇評論:〈人工智慧降臨,人文科學已死?〉,36氪(12/30/2022)。引用網址:https://www.techbang.com/posts/102780-artificial-intelligence-humanities
作者現於台灣清華大學任物理系教授、諮商中心主任與人文社會AI應用與發展研究中心副主任。未修改原文可見作者博客https://blog.udn.com/dawweiwang/178590221。
Leave a Reply