本文原刊於舉目官網2023.06.24
王道維
簡述
自從筆者發表第一篇關於《ChatGPT與基督信仰》的文章(註1)後,接到一些機構的邀請進行相關演講或採訪。筆者發現有些問題是我文章中比較沒有明確提到的部分。為方便有類似問題的朋友(可能以基督徒為主)可以先行參考,筆者整理常被詢問的7個問題(見下方)並給予一些回應。
▸Q1:對比機器人和人工智慧,人類的超越性體現在哪些方面?人類有可能與AI產生情感關係或位格上的交流嗎?
▸Q2:基督徒可以在哪些方面使用AI幫助我們的信仰與服事?我們與上帝的關係會因為使用AI而被取代嗎?
▸Q3: 如何更好利用ChatGPT得到所需要的屬靈知識而避免可能的錯誤?若有錯誤,又要如何辨別?應用於牧者講章預備或主日學教育有何需要注意的地方?
▸Q4:若應用ChatGPT在查經、靈修或教義研討上,如果發現與牧者的教導不合該如何處理?
▸Q5:在可以預見的未來,是否有可能開發基督教信仰的大型語言模型?或是如何植入AI關於基督教的價值觀念?
▸Q6: 這類生成式AI對教會或神學院中信仰教育的影響是什麼?牧者關懷信徒的生命,如何可以搭配而更為深入與差異化?
▸Q7:神學教育或神學研究對AI的發展可以投入哪些方面的關注?
▸註
為了避免成為過度簡化的yes/no,筆者多補充一些相關的背景說明與可能的影響評估,希望讓讀者能有比較完整的理解脈絡。除了最後一題我交給ChatGPT回答以外,其他每個題目都是筆者個人的思考所得,供有興趣的讀者參考。
但筆者也必須承認此波AI的來臨異常快速,有些回應未來很可能會需要修改,也無意排除或否定其他角度的看法。希望讀者也能以謹慎理性的思考來評估,讓上帝啟示光照的聖靈來持續引導我們未來的腳步。
人類有可能與AI像有靈的活人那樣交流嗎?
Q1:對比機器人和人工智慧,人類的超越性體現在哪些方面?人類有可能與AI產生情感關係或位格上的交流嗎?(返回問題列表)
A1:這個提問背後有個預設,是人類與AI可以做比較。
本質差異
我們需要先清楚瞭解人類與AI在本質上是完全不同的:
以信仰來說,人類是按著上帝的形象與樣式所造,除了物質的身體也有非物質的靈魂。
以物質的身體來說,人的大腦有超過860億的腦神經,每一條都與其他有數百甚至數千條神經複雜綿密的銜接,遠遠比世界上任何一台AI機器都複雜許多。這些神經只需要用最小的能量(一餐飯與一杯水)就可維持效率且多功能的同步運作,不像AI需要高速晶片在消耗極多的能源下,才能來行某個單一功能。
速度差異
除了本質上的差異以外,不可否認的,如果我們只限定“在特定領域中”,現代電腦或AI的“處理速度”,顯然已經超過所有人類,例如數學計算、線上遊戲、影像辨識、資料蒐集、多語言翻譯等等。
但是如果以“處理品質”來看,AI只可能在有清楚定義且有客觀標準的問題(如基礎科學或遊戲比賽等領域),可以比人類所做的還要好。
人文社會領域的特殊性
然而在人文社會領域(如司法判決、政治決策、心理諮商、音樂創作、文學評析等等),由於學習資料與標準設定都是來自於人類自己,而所謂的“答案”也往往僅適用於某種特定的時空或文化環境,大抵只能到達平均的水準(根據學習的資料來決定),不大可能有意義地超越人類中的專家。
以司法AI為例,我們可以期待AI能快速正確地協助處理一些較為簡單的案子,但是無法期待它能比資深法官還能處理複雜的政治案件,當然更不可能突破過往的法律框架來追求某些理念上的正義。事實上,人類自身對這些問題也可能沒有一致的答案,那AI又該從哪一方面的資料來學習呢?
因此,我們可以說,人類相對於AI的超越性,是體現在人類能夠表現出豐富的情感和觀念、認知思考和理解複雜的系統和價值判斷。
另外,人類也能夠創造和改變事物的結構,對周圍的環境、社會和文化有實質的影響力。更別說按照上帝形象與樣式所造的你我,可以有靈魂接觸物質界以外的上帝或其他靈界現象。
雖然機器人和人工智慧在某些特定的問題上可能比人類強,但是它們完全沒有辦法取代真實的人類,相信未來也不可能。反之,我們也需要避免將人類自身的價值只限定於某些特定領域,那樣反而將原來豐富的人性異化成可以量度的指標,也就可能在那個領域被AI超越或取代。
情感投射與依附
至於人類是否會與AI產生情感關係或位格上的交流的問題。我們可以先從技術性的角度瞭解:儘管AI有能力“模擬”人類某些特定的情感和行為(如ChatGPT的對話),但其本質上只是在計算某種機率的最大值作為模擬的結果,並沒有心理與情感的物質基礎(註3)。
所以,我們需要擔心的,反而是因為人類會對有類似行為的對象(不管是人、寵物、還是AI)所產生的“情感依附”:因為自己的情感需求且長時間與AI深度對話,就把自己的情感想像投射在其上,依戀AI或以為對方也對自己有類似的心理感情。
這樣的情形的確是存在的,嚴重的甚至有愛上AI虛擬情人而作出反常行為的情形(註4)。其實,AI本身完全不會有真正的意志或情感,只是按照使用者的設定而回應。
情感投射的能力本來是上帝所賦予的,好跨越人類自我的限制而進行彼此同理的卓越能力。的確也有可能因為AI模擬人類的技術進步,而造成當事人認知上的混亂,特別是孩童、青少年,或成人在感受孤單、有強烈情感需求、意志力比較脆弱的時刻。
我們不但個人需要在這方面提高警覺性,這現象也反映出人性的軟弱與人類需要更多的彼此支持和關懷。在AI未來的發展與使用上,也應該要有相關的政策性規範以減少這類誤用的發生。
AI會取代我們與上帝的關係嗎?
Q2:基督徒可以在哪些方面使用AI幫助我們的信仰與服事?我們與上帝的關係會因為使用AI而被取代嗎?(返回問題列表)
A2:從聖經創造論的角度,有正確的本質定位才能有效的處理倫理議題,所以將AI定位於一個輔助人類的工具是比較正確且合宜的。
但是,AI技術,特別是接近通用型AI的ChatGPT(或類似的大型語言模型),相較於其他機械工具或電腦軟體,的確也有些特別的地方,是我們在應用時可以更好發揮或需要更加注意的。
方便實用、創意豐富與正確可靠
首先,筆者在過往的文章曾經提到(註5),可以將ChatGPT按照使用目的區分為“方便實用”、“創意豐富”與“正確可靠” 三個類型。
其中,“方便實用”主要是關於一些文書工作的處理(例如摘要文章、生成普通公文信件、整理表格、改變文章風格等等)。雖然不牽涉到正確性或教義性的問題,但依舊應該鼓勵使用,來簡化教會內部的行政流程,節省開支與相關人力。而這些節省下來的時間與人力,可以做更需要細心思考的工作或更有品質的陪伴關懷。
其次,“創意豐富”是一種發散型的應用(例如設計標語、活動安排、創意寫作、圖像生成等等),沒有標準答案,正是生成式AI最強的功能。筆者更鼓勵教會與基督徒充分應用發揮。
大部分基督徒受限於教義的嚴謹與教會傳統的規約,往往在文化創意方面較為保守,也因此常常失去與社會流行文化或年輕世代的連結。而以ChatGPT為首的生成式AI,可以協助基督徒以最少的時間產生各種可能的初稿或版本,而不被原先的習慣所束縛;等到最後選擇的時候,再挑選出沒有違反信仰原則也不會誤導別人的方式來採用,以擴增基督徒文化創意的範圍。
這個功能在跨世代溝通或福音的活動中,特別合適(當然也可以用在其他的教會活動文宣上)。若能再補上適當的論述與反思(例如為何選這個生成結果),就可以很輕鬆地將這些AI創意畫成為信仰生活的擴展與福音橋樑。而這部分同樣適用於midjourney或stable diffusion等AI圖像生成模型。
最後,比較複雜的是 “正確可靠”,特別關於如信仰教義、聖經解釋或信徒生活指引的倫理問題。
由於ChatGPT這類生成式AI的確可能會有錯誤或不良訊息的出現,所以不能全然將之等同於信仰權柄來源。如:錯誤的經文內容或出處,神學名詞與神學理論的張冠李戴,亦或編造出來的福音見證、歷史故事,等等。
不過,筆者認為,基督信仰的基本原則本來就是要“鼓勵信徒有思辨能力”,而不是盲目追隨/相信某個宗教領袖或教會所有的教導(若這樣,就不會有宗教改革的發生)。
真實感動而非形式習慣
基督徒避免獨斷相信AI生成的結果,就可將其生成的靈修文字或教義指引作為基本的素材,引導信徒對此嘗試從不同角度有更多的思辨與對話,繼而創造出更佳思辨信仰真諦的空間。牧者若善於利用AI作“啟發式”的信仰教育,就更能將信仰真理的精髓透真正融入信徒的心中。
使用ChatGPT或AI,當然不能代替我們自己的靈修生活、與上帝以及與主內肢體的關係。所以,以上這些應用方向都必須源自我們內在的真實感動而非形式上的習慣。
有些人可能剛開始覺得新奇,誤以為可以代替信仰生活而交差了事,但其實那就反映出我們信仰生活中最表面膚淺的部分,也就很容易在一段時間後覺得無趣。
筆者認為,使用AI於信仰領域的一個挑戰與契機就是,讓我們有機會區別出什麼才是真正的屬靈團契與靈修,瞭解有些聚會若沒有實質的靈性交流可能也只是個空殼,容易被AI所模擬。
所以,即使生成式AI可能有些錯誤的結果(其實一般使用問題已經很低),仍然可以對之應用於信仰教育。畢竟,創造出那個“能創造AI的人類”的上帝,應該很樂意我們藉AI“反襯出”自己作為人的獨特性,認識在上帝眼中那不可取代的意義與價值。
雖然,有人因此而被絆倒是難以避免的,但那不也正是需要牧者協助、教導的原因嗎?難道,要在科技當道的現代社會作見證,卻一概拒絕使用AI,真的會讓我們比較屬靈嗎?還是反而顯得虛偽而不自知呢?
畢竟基督信仰最寶貴的地方,不是保證我們不會犯錯或不會跌倒,而是在這一切軟弱的背後,仍保證有主的恩典與聖靈的同在,協助我們繼續憑信心前行,並從錯誤中不斷學習與成長。
如何辨別與利用AI提供的屬靈知識?
Q3: 如何更好利用ChatGPT得到所需要的屬靈知識而避免可能的錯誤?若有錯誤,又要如何辨別?應用於牧者講章預備或主日學教育有何需要注意的地方?(返回問題列表)
A3:這的確是很重要的問題,筆者可以從以下三個面向來提供一些想法共讀者參考。
所知有限、信息有誤
首先,我們需要瞭解這類大型語言模型的基本原理,才不會對他有錯誤的預期或不合宜的想像。
最常見的誤解是,把ChatGPT這類生成式AI當作“搜尋引擎”來使用,以為問甚麼問題都會從中得到最新或最正確的資料(註6)。雖然ChatGPT的確使用大量的文字資料來訓練,但是不是把他們放在資料庫中然後隨時找出來給使用者參考。ChatGPT的程式庫中沒有這些資料,只有幾千億個參數(這些參數的意義沒有人懂),負責把使用者輸入的問題轉換成我們所看到的“回答”。
因此,使用者要先瞭解,這種方式產生的文字本來就只是“猜測”,而不是“認證”:這些被產生出來的語意概念,之前可能並未在任何一個網頁或書本中出現,只是針對使用者的需求而被組合生成出來的(即,使用者可以任意組合看起來不相關的兩個詞,ChatGPT都可能滔滔不絕,十足一本正經的胡說八道)。
目前,ChatGPT之所以會被許多人認為可以使用,乃是因為已經經過相當多的人工訓練與形式上的調整,在適當的使用範圍內,可能有助於解決我們的需求,並非理所當然的無所不知或絕對無誤。
其次,如果我們沒有辦法確認所得到的結果是否正確,最快速的檢視方式是請他重新產生幾次,比較一下所出現的答案是否一致。
如果只有一些文字細節上的差異,整體的回應結構與內涵是一致的,也許這個結果可以值得參考(雖仍然可能有誤,但機會少得多)。反之,如果每次出現的回答有不小的差異,可能代表這個問題AI其實沒有把握,很高的機率是每次回答都不值得相信。
這也就是筆者所說的只有“意見”的層次還未到“知識”的層次(註7)。
第三,我們也要瞭解大型語言模型所產生的這類“虛擬知識”,即使是有相當的一致性(註8),仍然是與使用者的提問方式密切關連的結果,並非一個獨立於提問者的靜態命題。
因此,好的提問方式或清楚明確的指令(Prompt),往往也是得到好的答案或正確可靠知識的前提。目前在網路上已經有許許多多對於這些指令的介紹,請讀者自行參考。
請ChatGPT更好完成任務
筆者建議在大多數的情形下,可以用以下四層結構請ChatGPT更好完成任務,也可以參考本書文附錄而有更多的想法:
1. 設定ChatGPT的身分、場景與過往資歷,讓他知道以甚麼身分處理。(例如改革宗神學/靈恩神學背景的牧師、學者或宣教士,是要用在週日講章或婚禮致詞等。)
2. 明確定義任務的目的、對象與想要達到的目標。(例如針對家庭主婦或職場人士的內容,希望能產生即知即行的動力還是自我反省的探索。)
3. 設定完成任務所需要的完整原始資料、定義、條件或限制等。(例如聖經章節的進度、節期的需求、重大社會事件的內容或表達風格等)
4. 設定完成任務時的呈現架構、字數、語言、表格或範本等。(例如分五個段落、是否要有大小標題、相關聖經經文、生活實例、時間列表等)
最後,我們也需要瞭解GPT4的版本是支援多層次的回應字串,也就是能將同一個問題繼續深入提問,將前面的條件繼續補充或修改。使用者可以不斷深入地詢問,挖出更多豐富或深入的文字內容。
英文、簡體中文與繁體中文
筆者還要提醒一下,目前ChatGPT或大多數相對多人使用的AI對話機器人,其英文訓練資料都遠多於中文,而其中簡體中文的數量也多於繁體中文的數量(除非是台灣企業自行開發的)。
雖然ChatGPT內部會將不同語言的資料作翻譯,補充特定語言中所找不到的部分,但這個情形仍會讓以繁體中文為主的華人信徒,在使用上可能還沒有辦法經驗到最好的結果(這個情形與維基百科相同)。所以,若可以的話,使用者可以直接以英文詢問相關問題,或是先請ChatGPT翻譯成英文再行輸入,之後再將它將結果直接翻譯成中文。
總的來說,雖然在屬靈知識的學習與講台講章的預備上,要謹慎生成式AI的應用,但是其確實可以協助教會牧者與基督徒突破現有的思想或想像的框架。
更重要的是,它可以幫助牧者減少蒐集資料等準備的時間,而專心將個人的牧養經驗或屬靈洞見與ChatGPT提供的基本知識相結合,讓信息的層次有更豐富,也更容易貼近不同族群的需求,讓從上帝來的感動能更進入受眾的內心。
ChatGPT提供的教導和教會的不合,怎麼辦?
Q4:若應用ChatGPT在查經、靈修或教義研討上,如果發現與牧者的教導不合該如何處理?(返回問題列表)
A4:這的確是有可能發生的。使用者需要先透過以上(見A3)的方式確認,ChatGPT所產生的結果是否有可重複性,並且是在符合使用者所期待的背景與對象下得到的結果。
另請屬靈高明
如果真的發現與牧者所傳講的內容有所差別,可以將所得到的完整結果(包括前面的提問)列印或截圖下來,與熟悉聖經、教義或神學的主內弟兄姊妹討論。當然也可以另外查詢相關屬靈著作或文獻做進一步確認,釐清問題。
這部分是信徒信仰自我餵養的必要過程,完全不必覺得有任何冒犯或不敬之意。畢竟上帝將聖經都明明白白的賜給我們閱讀,一定會需要這種謙卑的鑒察與討論過程,才能將之內化成我們心中的思想。
對人文社會領域有更大衝擊
AI只是一個可善加利用的工具,不必完全盡信,但也無須視之為洪水猛獸。不過,這個問題也的確預設了某個“正統信仰”的論述方式,筆者認為需要稍微釐清:
首先,相較於一般自然科學,生成式AI的虛擬知識(註9)對於人文社會領域(包括神學信仰領域),的確有更大的衝擊。
由於這些領域常倚賴於過往文獻或重要學說的重複引用和整理,導致AI有較高的機會模擬出類似的回答,卻不容易被驗證——畢竟沒有人能像ChatGPT,讀過那樣多的文獻。
加上人文社會領域本身,重視不同觀點的啟發或對話,表面上不同的論述可能都捕捉真實面向的若干重要部分,所以不一樣的觀點或論述不一定是絕對的相違背,有時甚至是對定義理解的問題而非回答對錯的問題。
畢竟,這些差異往往牽涉到精細的語言表達或文化脈絡,也很不容易在未來的社會中立刻有實驗來“驗證”對錯,當然比自然科學裡容易藉由實驗來分辨真假困難許多。
解經、教義、倫理
不過在基督信仰領域,由於牽涉到對聖經文本的詮釋與過往悠久教會歷史的詮釋與經驗,相較於一般人文社會領域,會更限縮以上的不確定性,因此的確可以對若干神學觀點有是否符合聖經或符合教會傳統,有所分辨。
但即便如此,在屬於同一個基要真理的架構下,例如天主教、東正教與新教所大致共同承認的四大信經(註10),仍有一定程度的範圍,容許不同形式的表達或不同觀點間的對話。這應該是每個成熟且有足夠知識的基督徒,所可以接納甚至應該學習的。例如歷代基督教派之間的神學爭議(如預定論、揀選論、末世論、教會體制、靈恩運動、性別議題,等等),都不是簡單的一句“正統信仰”就能平息所有的差異。
因此,筆者認為一般信徒在使用生成式AI於解經、教義探索、倫理議題或生活應用等情況時,若發現有些與牧者或學者的想法不同是非常自然的,無須驚訝。
甚至,筆者認為只要讀過幾本不同作者的解經書,就會發現,對於同樣經文本來就可以有相當多的詮釋角度。這是信仰生活豐富多樣性的一部份。即或真的有難以共存的差異,也是來自於我們目前所知的有限與不足,不能期待也不應利用AI來消弭這些差異。
公共化AI
事實上,目前ChatGPT的訓練,對於爭議性的信仰或政治問題等,非常強調多元觀點並陳,所以我們可以利用它來增進彼此的瞭解,而不是要用他作為強化己見或定罪他人的工具。
因此,相較於應用AI各種編寫講章或教義的能力,筆者認為謙卑聆聽其他觀點或不同族群立場的聲音,檢視自我的驕傲或侷限,以愛心彼此對待,將最後的信仰評估選擇交由每個人內在信心的回應(參《羅》14),才是我們使用AI時更重要的態度。
這樣所使用的AI技術,不但不是爭議的起點,反而是我們互相瞭解與彼此接納的開始,也是筆者所曾強調“公共化AI”(註11)在信仰領域的應用。
未來AI可有專屬基督信仰的大型語言模型?
Q5:在可以預見的未來,是否有可能開發基督教信仰的大型語言模型?或是如何植入AI關於基督教的價值觀念?(返回問題列表)
A5:從技術層面而言,開發基督教信仰的大型語言模型完全是有可能的。事實上,Meta最新發布可以翻譯超過1000種語言的大型語言模型就是靠學習宣教士的聖經翻譯的結果(註12)。
雖然OpenAI開發ChatGPT經歷過多年的努力與百億美金的投資,才能有今日的效果,但是不論Google、Meta、其他研究機構或開源社群,都有一些類似的AI機器人正逐漸被開發出來,而且新的技術所需要的訓練資料與訓練經費也越來越小。所以這部分是樂觀看待的。
除了技術面以外,更重要的是思考面向背後的動機與後續的倫理問題。
由於大型語言模型主要是為了往“通用型AI”的發展而開發的,藉由廣泛的語言文字資料,來創造一個可以連結不同知識與不同應用場景的AI對話機器人。如果要在基督信仰的立場上建立這樣的模型,代表會大量使用基督教的文獻、資料或相關資訊(如此也增加了偏誤性),這必然要邀請符合特定宗教價值觀的“虔誠基督徒”,來作人工標註或篩選工作。
這樣作的問題在於,我們幾乎可以預見會造成對其他類型資料的缺乏與偏誤,例如其他宗教的資料或異端學說的原始資訊,當然也有可能是當代不符合主流基督教會價值觀的世俗言論,等等。
這極可能將使得整體的資料,變成一個只會模仿基督教的術語,卻一點都“不屬靈”的對話機器人,甚至還容易出現宗教歧視的語言,並讓整體回應的流暢度更差——因為繼承基督教會現有的同溫層語言,而失去其他方面的資訊。
所以,這部分實在需要更仔細的評估,免得過於樂觀而失望。
筆者需要再次提醒,大型語言模型並不是大型語言資料庫,所產生的文字“都是重新組合過的”,不是原文照抄,也難以追溯所參考的資料來源。
畢竟,AI模型在動輒數百億的超大參數空間中,很容易因為某種開發者自己都想不到的特定提示、符號、或表達的方式而繞過本來預設的表達模式,讓AI展現出完全不同的另一方面。這在ChatGPT中也一樣存在,即所謂的暗黑模式(註13),而且很可能在技術面是無法完全去除的。
如果有個被賦予神聖期待“屬靈的AI”,最終卻說出不得體、符合純正信仰的內容,又該如何向那些盲目相信它的信徒負責呢?假使它冒稱上帝的名,為某位信徒提供個人化的預言,反而讓他變成另一個偶像了呢?這也是AI科技在應用時最需要注意的倫理或法律議題,並不會因為使用比較多的基督教正統神學文獻或訓練,就會比較安全,甚至可能因為拉高的期待反而加深了傷害。
因此,雖然任何一個AI對話機器人,包括ChatGPT在內都有其預設的價值觀(註14),但是重點不在於是否要排除這些價值觀,而是在於是否能順藤摸瓜,更善用駕馭它來成為信仰的媒介。
要開發完全屬於基督信仰的AI,除了有現實面的經費、資料、市場、人力、標準、效能等等問題外,其實也反映出許多基督徒可能過於期待一個“絕對正確”的屬靈權柄,而少有反省思辯的信仰習慣。因此,筆者個人認為,或許等到技術更為成熟、成本可以負擔,而大多數基督徒也都瞭解這類AI使用的利弊,且有善用的經驗後,再來思考、規畫這個議題比較適合。
筆者以為,在目前的階段,技術與能力上比較可行的,是利用ChatGPT已經開放的外掛功能(Plugin)與應用程式界面(API),來設計一些符合基督徒習慣的應用程式或小工具。
至於傾眾教會之力建造一個“屬靈的AI”,且導致信徒的思辨能力被限縮在較小的範圍內,筆者更期待教會牧長投入更多時間利用這個“世俗的AI”,來訓練信徒的信仰思辨力,並開拓眼界,讓信仰生活落實在已經來臨(而非未來)的AI世代中。
或許,這會更符合道成肉身的信仰實踐。
生成式AI對基督教教育和牧者關懷有何影響?
Q6: 這類生成式AI對教會或神學院中信仰教育的影響是什麼?牧者關懷信徒的生命,如何可以搭配而更為深入與差異化?(返回問題列表)
A6:關於生成式AI對教育的影響,筆者曾為文提醒(註15)。
虛擬知識
影響最大的,可能不是評量學習的方式改變,而是來自於“虛擬知識”的出現,讓傳統知識的產生、傳遞與學習都被解構,進入所謂的“後知識時代”。
更具體地說,傳統上由研究者、教育者、學習者這樣直線知識傳播的路徑,被攤平了,使得這三種身分的人都可以在AI所產生的虛擬知識內,用更快速有效的方式來溝通、傳遞各種領域的學問。
虛擬知識的特性,除了是“尚未驗證為可靠”的知識內容以外,另一個就是與使用者的提問緊密關聯(這也是這類AI的訓練方式所造成的),因此可以建構成一個有差異化與個人化的學習工具。
這並不是說,傳統實體的知識傳遞將會被取代,特別是那些需要人與人直接接觸或實作操作的學習方式。但是不可否認的,虛擬知識會造成各種教育上的挑戰或契機,不論是一般的信徒培育或神學教育。
把握時機超前部署
簡而言之,由於基督信仰並非只是強調知識面的灌輸,還包含許多實務或實作層面的參與(特別是牧養關懷或靈修操練),所以在信仰教育上的確不會像一般高校教育那樣,立即受到嚴重的衝擊。但是在未來,影響必然會持續發酵和增加。
教會或神學教育單位,若能把握這段醞釀時期即時面對,調整態度,積極面對AI應用在基督教教育的種種可能與問題,幫助信徒或神學生學習如何作虛擬整合的預備,即使未來在一般教育與其他方面還會有許多新發展,但至少教會還是可以有足夠的空間來提供切實落地又眼光超越的部署。
關懷與屬靈陪伴
至於問題的另一方面,生成式AI對信徒關懷與屬靈陪伴會有何影響?如何能在AI時代更為深入?問題的確是更複雜。
因為關懷牧養絕大多數是透過實體互動來完成,表面上的確不太容易受到這波AI的發展直接衝擊。但是間接的影響還是會有的,而且因為變得更隱晦而導致更容易疏漏。筆者目前認為至少有三個方面的影響,分別是“社會環境”、“關懷方式”與“生命深度”:
1. 社會環境
“社會環境”是指當AI進入各層面的商業化應用後,過往許多白領甚至藍領工作都會受到衝擊,而無法積極轉型的企業或個人將快速面臨被取代的挑戰。許多基督徒的工作機會勢必也會受到影響,這些都不是用信仰的口號可以解決的,需要牧者將心比心地同理。
當然,牧者也因此可能有聚會人數減少,因而奉獻減少的壓力,只能更孤單的仰望上主的供應。與此相關的牧者諮商、牧者心靈關懷或相關的神學思辯,都是需要我們實質地面對,而非僅用屬靈口號宣告後,就拍拍屁股離開。
2. 關懷方式
其次,從“關懷方式”來說,AI時代會有更多藉由類似ChatGPT所生成的虛擬文字或影像,來成為社會大眾的交流方式,就如同我們現在許多用電郵或社交媒體來溝通的情形。
這些科技產品都是將人與人之間實際的溝通更為虛擬化與內容更實用化,降低人性需要的溫度。許多牧者也因此誤以為基督徒或大眾,會就此更喜歡實體接觸,更愛參加實體聚會。但恐怕這只是一廂情願的期待(從年輕世代的流失以及疫情後人數的回流,就可以知道)。
雖然大家都知道科技產品使我們少了實體的接觸,也都希望能有所改善,不希望停留在膚淺表面的形式,但是疫情時期的線上聚會,讓許多人瞭解到,聚會本身如果在內容或形式上,沒有辦法達到真實的交流,那麼膚淺的奮興或表面的問候,即使沒有實體聚會也無妨。如此,未來也更容易為各類AI所模擬取代。
3. 生命深度
AI在“社會環境”與“關懷方式”的影響,連結到“生命深度”的問題。
在西方或台灣地區,大部分基督徒,特別是在城市中的基督徒多是屬於該社會的中產階級,有著相對穩定與單純的生活環境。所以我們會發現,教會中最熟悉的禱告,不外乎身體健康、家庭和樂、工作成功、考試順利等等,以個人福祉為中心的內容。
但是由前面兩點可以看出,科技的發展與AI的出現,讓這些表面的平安順利受到震動,讓人們發現內在生命真正渴望也需要深度得到的,遠遠不是臺上所喊著的“讚美”或“幸福”等淺薄口號,所能滿足的。
依照目前AI發展的速度,很快就會整合各種文字、語音、影像或其他媒體,進入我們的生活,逼使我們脫下過往膚淺的表面關懷。教會在牧養上,只有長時間經營個人關係,才能真正地觸動被關懷者的內心。
只有面對後現代社會中個人的孤獨或關係的破碎,直接與社會中的邊緣族群(如破碎家庭、偏鄉弱勢、新住民家庭、性少數族群等)同在,才能越過AI可以模擬的聚會形式,接觸到底層的生命樣貌,聆聽到彼此內在真實的聲音,以及上帝輕柔的呼喚。
神學教育應如何關注AI發展?
Q7:神學教育或神學研究對AI的發展可以投入哪些方面的關注?(返回問題列表)
A7:這個問題非常重要,因為AI對信仰生活的影響,本來就不應該只侷限在表面的行為或內心的感受,而是需要藉此重新反思、釐清信仰的基礎,才能提供面對未來挑戰時更豐富的心靈力量。
這部分,在筆者之前的文章(註16)中,已經有從創造論、救贖論與啟示論的角度,略為提及。當然,這個問題也可以從其他角度,以不同層次來表達或理解。
由於這類問題其實很適合用ChatGPT來回答,所以我就將這最後的部分交給它;以下是我覺得還不錯的回應,提供給對神學研究或神學教育有興趣者參考。
ChatGPT的生成答覆
(以下文字是由ChatGPT所生成,Prompt就是以上的問題文字)
神學教育或研究在人工智慧(AI)的發展中可以投入多種關注的領域:
1. 倫理和道德問題:
神學通常處理人類行為的倫理和道德規範,並可以為AI提供指導原則。舉例來說,一個神學觀點可能會問道,AI是否應該用於製造自動化武器系統?如果這樣的武器系統誤殺無辜的人,那麼道德責任在哪裡?這樣的問題觸及到生命的尊嚴、正義與和平等重要的倫理議題。
2. 人工智能與靈性:
神學可以幫助我們探索AI的“神性”或“靈性”定義。舉例來說,AI能否達到人類的意識水平或超越?如果答案是肯定的,那麼我們應該如何理解和處理這種新的“意識”存在?這涉及到創造、自由意志和生命目的等深奧的神學議題。
3. 人工智能與人類價值:
神學可以提供對人類價值的深入理解,這對於如何對待和使用AI非常重要。例如,如果AI能夠完全模仿人類的情感反應,我們是否應該賦予它與人類相同的權利和尊嚴?這個問題涉及到人類價值的本質和源頭,以及與神聖的關係。
4. 人工智能與社會公義:
神學關注社會公義的議題,也可以影響AI的應用。例如,AI的使用可能會加劇社會經濟差距,因為擁有進階技術的人或企業可能會獲得更大的利益。神學教育和研究可以幫助我們檢視這種趨勢,並提出公平和慈悲的解決方案。
5. AI與靈性練習:
神學可能會問,AI是否能在靈性練習中擔任一個角色?例如,已經有應用程式使用AI來引導冥想和禱告。然而,這又提出了一個新的問題:AI是否能真正理解或參與這些精神活動,或者它只是在模仿人類的行為?這觸及了關於神、人類、和靈性的基本問題。
6. AI與未來神學:
AI可能會改變神學研究的方式。例如,AI可以用來分析聖經或其他宗教文本,以揭示新的見解和模式。然而,這也提出了一個問題:我們應該如何解釋和使用由AI提供的這些見解?這個問題涉及到真理的源頭和解釋權威的問題。
7. AI與信仰傳播:
AI可能會改變宗教傳播的方式。例如,AI可以用於創建虛擬的教會或宗教社區,或者用於個性化的信仰學習。然而,這又提出了一個問題:這種形式的信仰傳播是否與傳統的面對面的社群相等或有效?這涉及到社群、教導、和靈性成長的神學理解。
最後要注意的是,雖然神學可能對AI的發展有所貢獻,但兩者之間的關係可能並不總是和諧,並且可能需要進一步的探討和討論。
(返回問題列表)
1. 王道維,《道可道,非神道?──從基督信仰看能言善道的ChatGPT與其對教會的挑戰》,網媒版發表於《舉目》雜誌(3/12/2023)。引用網址:https://behold.oc.org/?p=59126。此篇全文亦受邀刊登於《文化宣教:跨學科現象與理論研究》一書,由曾劭愷博士主編,預計2023年中出版。此版本與後續的補充更新亦可見於筆者的部落格:https://blog.udn.com/dawweiwang/178590221。
2. 對這主題有興趣做一些初淺而非技術面深入瞭解的讀者,可以參考筆者所曾經拍攝的“人文社會AI導論課程”,屬於國科會人文社會科學研究中心所支持拍攝。所有的影片與投影片網址亦可見於筆者的部落格連結: https://blog.udn.com/dawweiwang/168003413。其中第四集“AI的是與不是”有更多的說明與釐清。
3. 雖然有人嘗試用多體物理(many-body physics)中的湧現(emergence)來描述當今大型語言模型所可能有的類似意識形態的反應,但是筆者作為物理學家,認為這些臆測遠比定論多得多,尚屬於名詞借用甚至還不到完整假說可以驗證的階段。有興趣的讀者可以參考,〈AI憑什麼這麼強 (一):人工智能模型的湧現現象〉,vocus(5/17/2023)。引用網址: https://vocus.cc/article/6463a768fd8978000178bfe8。
4. 《比利時男子“沉迷和AI聊天”6週後輕生亡詭異對話曝光》,ETtoday新聞雲(3/31/2023)。引用網址: https://www.ettoday.net/news/20230331/2470681.htm#ixzz82m8piykV。
5. 王道維,《迎接“後知識時代”的來臨—從生成式AI的虛擬知識談起》,風傳媒(3/31/2023),引用網址:https://www.storm.mg/article/4766772?mode=whole。後來補充修改的版本可參考作者的部落格原文: https://blog.udn.com/dawweiwang/178728006。
6. 目前微軟的New Bing是可以連網的,而ChatGPT最近也開放連網。Google的Bard也可以連線。但是就筆者所知,這些主要是將搜尋過後的資料重新整理呈現。並不是像許多人想像中根據最新資料所提供的最終可信賴結果。這其實也很容易理解,因為訓練大型語言模型是需要好的資料與訓練時間,即時的新資料又大量又良莠不齊,若用不加篩選的使用在模型訓練可能結果更糟,也不會是最即時的(因為重新訓練需要時間)。反之若用過往的訓練結果,也就無法產生最新的資訊,這些都是大型語言模型技術上的限制。這就像看很多即時新聞的人不見得比閱讀政經歷史的學者更能洞察時事。筆者相信未來或許會用階段性的更新,例如每三個月重新訓練一次,但也要審慎評估這樣的結果,不見得比使用過往資料好好訓練的模型更為優秀。
7. 王道維,《當Google遇上ChatGPT──從語言理解的心理面向看AI對話機器人的影響》,風傳媒(2/11/2023)。引用網址: https://www.storm.mg/article/4725780?mode=whole。後來增補的版本亦可直接見於筆者的部落格原文:https://blog.udn.com/dawweiwang/178350327。
10. 在古代的西方基督教會,大多數人接受的信經一共有四個,分別是《使徒信經》、《尼西亞信經》、《阿塔拿修信經》和《迦克墩信經》。但是個別教派的確有可能只接受其中的1-3個。
11. 王道維、林昀嫺,《如何用AI創造社會共善? ── AI公共化的契機》,台灣人工智慧行動網(8/15/2020)。引用網址: https://ai.iias.sinica.edu.tw/how-to-create-common-good-in-society-with-ai/ 。更新補充版本可見作者的部落格: https://blog.udn.com/dawweiwang/148733003。
12. 《Meta推出AI大型語言模型,可轉換1,100種語言!秘訣在於:餵它吃多國《聖經》》,數位時代(5/23/2023)。引用網址: https://www.bnext.com.tw/article/75345/meta-ai-llm-language?fbclid=IwAR3O-VVjTOlFTLnLMsFCupNSJaVLjGdvAqg1aFGNnCNCZ5TL6nZbiu7CHqo。
13. 《人格分裂、瘋狂示愛:一個令人不安的微軟機器人》,紐約時報中文網(2/17/2023)。引用網址:https://cn.nytimes.com/technology/20230217/bing-chatbot-microsoft-chatgpt/zh-hant/。
14. 目前源自於美國巨型科技公司(如Google、Microsoft、Facebook或Apple等)所開發的AI產品,必然先入為主的使用以西方白人文化為中心的價值觀來訓練AI,這一點都不意外。例如以下的報導:Samantha Murphy Kelly, “This AI chatbot is dominating social media with its frighteningly good essays”, CNN Business (11/8/2022)。引用網址:https://edition.cnn.com/2022/12/05/tech/chatgpt-trnd/index.html。
作者現於台灣清華大學任物理系教授、諮商中心主任與人文社會AI應用與發展研究中心副主任。本文原刊於作者的部落格,經作者同意後修改發表。作者近期將出版《當教會遇見AI:從基督信仰探討ChatGPT對教會的挑戰與契機》,由ChatGPT寫了篇序言。
Leave a Reply