,

关于《ChatGPT与基督信仰》常见的问题与回应(王道维)2023.06.24

本文原刊于举目官网2023.06.24

王道维

 

简述

自从笔者发表第一篇关于《ChatGPT与基督信仰》的文章(注1)后,接到一些机构的邀请进行相关演讲或采访。笔者发现有些问题是我文章中比较没有明确提到的部分。为方便有类似问题的朋友(可能以基督徒为主)可以先行参考,笔者整理常被询问的7个问题(见下方)并给予一些回应。

Q1:对比机器人和人工智能,人类的超越性体现在哪些方面?人类有可能与AI产生情感关系或位格上的交流吗?

Q2:基督徒可以在哪些方面使用AI帮助我们的信仰与服事?我们与上帝的关系会因为使用AI而被取代吗?

Q3: 如何更好利用ChatGPT得到所需要的属灵知识而避免可能的错误?若有错误,又要如何辨别?应用于牧者讲章预备或主日学教育有何需要注意的地方?

Q4:若应用ChatGPT在查经、灵修或教义研讨上,如果发现与牧者的教导不合该如何处理?

Q5:在可以预见的未来,是否有可能开发基督教信仰的大型语言模型?或是如何植入AI关于基督教的价值观念?

Q6: 这类生成式AI对教会或神学院中信仰教育的影响是什么?牧者关怀信徒的生命,如何可以搭配而更为深入与差异化?

Q7:神学教育或神学研究对AI的发展可以投入哪些方面的关注?

为了避免成为过度简化的yes/no,笔者多补充一些相关的背景说明与可能的影响评估,希望让读者能有比较完整的理解脉络。除了最后一题我交给ChatGPT回答以外,其他每个题目都是笔者个人的思考所得,供有兴趣的读者参考。

但笔者也必须承认此波AI的来临异常快速,有些回应未来很可能会需要修改,也无意排除或否定其他角度的看法。希望读者也能以谨慎理性的思考来评估,让上帝启示光照的圣灵来持续引导我们未来的脚步。

 

人类有可能与AI像有灵的活人那样交流吗?

Q1:对比机器人和人工智能,人类的超越性体现在哪些方面?人类有可能与AI产生情感关系或位格上的交流吗?(返回问题列表)

A1这个提问背后有个默认,是人类与AI可以做比较。

 

本质差异

我们需要先清楚了解人类与AI在本质上是完全不同的:

以信仰来说,人类是按著上帝的形象与样式所造,除了物质的身体也有非物质的灵魂。

以物质的身体来说,人的大脑有超过860亿的脑神经,每一条都与其他有数百甚至数千条神经复杂绵密的衔接,远远比世界上任何一台AI机器都复杂许多。这些神经只需要用最小的能量(一餐饭与一杯水)就可维持效率且多功能的同步运作,不像AI需要高速芯片在消耗极多的能源下,才能来行某个单一功能。

这个本质上的差别我们需要先铭记在心(注2)。

 

速度差异

除了本质上的差异以外,不可否认的,如果我们只限定“在特定领域中”,现代电脑或AI的“处理速度”,显然已经超过所有人类,例如数学计算、线上游戏、影像辨识、资料蒐集、多语言翻译等等。

但是如果以“处理品质”来看,AI只可能在有清楚定义且有客观标准的问题(如基础科学或游戏比赛等领域),可以比人类所做的还要好。

 

人文社会领域的特殊性

然而在人文社会领域(如司法判决、政治决策、心理咨商、音乐创作、文学评析等等),由于学习资料与标准设定都是来自于人类自己,而所谓的“答案”也往往仅适用于某种特定的时空或文化环境,大抵只能到达平均的水准(根据学习的资料来决定),不大可能有意义地超越人类中的专家。

以司法AI为例,我们可以期待AI能快速正确地协助处理一些较为简单的案子,但是无法期待它能比资深法官还能处理复杂的政治案件,当然更不可能突破过往的法律框架来追求某些理念上的正义。事实上,人类自身对这些问题也可能没有一致的答案,那AI又该从哪一方面的资料来学习呢?

因此,我们可以说,人类相对于AI的超越性,是体现在人类能够表现出丰富的情感和观念、认知思考和理解复杂的系统和价值判断。

另外,人类也能够创造和改变事物的结构,对周围的环境、社会和文化有实质的影响力。更别说按照上帝形象与样式所造的你我,可以有灵魂接触物质界以外的上帝或其他灵界现象。

虽然机器人和人工智能在某些特定的问题上可能比人类强,但是它们完全没有办法取代真实的人类,相信未来也不可能。反之,我们也需要避免将人类自身的价值只限定于某些特定领域,那样反而将原来丰富的人性异化成可以量度的指标,也就可能在那个领域被AI超越或取代。

 

情感投射与依附

至于人类是否会与AI产生情感关系或位格上的交流的问题。我们可以先从技术性的角度了解:尽管AI有能力“模拟”人类某些特定的情感和行为(如ChatGPT的对话),但其本质上只是在计算某种机率的最大值作为模拟的结果,并没有心理与情感的物质基础(注3)。

所以,我们需要担心的,反而是因为人类会对有类似行为的对象(不管是人、宠物、还是AI)所产生的“情感依附”:因为自己的情感需求且长时间与AI深度对话,就把自己的情感想像投射在其上,依恋AI或以为对方也对自己有类似的心理感情。

这样的情形的确是存在的,严重的甚至有爱上AI虚拟情人而作出反常行为的情形(注4)。其实,AI本身完全不会有真正的意志或情感,只是按照使用者的设定而回应。

情感投射的能力本来是上帝所赋予的,好跨越人类自我的限制而进行彼此同理的卓越能力。的确也有可能因为AI模拟人类的技术进步,而造成当事人认知上的混乱,特别是孩童、青少年,或成人在感受孤单、有强烈情感需求、意志力比较脆弱的时刻。

我们不但个人需要在这方面提高警觉性,这现象也反映出人性的软弱与人类需要更多的彼此支持和关怀。在AI未来的发展与使用上,也应该要有相关的政策性规范以减少这类误用的发生。

 

AI会取代我们与上帝的关系吗?

Q2:基督徒可以在哪些方面使用AI帮助我们的信仰与服事?我们与上帝的关系会因为使用AI而被取代吗?(返回问题列表)

A2从圣经创造论的角度,有正确的本质定位才能有效的处理伦理议题,所以将AI定位于一个辅助人类的工具是比较正确且合宜的。

但是,AI技术,特别是接近通用型AI的ChatGPT(或类似的大型语言模型),相较于其他机械工具或电脑软件,的确也有些特别的地方,是我们在应用时可以更好发挥或需要更加注意的。

 

方便实用、创意丰富与正确可靠

首先,笔者在过往的文章曾经提到(注5),可以将ChatGPT按照使用目的区分为“方便实用”、“创意丰富”与“正确可靠” 三个类型。

其中,“方便实用”主要是关于一些文书工作的处理(例如摘要文章、生成普通公文信件、整理表格、改变文章风格等等)。虽然不牵涉到正确性或教义性的问题,但依旧应该鼓励使用,来简化教会内部的行政流程,节省开支与相关人力。而这些节省下来的时间与人力,可以做更需要细心思考的工作或更有品质的陪伴关怀。

其次,“创意丰富”是一种发散型的应用(例如设计标语、活动安排、创意写作、图像生成等等),没有标准答案,正是生成式AI最强的功能。笔者更鼓励教会与基督徒充分应用发挥。

大部分基督徒受限于教义的严谨与教会传统的规约,往往在文化创意方面较为保守,也因此常常失去与社会流行文化或年轻世代的连结。而以ChatGPT为首的生成式AI,可以协助基督徒以最少的时间产生各种可能的初稿或版本,而不被原先的习惯所束缚;等到最后选择的时候,再挑选出没有违反信仰原则也不会误导别人的方式来采用,以扩增基督徒文化创意的范围。

这个功能在跨世代沟通或福音的活动中,特别合适(当然也可以用在其他的教会活动文宣上)。若能再补上适当的论述与反思(例如为何选这个生成结果),就可以很轻松地将这些AI创意画成为信仰生活的扩展与福音桥梁。而这部分同样适用于midjourney或stable diffusion等AI图像生成模型。

最后,比较复杂的是 “正确可靠”,特别关于如信仰教义、圣经解释或信徒生活指引的伦理问题。

由于ChatGPT这类生成式AI的确可能会有错误或不良讯息的出现,所以不能全然将之等同于信仰权柄来源。如:错误的经文内容或出处,神学名词与神学理论的张冠李戴,亦或编造出来的福音见证、历史故事,等等。

不过,笔者认为,基督信仰的基本原则本来就是要“鼓励信徒有思辨能力”,而不是盲目追随/相信某个宗教领袖或教会所有的教导(若这样,就不会有宗教改革的发生)。

 

真实感动而非形式习惯

基督徒避免独断相信AI生成的结果,就可将其生成的灵修文字或教义指引作为基本的素材,引导信徒对此尝试从不同角度有更多的思辨与对话,继而创造出更佳思辨信仰真谛的空间。牧者若善于利用AI作“启发式”的信仰教育,就更能将信仰真理的精髓透真正融入信徒的心中。

使用ChatGPT或AI,当然不能代替我们自己的灵修生活、与上帝以及与主内肢体的关系。所以,以上这些应用方向都必须源自我们内在的真实感动而非形式上的习惯。

有些人可能刚开始觉得新奇,误以为可以代替信仰生活而交差了事,但其实那就反映出我们信仰生活中最表面肤浅的部分,也就很容易在一段时间后觉得无趣。

笔者认为,使用AI于信仰领域的一个挑战与契机就是,让我们有机会区别出什么才是真正的属灵团契与灵修,了解有些聚会若没有实质的灵性交流可能也只是个空壳,容易被AI所模拟。

所以,即使生成式AI可能有些错误的结果(其实一般使用问题已经很低),仍然可以对之应用于信仰教育。毕竟,创造出那个“能创造AI的人类”的上帝,应该很乐意我们藉AI“反衬出”自己作为人的独特性,认识在上帝眼中那不可取代的意义与价值。

虽然,有人因此而被绊倒是难以避免的,但那不也正是需要牧者协助、教导的原因吗?难道,要在科技当道的现代社会作见证,却一概拒绝使用AI,真的会让我们比较属灵吗?还是反而显得虚伪而不自知呢?

毕竟基督信仰最宝贵的地方,不是保证我们不会犯错或不会跌倒,而是在这一切软弱的背后,仍保证有主的恩典与圣灵的同在,协助我们继续凭信心前行,并从错误中不断学习与成长。

 

如何辨别与利用AI提供的属灵知识?

Q3: 如何更好利用ChatGPT得到所需要的属灵知识而避免可能的错误?若有错误,又要如何辨别?应用于牧者讲章预备或主日学教育有何需要注意的地方?(返回问题列表)

A3这的确是很重要的问题,笔者可以从以下三个面向来提供一些想法共读者参考。

 

所知有限、信息有误

首先,我们需要了解这类大型语言模型的基本原理,才不会对他有错误的预期或不合宜的想像。

最常见的误解是,把ChatGPT这类生成式AI当作“搜寻引擎”来使用,以为问什么问题都会从中得到最新或最正确的资料(注6)。虽然ChatGPT的确使用大量的文字资料来训练,但是不是把他们放在数据库中然后随时找出来给使用者参考。ChatGPT的程式库中没有这些资料,只有几千亿个参数(这些参数的意义没有人懂),负责把使用者输入的问题转换成我们所看到的“回答”。

因此,使用者要先了解,这种方式产生的文字本来就只是“猜测”,而不是“认证”:这些被产生出来的语意概念,之前可能并未在任何一个网页或书本中出现,只是针对使用者的需求而被组合生成出来的(即,使用者可以任意组合看起来不相关的两个词,ChatGPT都可能滔滔不绝,十足一本正经的胡说八道)。

目前,ChatGPT之所以会被许多人认为可以使用,乃是因为已经经过相当多的人工训练与形式上的调整,在适当的使用范围内,可能有助于解决我们的需求,并非理所当然的无所不知或绝对无误。

其次,如果我们没有办法确认所得到的结果是否正确,最快速的检视方式是请他重新产生几次,比较一下所出现的答案是否一致。

如果只有一些文字细节上的差异,整体的回应结构与内涵是一致的,也许这个结果可以值得参考(虽仍然可能有误,但机会少得多)。反之,如果每次出现的回答有不小的差异,可能代表这个问题AI其实没有把握,很高的机率是每次回答都不值得相信。

这也就是笔者所说的只有“意见”的层次还未到“知识”的层次(注7)。

第三,我们也要了解大型语言模型所产生的这类“虚拟知识”,即使是有相当的一致性(注8),仍然是与使用者的提问方式密切关连的结果,并非一个独立于提问者的静态命题。

因此,好的提问方式或清楚明确的指令(Prompt),往往也是得到好的答案或正确可靠知识的前提。目前在网络上已经有许许多多对于这些指令的介绍,请读者自行参考。

 

请ChatGPT更好完成任务

笔者建议在大多数的情形下,可以用以下四层结构请ChatGPT更好完成任务,也可以参考本书文附录而有更多的想法:

1. 设定ChatGPT的身分、场景与过往资历,让他知道以什么身分处理。(例如改革宗神学/灵恩神学背景的牧师、学者或宣教士,是要用在周日讲章或婚礼致词等。)

2. 明确定义任务的目的、对象与想要达到的目标。(例如针对家庭主妇或职场人士的内容,希望能产生即知即行的动力还是自我反省的探索。)

3. 设定完成任务所需要的完整原始资料、定义、条件或限制等。(例如圣经章节的进度、节期的需求、重大社会事件的内容或表达风格等)

4. 设定完成任务时的呈现架构、字数、语言、表格或范本等。(例如分五个段落、是否要有大小标题、相关圣经经文、生活实例、时间列表等)

最后,我们也需要了解GPT4的版本是支援多层次的回应字串,也就是能将同一个问题继续深入提问,将前面的条件继续补充或修改。使用者可以不断深入地询问,挖出更多丰富或深入的文字内容。

 

英文、简体中文与繁体中文

笔者还要提醒一下,目前ChatGPT或大多数相对多人使用的AI对话机器人,其英文训练资料都远多于中文,而其中简体中文的数量也多于繁体中文的数量(除非是台湾企业自行开发的)。

虽然ChatGPT内部会将不同语言的资料作翻译,补充特定语言中所找不到的部分,但这个情形仍会让以繁体中文为主的华人信徒,在使用上可能还没有办法经验到最好的结果(这个情形与维基百科相同)。所以,若可以的话,使用者可以直接以英文询问相关问题,或是先请ChatGPT翻译成英文再行输入,之后再将它将结果直接翻译成中文。

总的来说,虽然在属灵知识的学习与讲台讲章的预备上,要谨慎生成式AI的应用,但是其确实可以协助教会牧者与基督徒突破现有的思想或想像的框架。

更重要的是,它可以帮助牧者减少蒐集资料等准备的时间,而专心将个人的牧养经验或属灵洞见与ChatGPT提供的基本知识相结合,让信息的层次有更丰富,也更容易贴近不同族群的需求,让从上帝来的感动能更进入受众的内心。

 

ChatGPT提供的教导和教会的不合,怎么办?

Q4:若应用ChatGPT在查经、灵修或教义研讨上,如果发现与牧者的教导不合该如何处理?(返回问题列表)

A4这的确是有可能发生的。使用者需要先透过以上(见A3)的方式确认,ChatGPT所产生的结果是否有可重复性,并且是在符合使用者所期待的背景与对象下得到的结果。

 

另请属灵高明

如果真的发现与牧者所传讲的内容有所差别,可以将所得到的完整结果(包括前面的提问)打印或截图下来,与熟悉圣经、教义或神学的主内弟兄姊妹讨论。当然也可以另外查询相关属灵著作或文献做进一步确认,厘清问题。

这部分是信徒信仰自我喂养的必要过程,完全不必觉得有任何冒犯或不敬之意。毕竟上帝将圣经都明明白白的赐给我们阅读,一定会需要这种谦卑的鉴察与讨论过程,才能将之内化成我们心中的思想。

 

对人文社会领域有更大冲击

AI只是一个可善加利用的工具,不必完全尽信,但也无须视之为洪水猛兽。不过,这个问题也的确默认了某个“正统信仰”的论述方式,笔者认为需要稍微厘清:

首先,相较于一般自然科学,生成式AI的虚拟知识(注9)对于人文社会领域(包括神学信仰领域),的确有更大的冲击。

由于这些领域常倚赖于过往文献或重要学说的重复引用和整理,导致AI有较高的机会模拟出类似的回答,却不容易被验证——毕竟没有人能像ChatGPT,读过那样多的文献。

加上人文社会领域本身,重视不同观点的启发或对话,表面上不同的论述可能都捕捉真实面向的若干重要部分,所以不一样的观点或论述不一定是绝对的相违背,有时甚至是对定义理解的问题而非回答对错的问题。

毕竟,这些差异往往牵涉到精细的语言表达或文化脉络,也很不容易在未来的社会中立刻有实验来“验证”对错,当然比自然科学里容易借由实验来分辨真假困难许多。

 

解经、教义、伦理

不过在基督信仰领域,由于牵涉到对圣经文本的诠释与过往悠久教会历史的诠释与经验,相较于一般人文社会领域,会更限缩以上的不确定性,因此的确可以对若干神学观点有是否符合圣经或符合教会传统,有所分辨。

但即便如此,在属于同一个基要真理的架构下,例如天主教、东正教与新教所大致共同承认的四大信经(注10),仍有一定程度的范围,容许不同形式的表达或不同观点间的对话。这应该是每个成熟且有足够知识的基督徒,所可以接纳甚至应该学习的。例如历代基督教派之间的神学争议(如预定论、拣选论、末世论、教会体制、灵恩运动、性别议题,等等),都不是简单的一句“正统信仰”就能平息所有的差异。

因此,笔者认为一般信徒在使用生成式AI于解经、教义探索、伦理议题或生活应用等情况时,若发现有些与牧者或学者的想法不同是非常自然的,无须惊讶。

甚至,笔者认为只要读过几本不同作者的解经书,就会发现,对于同样经文本来就可以有相当多的诠释角度。这是信仰生活丰富多样性的一部份。即或真的有难以共存的差异,也是来自于我们目前所知的有限与不足,不能期待也不应利用AI来消弭这些差异。

 

公共化AI

事实上,目前ChatGPT的训练,对于争议性的信仰或政治问题等,非常强调多元观点并陈,所以我们可以利用它来增进彼此的了解,而不是要用他作为强化己见或定罪他人的工具。

因此,相较于应用AI各种编写讲章或教义的能力,笔者认为谦卑聆听其他观点或不同族群立场的声音,检视自我的骄傲或侷限,以爱心彼此对待,将最后的信仰评估选择交由每个人内在信心的回应(参《罗》14),才是我们使用AI时更重要的态度。

这样所使用的AI技术,不但不是争议的起点,反而是我们互相了解与彼此接纳的开始,也是笔者所曾强调“公共化AI”(注11)在信仰领域的应用。

 

未来AI可有专属基督信仰的大型语言模型?

Q5:在可以预见的未来,是否有可能开发基督教信仰的大型语言模型?或是如何植入AI关于基督教的价值观念?(返回问题列表)

A5:从技术层面而言,开发基督教信仰的大型语言模型完全是有可能的。事实上,Meta最新发布可以翻译超过1000种语言的大型语言模型就是靠学习宣教士的圣经翻译的结果(注12)。

虽然OpenAI开发ChatGPT经历过多年的努力与百亿美金的投资,才能有今日的效果,但是不论Google、Meta、其他研究机构或开源社群,都有一些类似的AI机器人正逐渐被开发出来,而且新的技术所需要的训练资料与训练经费也越来越小。所以这部分是乐观看待的。

除了技术面以外,更重要的是思考面向背后的动机与后续的伦理问题。

由于大型语言模型主要是为了往“通用型AI”的发展而开发的,借由广泛的语言文字资料,来创造一个可以连结不同知识与不同应用场景的AI对话机器人。如果要在基督信仰的立场上建立这样的模型,代表会大量使用基督教的文献、资料或相关资讯(如此也增加了偏误性),这必然要邀请符合特定宗教价值观的“虔诚基督徒”,来作人工标注或筛选工作。

这样作的问题在于,我们几乎可以预见会造成对其他类型资料的缺乏与偏误,例如其他宗教的资料或异端学说的原始资讯,当然也有可能是当代不符合主流基督教会价值观的世俗言论,等等。

这极可能将使得整体的资料,变成一个只会模仿基督教的术语,却一点都“不属灵”的对话机器人,甚至还容易出现宗教歧视的语言,并让整体回应的流畅度更差——因为继承基督教会现有的同温层语言,而失去其他方面的资讯。

所以,这部分实在需要更仔细的评估,免得过于乐观而失望。

笔者需要再次提醒,大型语言模型并不是大型语言数据库,所产生的文字“都是重新组合过的”,不是原文照抄,也难以追溯所参考的资料来源。

毕竟,AI模型在动辄数百亿的超大参数空间中,很容易因为某种开发者自己都想不到的特定提示、符号、或表达的方式而绕过本来默认的表达模式,让AI展现出完全不同的另一方面。这在ChatGPT中也一样存在,即所谓的暗黑模式(注13),而且很可能在技术面是无法完全去除的。

如果有个被赋予神圣期待“属灵的AI”,最终却说出不得体、符合纯正信仰的内容,又该如何向那些盲目相信它的信徒负责呢?假使它冒称上帝的名,为某位信徒提供个人化的预言,反而让他变成另一个偶像了呢?这也是AI科技在应用时最需要注意的伦理或法律议题,并不会因为使用比较多的基督教正统神学文献或训练,就会比较安全,甚至可能因为拉高的期待反而加深了伤害。

因此,虽然任何一个AI对话机器人,包括ChatGPT在内都有其默认的价值观(注14),但是重点不在于是否要排除这些价值观,而是在于是否能顺藤摸瓜,更善用驾驭它来成为信仰的媒介。

要开发完全属于基督信仰的AI,除了有现实面的经费、资料、市场、人力、标准、效能等等问题外,其实也反映出许多基督徒可能过于期待一个“绝对正确”的属灵权柄,而少有反省思辩的信仰习惯。因此,笔者个人认为,或许等到技术更为成熟、成本可以负担,而大多数基督徒也都了解这类AI使用的利弊,且有善用的经验后,再来思考、规画这个议题比较适合。

笔者以为,在目前的阶段,技术与能力上比较可行的,是利用ChatGPT已经开放的外挂功能(Plugin)与应用程式界面(API),来设计一些符合基督徒习惯的应用程式或小工具。

至于倾众教会之力建造一个“属灵的AI”,且导致信徒的思辨能力被限缩在较小的范围内,笔者更期待教会牧长投入更多时间利用这个“世俗的AI”,来训练信徒的信仰思辨力,并开拓眼界,让信仰生活落实在已经来临(而非未来)的AI世代中。

或许,这会更符合道成肉身的信仰实践。

 

生成式AI对基督教教育和牧者关怀有何影响?

Q6: 这类生成式AI对教会或神学院中信仰教育的影响是什么?牧者关怀信徒的生命,如何可以搭配而更为深入与差异化?(返回问题列表)

 A6关于生成式AI对教育的影响,笔者曾为文提醒(注15)。

 

虚拟知识

影响最大的,可能不是评量学习的方式改变,而是来自于“虚拟知识”的出现,让传统知识的产生、传递与学习都被解构,进入所谓的“后知识时代”。

更具体地说,传统上由研究者、教育者、学习者这样直线知识传播的路径,被摊平了,使得这三种身分的人都可以在AI所产生的虚拟知识内,用更快速有效的方式来沟通、传递各种领域的学问。

虚拟知识的特性,除了是“尚未验证为可靠”的知识内容以外,另一个就是与使用者的提问紧密关联(这也是这类AI的训练方式所造成的),因此可以建构成一个有差异化与个人化的学习工具。

这并不是说,传统实体的知识传递将会被取代,特别是那些需要人与人直接接触或实作操作的学习方式。但是不可否认的,虚拟知识会造成各种教育上的挑战或契机,不论是一般的信徒培育或神学教育。

 

把握时机超前部署

简而言之,由于基督信仰并非只是强调知识面的灌输,还包含许多实务或实作层面的参与(特别是牧养关怀或灵修操练),所以在信仰教育上的确不会像一般高校教育那样,立即受到严重的冲击。但是在未来,影响必然会持续发酵和增加。

教会或神学教育单位,若能把握这段酝酿时期即时面对,调整态度,积极面对AI应用在基督教教育的种种可能与问题,帮助信徒或神学生学习如何作虚拟整合的预备,即使未来在一般教育与其他方面还会有许多新发展,但至少教会还是可以有足够的空间来提供切实落地又眼光超越的部署。

 

关怀与属灵陪伴

至于问题的另一方面,生成式AI对信徒关怀与属灵陪伴会有何影响?如何能在AI时代更为深入?问题的确是更复杂。

因为关怀牧养绝大多数是透过实体互动来完成,表面上的确不太容易受到这波AI的发展直接冲击。但是间接的影响还是会有的,而且因为变得更隐晦而导致更容易疏漏。笔者目前认为至少有三个方面的影响,分别是“社会环境”、“关怀方式”与“生命深度”:

         1. 社会环境

“社会环境”是指当AI进入各层面的商业化应用后,过往许多白领甚至蓝领工作都会受到冲击,而无法积极转型的企业或个人将方便面临被取代的挑战。许多基督徒的工作机会势必也会受到影响,这些都不是用信仰的口号可以解决的,需要牧者将心比心地同理。

当然,牧者也因此可能有聚会人数减少,因而奉献减少的压力,只能更孤单的仰望上主的供应。与此相关的牧者咨商、牧者心灵关怀或相关的神学思辩,都是需要我们实质地面对,而非仅用属灵口号宣告后,就拍拍屁股离开。

         2. 关怀方式

其次,从“关怀方式”来说,AI时代会有更多借由类似ChatGPT所生成的虚拟文字或影像,来成为社会大众的交流方式,就如同我们现在许多用电邮或社交媒体来沟通的情形。

这些科技产品都是将人与人之间实际的沟通更为虚拟化与内容更实用化,降低人性需要的温度。许多牧者也因此误以为基督徒或大众,会就此更喜欢实体接触,更爱参加实体聚会。但恐怕这只是一厢情愿的期待(从年轻世代的流失以及疫情后人数的回流,就可以知道)。

虽然大家都知道科技产品使我们少了实体的接触,也都希望能有所改善,不希望停留在肤浅表面的形式,但是疫情时期的线上聚会,让许多人了解到,聚会本身如果在内容或形式上,没有办法达到真实的交流,那么肤浅的奋兴或表面的问候,即使没有实体聚会也无妨。如此,未来也更容易为各类AI所模拟取代。

         3. 生命深度

AI在“社会环境”与“关怀方式”的影响,连结到“生命深度”的问题。

在西方或台湾地区,大部分基督徒,特别是在城市中的基督徒多是属于该社会的中产阶级,有着相对稳定与单纯的生活环境。所以我们会发现,教会中最熟悉的祷告,不外乎身体健康、家庭和乐、工作成功、考试顺利等等,以个人福祉为中心的内容。

但是由前面两点可以看出,科技的发展与AI的出现,让这些表面的平安顺利受到震动,让人们发现内在生命真正渴望也需要深度得到的,远远不是台上所喊著的“赞美”或“幸福”等浅薄口号,所能满足的。

依照目前AI发展的速度,很快就会整合各种文字、语音、影像或其他媒体,进入我们的生活,逼使我们脱下过往肤浅的表面关怀。教会在牧养上,只有长时间经营个人关系,才能真正地触动被关怀者的内心。

只有面对后现代社会中个人的孤独或关系的破碎,直接与社会中的边缘族群(如破碎家庭、偏乡弱势、新住民家庭、性少数族群等)同在,才能越过AI可以模拟的聚会形式,接触到底层的生命样貌,聆听到彼此内在真实的声音,以及上帝轻柔的呼唤。

 

神学教育应如何关注AI发展?

Q7:神学教育或神学研究对AI的发展可以投入哪些方面的关注?(返回问题列表)

A7这个问题非常重要,因为AI对信仰生活的影响,本来就不应该只侷限在表面的行为或内心的感受,而是需要借此重新反思、厘清信仰的基础,才能提供面对未来挑战时更丰富的心灵力量。

这部分,在笔者之前的文章(注16)中,已经有从创造论、救赎论与启示论的角度,略为提及。当然,这个问题也可以从其他角度,以不同层次来表达或理解。

由于这类问题其实很适合用ChatGPT来回答,所以我就将这最后的部分交给它;以下是我觉得还不错的回应,提供给对神学研究或神学教育有兴趣者参考。

 

ChatGPT的生成答复

(以下文字是由ChatGPT所生成,Prompt就是以上的问题文字)

神学教育或研究在人工智能(AI)的发展中可以投入多种关注的领域:

         1. 伦理和道德问题:

神学通常处理人类行为的伦理和道德规范,并可以为AI提供指导原则。举例来说,一个神学观点可能会问道,AI是否应该用于制造自动化武器系统?如果这样的武器系统误杀无辜的人,那么道德责任在哪里?这样的问题触及到生命的尊严、正义与和平等重要的伦理议题。

         2. 人工智能与灵性:

神学可以帮助我们探索AI的“神性”或“灵性”定义。举例来说,AI能否达到人类的意识水平或超越?如果答案是肯定的,那么我们应该如何理解和处理这种新的“意识”存在?这涉及到创造、自由意志和生命目的等深奥的神学议题。

         3. 人工智能与人类价值:

神学可以提供对人类价值的深入理解,这对于如何对待和使用AI非常重要。例如,如果AI能够完全模仿人类的情感反应,我们是否应该赋予它与人类相同的权利和尊严?这个问题涉及到人类价值的本质和源头,以及与神圣的关系。

         4. 人工智能与社会公义:

神学关注社会公义的议题,也可以影响AI的应用。例如,AI的使用可能会加剧社会经济差距,因为拥有进阶技术的人或企业可能会获得更大的利益。神学教育和研究可以帮助我们检视这种趋势,并提出公平和慈悲的解决方案。

         5. AI与灵性练习:

神学可能会问,AI是否能在灵性练习中担任一个角色?例如,已经有应用程式使用AI来引导冥想和祷告。然而,这又提出了一个新的问题:AI是否能真正理解或参与这些精神活动,或者它只是在模仿人类的行为?这触及了关于神、人类、和灵性的基本问题。

         6. AI与未来神学:

AI可能会改变神学研究的方式。例如,AI可以用来分析圣经或其他宗教文本,以揭示新的见解和模式。然而,这也提出了一个问题:我们应该如何解释和使用由AI提供的这些见解?这个问题涉及到真理的源头和解释权威的问题。

         7. AI与信仰传播:

AI可能会改变宗教传播的方式。例如,AI可以用于创建虚拟的教会或宗教社区,或者用于个性化的信仰学习。然而,这又提出了一个问题:这种形式的信仰传播是否与传统的面对面的社群相等或有效?这涉及到社群、教导、和灵性成长的神学理解。

最后要注意的是,虽然神学可能对AI的发展有所贡献,但两者之间的关系可能并不总是和谐,并且可能需要进一步的探讨和讨论。

(返回问题列表)

注:

1. 王道维,《道可道,非神道?──从基督信仰看能言善道的ChatGPT与其对教会的挑战》,网媒版发表于《举目》杂志(3/12/2023)。引用网址:https://behold.oc.org/?p=59126。此篇全文亦受邀刊登于《文化宣教:跨学科现象与理论研究》一书,由曾劭恺博士主编,预计2023年中出版。此版本与后续的补充更新亦可见于笔者的部落格:https://blog.udn.com/dawweiwang/178590221

2. 对这主题有兴趣做一些初浅而非技术面深入了解的读者,可以参考笔者所曾经拍摄的“人文社会AI导论课程”,属于国科会人文社会科学研究中心所支持拍摄。所有的影片与投影片网址亦可见于笔者的部落格连结: https://blog.udn.com/dawweiwang/168003413。其中第四集“AI的是与不是”有更多的说明与厘清。

3. 虽然有人尝试用多体物理(many-body physics)中的涌现(emergence)来描述当今大型语言模型所可能有的类似意识形态的反应,但是笔者作为物理学家,认为这些臆测远比定论多得多,尚属于名词借用甚至还不到完整假说可以验证的阶段。有兴趣的读者可以参考,〈AI凭什么这么强 (一):人工智能模型的涌现现象〉,vocus(5/17/2023)。引用网址: https://vocus.cc/article/6463a768fd8978000178bfe8

4. 《比利时男子“沉迷和AI聊天”6周后轻生亡诡异对话曝光》,ETtoday新闻云(3/31/2023)。引用网址: https://www.ettoday.net/news/20230331/2470681.htm#ixzz82m8piykV

5. 王道维,《迎接“后知识时代”的来临—从生成式AI的虚拟知识谈起》,风传媒(3/31/2023),引用网址:https://www.storm.mg/article/4766772?mode=whole。后来补充修改的版本可参考作者的部落格原文: https://blog.udn.com/dawweiwang/178728006

6. 目前微软的New Bing是可以连网的,而ChatGPT最近也开放连网。Google的Bard也可以连线。但是就笔者所知,这些主要是将搜寻过后的资料重新整理呈现。并不是像许多人想像中根据最新资料所提供的最终可信赖结果。这其实也很容易理解,因为训练大型语言模型是需要好的资料与训练时间,即时的新资料又大量又良莠不齐,若用不加筛选的使用在模型训练可能结果更糟,也不会是最即时的(因为重新训练需要时间)。反之若用过往的训练结果,也就无法产生最新的资讯,这些都是大型语言模型技术上的限制。这就像看很多即时新闻的人不见得比阅读政经历史的学者更能洞察时事。笔者相信未来或许会用阶段性的更新,例如每三个月重新训练一次,但也要审慎评估这样的结果,不见得比使用过往资料好好训练的模型更为优秀。

7. 王道维,《当Google遇上ChatGPT──从语言理解的心理面向看AI对话机器人的影响》,风传媒(2/11/2023)。引用网址: https://www.storm.mg/article/4725780?mode=whole。后来增补的版本亦可直接见于笔者的部落格原文:https://blog.udn.com/dawweiwang/178350327

8. 见注5。

9. 同上。

10. 在古代的西方基督教会,大多数人接受的信经一共有四个,分别是《使徒信经》、《尼西亚信经》、《阿塔拿修信经》和《迦克墩信经》。但是个别教派的确有可能只接受其中的1-3个。

11. 王道维、林昀嫺,《如何用AI创造社会共善? ── AI公共化的契机》,台湾人工智能行动网(8/15/2020)。引用网址: https://ai.iias.sinica.edu.tw/how-to-create-common-good-in-society-with-ai/ 。更新补充版本可见作者的部落格: https://blog.udn.com/dawweiwang/148733003

12. 《Meta推出AI大型语言模型,可转换1,100种语言!秘诀在于:喂它吃多国《圣经》》,数位时代(5/23/2023)。引用网址: https://www.bnext.com.tw/article/75345/meta-ai-llm-language?fbclid=IwAR3O-VVjTOlFTLnLMsFCupNSJaVLjGdvAqg1aFGNnCNCZ5TL6nZbiu7CHqo

13. 《人格分裂、疯狂示爱:一个令人不安的微软机器人》,纽约时报中文网(2/17/2023)。引用网址:https://cn.nytimes.com/technology/20230217/bing-chatbot-microsoft-chatgpt/zh-hant/

14. 目前源自于美国巨型科技公司(如Google、Microsoft、Facebook或Apple等)所开发的AI产品,必然先入为主的使用以西方白人文化为中心的价值观来训练AI,这一点都不意外。例如以下的报导:Samantha Murphy Kelly, “This AI chatbot is dominating social media with its frighteningly good essays”, CNN Business (11/8/2022)。引用网址:https://edition.cnn.com/2022/12/05/tech/chatgpt-trnd/index.html

15. 见注5。

16. 见注1。

 

作者现于台湾清华大学任物理系教授、咨商中心主任与人文社会AI应用与发展研究中心副主任。本文原刊于作者的部落格,经作者同意后修改发表。作者近期将出版《当教会遇见AI:从基督信仰探讨ChatGPT对教会的挑战与契机》,由ChatGPT写了篇序言。

Discover more from OC举目网站

Subscribe now to keep reading and get access to the full archive.

Continue reading