,

道可道,非神道?——从基督信仰看能言善道的ChatGPT(王道维)2023.03.15

本文原刊于举目官网2023.03.15

王道维

 

2022年11月30日,美国科技公司OpenAI发表了AI对话机器人ChatGPT(注1)。此产品横空出世:两个月内吸引超过一亿人注册成为用户,远超过去所有的网络应用程式(注2)。

ChatGPT可以就开放式的问题提供意见,编故事、写诗词、抓重点、问判决、草拟文案企划、转换表格或甚至写程式debug等等,几乎只要能透过文字表达的几乎无所不能。在这之前,只有《钢铁人》电影中的机器人,可以几乎听懂任何问题来回应主角的提问;难道AI时代真的已经来临(注3)了?

我们知道,上帝是万物的创造者,人类是按照上帝的形像所创造的,有着不可取代的价值和尊严。但是,当AI的发展(特别是ChatGPT这类近乎通用型人工智能)似乎越来越接近人类的智慧时,基督信仰该如何回应这些挑战?善用、拒绝,还是任其发展?(注4)

本文内容大纲如下:

一、简介:AI的基本图像与常见误解

二、ChatGPT:结合流利程度与回答结构的训练方式

三、从创造论看ChatGPT:上帝形像的必然彰显

四、从救赎论看ChatGPT:AI原罪需持续改善但受限于人类自身

五、从启示论看ChatGPT:可承载上帝的道而带来牧养挑战

六、直面AI时代的到来与具体建议汇整

附录:语言文字理解的五个层次

 

一、简介:AI的基本图像与常见误解

在进一步认识 ChatGPT并评估对基督信仰的影响前,笔者先从三点简略介绍AI当前发展:

       1.目前AI是以数据为基础而非规则为基础

AI的发展至今已超过60年,期间经历了几波浪潮与消退,如今又重新再起。最核心的原因是机器学习(Machine Learning)的算法,终于成功摆脱过往“以规则为基础”(rule-based)而转用“以数据为基础”(data-based)的架构来建造,才让电脑能有效地模拟出一些人类的复杂行为,如影像辨识或语音文字生成。

过去,若希望电脑自然地组织人类的话语来回答(而非制式的模板),需要先教电脑关于语言学的基本知识,例如名词、动词或介系词等等,才能放心让他来组织,但这样的效果相对呆板且错误百出。目前的AI几乎已经完全放弃这条进路(包括ChatGPT),而是让电脑直接读取大量的自然语言文本,借由计算同一个字词在不同前后文中的相对出现机率,使其模拟在特定脉络中的文字表达。

也因此,目前许多人常用的Google网络翻译大大提升其可靠程度。

       2.AI高维度空间中的模拟计算与人类大脑不同

如前所述,AI之所以可能模拟人类的某些特定的行为(例如影像辨识、写文章或下围棋等),并非事先设定好特定的规则来达到目标,而是利用已经标注好的大量数据作为基础,让机器学习的算法(如类神经网络,Artificial Neural Networks)中大量的参数可以自动调整,模拟出希望得到的效果。

由于这样的模拟过程是在超高维度(数百到数千万或更多的参数)空间中所作的计算,因此往往需要大量的计算资源与大量的数据来训练校正。所以万一结果有错,几乎不可能在海量的参数中,找出可解释性的理由来除错,只能不断try and error。因此AI的计算方式与人脑的学习模式是非常不同的(人脑并不需要这么多的资料来学习),AI也没有人的意识或灵魂。

       3.AI的应用几乎都受限于特定的范围或形式

AI的应用领域可以粗分为“弱AI”、“强AI”与“超级AI”三个类型或阶段。当前所有的AI产品都是属于弱AI的阶段,需要针对某个特定的功能来作数据标注的处理与算法的优化,因此也只能应用于某些特定的领域(例如AlphaGo只能下围棋),或以特定的方式来接收资讯并呈现结果(例如ChatGPT只能以文字输入与输出)。然而人类实际的需求往往是复杂多元的,很不容易用特定功能的AI来完全满足。

强AI也可以称作“通用型AI”(Artificial General Intelligence, AGI),代表可以在相当广的范围内,处理各种类型的资料或功能,仿佛人类大脑所能作的许多不同工作。ChatGPT因为能展现各种不同的功能,如创作、回答、翻译、改写,等等,可以算是当前最接近这个概念的AI产品。

至于超越人类智慧的超级AI,目前仅是一个概念上的推演,并非如电影小说中的描述,即将或已有进入具有自我意识或主体性的能力(注5),充其量只是人类自己的移情作用(注6),甚至可能永远无法达到。

 

二、ChatGPT:结合流利程度与回答结构的训练方式

(返回目录)

在AI许许多多的应用类型中,ChatGPT是属于一种称作“生成式AI”(Generative AI)的对话机器人。

不同于一些作常见作辨识、预测、判断或分类的AI模型,ChatGPT是专门训练用来从一堆输入文字来产生另一堆输出文字作为其训练目标。这些输出的文字当然希望是人类可以看得懂,并且能够正确有效的回应。因此并非一般搜寻引擎(注7),用以提供正确即时的讯息(注8)。

比起之前就出现过的对话机器人(如Google的LaMDA或微软的小冰等),ChatGPT有哪些让人惊艳(注9)的能耐呢?我们可以简单地从三大部分来说明。

       1.大型语言模型

首先,ChatGPT是源自GPT3.5的大型语言模型(Large Language Model, LLM),来作更精致训练与应用。它透过数千亿字来作训练,运用1750亿个调整参数——模拟每个字与前后文其他字的关系。最后再根据提问者的问题或之前的回复,来计算对应的各种文字组合机率,将整体机率最高的结果作为“答案”来提供(注10)。

由于ChatGPT训练时所用的文字资料非常多,并在不同语言间互相翻译对应的文字,所以它可以回答得相当流利;即使资料不足也可以从其他次要关系的资料(或甚至透过翻译其它语言)来自动弥补不足,仿佛是真的有个无所不知的人类在背后回应。 事实上,如果使用者直接按“重新产生(Regenerate Response)”键,就会看到其他的文字回答。因此,无法保证这些内容是正确或适当的,只能说是根据其训练资料而计算出最可能的“文字组合”,提供使用者参考。

       2.人工回馈的强化式学习

相较于之前的文字生成,ChatGPT成功更重要的因素,应该是透过人工标记员的反馈调教。

OpenAI使用数十位人工标记员来给它的回答作评分(注11),让ChatGPT的文字生成模型再透过一种称为强化式学习的方式,来强迫自己将本来机率较高、但不符合人类论述逻辑或可能有许多偏见及错误的回答,调整成较低的机率,直到输出的结果是符合人类标记员所认可的标准。

这是“人工回馈的强化式学习”(Reinforcement Learning from Human Feedback,RLHF)(注12),让ChatGPT输出的文字免除许多其他对话机器人因为训练资料中所包含的错误、偏见或不适当回应方式降低许多。

使用过ChatGPT的人会发现,同类型的问题往往也会得到类似模板的回应架构,使其内容看来更有说服力或至少有个正式文章模样。如果刻意加入一些敏感字词,如自杀、严重疾病、种族歧视等等,ChatGPT可能就会停下来说无法提供更多意见,建议询问相关的专家或求助专业领域的工作者。虽然这让许多猎奇的使用者可能觉得无趣,但至少减少不必要的困扰。

目前因为这类生成式AI的出现(包括用文字转图像的Midjourney之类的其他AI工具),市场上已经开始出现“提示工程”(Prompt engineering)(注13):利用特定的语法让AI作更精确有效地回应。因此,ChatGPT是一种更聪明的工具,而非更像人类的生物。

       3.使用当下的即时训练

ChatGPT也引入了一次性学习(One-Shot Learning)的方式,让AI可以根据使用者前次的文字即时调整回应讯息,让同一串的对话可以紧扣著主题。毕竟,不管AI事先经过多少后天训练,也不可能符合所有的使用者习惯的说表达方式,所以这样的设计就让AI会对当时的对话,体贴使用者的习惯或预期,提升使用上的好感度。

不过,这也代表使用者可以间接引诱ChatGPT来提供不实或错误的回应。例如有朋友询问2+5等于多少,GPT回答是7,但是他故意说老婆认为这个答案不对,应该是12,GPT就马上应和者说你说得对而调整答案……(但笔者发现这类数学问题已经在现在的版本调整过,不再那么好骗了)。

这使得ChatGPT日后走向客制化的模型设计,能针对不同使用者而有特定的表现方式或功能强化,例如调教成伴侣模式(注14)或其它的角色扮演。

ChatGPT这类AI机器人并非“有意识”地提供“答案”,而只是某些文字组合与其机率。这也是为什么它可能申论题回答得不错,但数学题往往很差,因为他把数字当成文字在处理,寻找最可能出现的数字答案而非实际做计算(注15)。

因此,GPT绝非无所不能。它所提供的文字组合是否能适当地“回应到外在世界”或“逻辑前后一致且精密的正确”,还需要使用者(人类)自行补充许多想像与基本常识,才能让AI的回答看起来有意义(注16)。

 

三、从创造论看ChatGPT:上帝形像的必然彰显

(返回目录)

在人类历史上,影响社会变化最剧烈快速的方式不外乎两个,一个是战争的爆发,另一个就是科技的发展。

我们几乎没有人希望发生战争,却期待现代科技可以更多发展来解决现有的问题,满足人类更多的欲望或想像。因此,基督徒就算不会天真的以为科技可以拯救世界,也很难否认科技发展仍有其重要的意义,只是当前AI与ChatGPT这类的对话机器人,显然会带来许多以前未曾想像的状况与挑战。

    1. 上帝的形象包括创造像人类自己的被造物

创造发明本来也就是上帝创造人时,所赋予人类的“上帝形像”(Image of God)之一,本身并非罪恶之事,甚至可以视为一种上帝荣耀的彰显(注17)。但如果我们依循着这个脉络作更进一步的延伸,马上就可以了解到,既然“创造”也是上帝加诸于人类的“上帝形像”之一,那么人类去创造“以人类的形像与样式”而展现的AI,也是必然的结果。

事实上,人类自有文化以来,早就创造更多想要模拟人类自己的物品,包括小孩玩的娃娃、艺术家的人像、演员的表演、到电影中的外星人想像等等。这些都在反映出人类对于创造一个类似自己的渴望与努力,并在与其对话中找到某种重要人生意义与自我认识。

AI不同的是,他比之前所有的人造物、更能借由文字语言反应出人性的某种本质(而不只是外在的样貌),使人更不容易区分真实与虚假。如果“上帝的形像”不在于外表或物质的身体(上帝是灵,有位格),那就可能必须要承认,人类最高的创造力是创造出像人类自己内在心灵的东西(如AI)。

以此而言,基督徒或许不但不需要排斥AI,甚至应该以更为认真地看待这样的发展:

ChatGPT是借由仅有人类才能掌握的语言文字来通往“通用型AI”的方向。比起表面上像人类外型的机器人或针对某些功能才能赢过人类的AI,ChatGPT的发展已经有不同于以往AI发展的意义,所评估的标准也就是回到起初AI这类机器或算法被开发时,所真正追求的目的来定位。

    2. 创造AI的目的是管理人造世界而非管理人类

那我们对于AI的创造目的应该是什么呢?

“上帝说:‘我们要照着我们的形像、按着我们的样式造人,使他们管理海里的鱼、空中的鸟、地上的牲畜,和全地,并地上所爬的一切昆虫。’”(《创》1:26)或许我们也可以合理地推论,人类按照自己形像与样式来创造的AI,也应该要以“代表人类管理人类所建构的环境”为主要的目的。

至于管理大地,责任是被委托于人类,而非人类的创造物,这两者应该要有所区分。

18世纪工业革命之后,各种水泥高楼、道路工厂、交通工具与电脑网络等“非自然”的环境,显然是人类利用上帝赋予的创造能力而作的科学发明,已经是我们日常生活无法离开的重要部分。如果借由AI的应用来协助人类管理得更好(如,以AI来管理交通或环境污染),那么人类的角色就可以从这些人造环境中的挟制脱离出来,更认真地以上帝托付的管理者的角色,好好“用心对待与享受”这片自然土地与其中的各样生物,让我们的灵魂更接近创造他的主。

    3. 创造论的角度可以成为全人类共同的基础

因此,若能更准确地了解人在上帝创造次序中的位置,AI的发展本身应该是值得期待的。即或有人从信仰上,不认同上帝创造人类且赋予的管理大地的使命,应该仍是会同意AI的发展需要有清楚的目的才行,否则无法用来支持所需要的巨大投资与应付可能发生的重要影响。

 

四、从救赎论看ChatGPT:AI原罪需持续改善但受限于人类自身

(返回目录)

    1. AI原罪使人类创造的秩序混淆

基督教的创造论除了首重创造的“目的”以外,也同样强调创造的“秩序”(Order):这个世界有其规律可循而非本质性的虚无混乱(注18)。而从神学角度来看,一个最基本且很明显的伦理秩序在于人类是被造者,地位应低于其创造者上帝。因此伊甸园的事件也就可以被理解为,被造的人类受到蛇的诱惑,想要与上帝同等,因而违背这个创造次序,带来了原罪(参《创》3:4-5)。

因此除了创造论,罪的影响与救赎的需要,是基督信仰有别于其他宗教信仰的核心关键。

当AI的拟真度越来越提升,我们也可以感受到那个创造者(人类)与被造者(AI)之间的秩序是有可能被混淆。若再加上人类本身非全能却欲望无穷,也可能让部分人太过于相信AI而造成在隐私权、智财权、工作权等领域中法律与伦理的挑战,放大这个社会已有的偏见或歧视言语(注19)。

前述这些AI近乎本质上的缺点(例如只是机率计算模拟而无法排除错误),也许可以用“AI原罪”来描述,代表不符合创造者的期待或规划的部份。只是,由于目前的AI完全没有任何实质意义上的“自由意志”(注20),并非是道德行为的主体,所以很难直接用传统神学或道德哲学的用语来等同。

    2. AI继续被救赎改善时的矛盾之处

我们这些“因信称义”的亚当后裔,是在这个不得不犯罪的肉体中,生活在目前这个几乎无望改善的世俗世界,盼望得到上帝完整的救赎(注21)。这代表我们仍能从救赎的角度,来看AI的应用可以改善调整的方向,或可类比于基督教的“成圣”的操练。

虽然基督教会中对于成圣的方式有许多不同的传统,但最终的目标都是希望能效法并活出基督耶稣的生命。(参《太》11:29;《林前》11:1;《弗》5:1;《腓》2:5)因此,我们可以合理地推论,未来若要让AI可以减少所谓的错误或危害,不可能只是用设定红线规则的方式来训练AI以减少犯错,那几乎等同于律法主义,只能减少犯错而无法真正仿效人类。

事实上,由于前述所提及,AI程式内部有大量的参数需要调整(ChatGPT就有1750亿个),所以不可能在每个方面都设下明确的“规则”,所以才需要特定的训练方式(如前述所提及的“人工回馈的强化式学习”)。

但问题是,如果AI被救赎的目标是更好的仿效人类,又该效法哪一种人呢?或是该用哪类的文化与价值观?

不可否认的,目前源自于美国巨型科技公司(如Google、Microsoft、Facebook或Apple等)所开发的AI产品,必然先入为主的使用以西方白人文化为中心的价值观来训练AI(注22),而这样的产品将来在东方文化、伊斯兰文化或其他民族文化中,必然会因为训练资料有限,或是训练的标准不同,而产生需要再被客制化或地域化(localized)的结果(注23)。倘若放任AI由一般人来训练,一定学习到更多人类错误的偏见或仇恨语言。

    3. AI如镜子只会更放大人类的缺点与罪性

可见,AI要学习的“理想模范人类”是多元化的存在,非想像中的单一性。未来若有更多类似ChatGPT的AI机器人出现时,必然会有价值观之争,且更放大了我们人类本身的缺点或差异性。从基督信仰的救赎论来看,AI恐怕永远无法真正能成为可靠产品,因为想要模拟的对象本身,就是极不完美且带有偏见的(注24)。

人类过往所有的科技发明,在脱离实验室阶段进入实用时,都会为了争取经费而强调其对人类生活的改善或好处,刻意或无意间忽略可能的缺点。当这类科技服务已经深入人类生活而出现许多非之前所能预想的负面影响时(例如手机),人类就会开始自行修改其目的或方向,为相关的技术延续生命或创造新的目的。未来也肯定会发生在AI身上,反映出人类的罪性。

从救赎论,我们发现一个看似矛盾的发展方式:一方面会有更多这种类型的AI机器人出现,需要对开发者或使用者持续追问,使之清楚回答使用目的与可能的影响,并以其应用的结果是否符合人类价值,来评估是否值得支持。同时,我们也无法完全相信人类自己,因而对人性根本的归宿与终极盼望,还是无法有真正的答案可以给AI作参考。

因此笔者认为,ChatGPT这类对话机器人将会如同一面清晰的镜子般,反映出甚至扩大人类自己的缺点。虽然总可以事后补救但仍永远不足,而促使更多人更深的反省看见自己的盲目虚空。

 

五、从启示论看ChatGPT:可承载上帝的道而带来牧养挑战

(返回目录)

1. 语言的共通性使之承载上帝的道

ChatGPT最重要的特色,是因为它比以前所有的AI模型、更有效地掌握自然语言/文字在表达方式与其相关内容的平衡,因此比过往的模型更好地往通用型AI发展。

语言文字有个非常重要的特色,就是由有限的基本单位(如音节、文字或字母),只凭借若干原则性的连接方式(即所谓的文法),就可以类似积木一般地叠加成各种丰富的形状,几乎可以表达人类思想范围内的各种事物或感受,是最接近人类大脑思想的表征(representation)方式。

许多动物有比人类更好的视觉功能或运动功能,但只有人类能真正地掌握语言(注25)。

2016年,AlphaGo战胜人类获得围棋冠军,虽然也是件历史大事,毕竟仅限于围棋这个特定范围,无法直接转译成其他功能。而掌握了语言工具就掌握了价值取舍的方式,也自然创造跨领域的应用范围。笔者认为这个语言的共通性,才是ChatGPT能产生如此重要影响的关键。

语言(话),在新约圣经中也被翻译为“道”(logos)。在希腊哲学中,这个字也是描述支配世界万物的规律性或原理,而在基督教神学中更认为道的本体就是基督,万物是上帝借着道所造(参《约》1:1-3)。

由此,从启示论看,我们就更容易理解为何ChatGPT这类利用模拟人类语言的AI,比起模拟视觉图像或其他人类行为的AI模型,更令基督徒警醒:因为语言文字不只可以承载传递人类多样的讯息或思想,也可以被用来承载上帝的智慧与启示(圣经即是以人类语言写出的)。我们应该从信仰角度对ChatGPT这类对话机器人,投以更多的神学关注。

2. ChatGPT可以在信仰脉络下被更善加利用

但是读者可能会有的质疑:前文不是已经说明,ChatGPT这类的AI对话机器人是以机率计算的方式,来模拟人类的语言,并不存在真实的意识或人性,也可能充满错误或偏见吗?那这样无法排除随机或错误的文字组合,如何可能承载上帝永恒不变的真道呢?对此问题,不妨让我们先问问ChatGPT吧,我得到的回答如下:

上述看来谦逊中立的文字,的确展现了ChatGPT回答相关问题时的特色。

笔者曾经撰文表示(注26),就一般性的语言文字理解的五个层次:字词(word)、信息(information)、意见(opinion)、知识(knowledge)与洞见(Insight)来说明(参见附录),ChatGPT的文字生成结果只能算是属于“意见”这个层次,有种逻辑架构让人觉得仿佛值得参考,但是只有在某些特定的范围中,可以与外在世界的事实产生对应,确认可靠而形成“知识”。但是这个与外在世界的事实如何对应,呼应的程度或标准是如何,其实与使用者个人的解读有关。

因此,即便是AI机器人是借由复杂的算法模拟而产生的文字,只要在使用者本身也在适当的信心与脉络之下理解,也可能被圣灵所使用来承载上帝的真道,成为我们的帮助。

上帝固然是透过圣灵感动先知与使徒,以人手所写的文字记录下圣经。但是,对圣经诠释学有一定了解的人都知道,要理解一段圣经经文的意思,不可能不回到该段经文原始的处境,先以其相关的背景作理解,再从中提取精义而适当地应用于现代环境,也同时可以从现代的环境对经文的意思作不同层次的延伸与解读。

这本是一个经文诠释的循环(注27),让基督徒于古代经文和当代现实之间保持弹性距离,创造信仰的传承与发展。甚至连我们目前所读的中文圣经,也都是因此而翻译过来的,不适合在去除相关的文化脉络下,来作灵意或私意解经(注28)。

目前,我们所讨论的AI对话机器人,就是将这些有纪录的相关文字输入数据库中作为训练材料,让机器学习字词间常见的关系,来回应使用者的提问。因此它所作的回应,以经文解释为例,基本上也就是许多解经学者整体的统计结果(注29)。虽然只属于“意见”层次,但往往也可能有相当的机会带有正确的知识,因而被上帝使用来成为信徒造就的工具之一。

类似的情形也可以应用在祷文:许多内容可能都是以前在信仰书籍中出现过的,只是重新组合而已,很难说因此就不能被上帝使用,引导使用者更接近祂。

笔者曾询问ChatGPT一个常见的圣经问题,并再请它产生一篇祈祷文来作例子,请读者自行判断,也鼓励更多的尝试。

3. 使用ChatGPT会挑战牧养的权柄与信徒的习惯

但是,当AI机器人用于信仰或牧养领域,它的无所不答也可能在明明没有资料的空白处,“抓”其他关联性较次要的文字来填补,造成“一本正经地胡言乱语”。这对于不容易直接检验的信仰议题,就容易给初信者或基本知识了解过少的人,带来了误导。

用前面提到救赎论的角度解决这个问题,除了需要在圣经或神学研究上更有经验的牧者、适时澄清外,似乎只得靠基督教会用自己筛选过的资料来训练给信徒的AI对话机器人。

但即使资料来源都是正统神学背景,也不愁训练AI的大量经费,仍可能引发一连串的问题:这样的AI对话机器人是否可能比一般的牧者懂得更多更正确?所写的祷告文或灵修笔记,更能造就信徒?信徒遇到的信仰问题是否就应该更多相信或接受AI的“权柄”,反而对牧师不一样的回答带有质疑?

当然,真正的牧养并不只是文字上的问题解答或讲道,还包括关怀、陪伴、劝勉、聆听等目前AI无法作好的事情(注30)。但是基督教会毕竟是需要顺服上帝的启示与真理而行,并不是一个经营人际关系的俱乐部,所以笔者以为未来牧养的挑战,并不只是与AI搭配互补,而是应该思考如何协助牧者善用这样的AI技术,能将对会众的牧养带到更高的层次。

同时,如果一些困难的经文或章节大意,都能靠着ChatGPT这类AI机器人简要的回答与了解,那基督徒自己是否需要思考反刍经文或信仰议题了呢?若抱着不求甚解而无求真追问的心态,是否反而将自己的信仰架空于AI模拟的文字之上而已?如何将信仰落地成为真实的生命,在未来更多AI虚拟设备的出现后,会是另一番挑战。

 

六、直面AI时代的到来与具体建议汇整

(返回目录)

面对已经来临的AI时代,特别是ChatGPT这类接近通用型AI的发展,已经没有人再怀疑未来社会是否会因此有巨大的改变。唯一的问题,是到底该如何面对(注31)?

事实上,目前连写AI程式的工程师,都开始担心自己的工作机会会因此而减少(注32)。毕竟,ChatGTP这类生成式AI的功能已经相当齐全优秀,接口又如此方便,已经开始让一些企业停止增聘相关的技术人员(注33)。这样的情形,是以往的工业革命所没有过的。目前世界各国也很难有好的范示,可以有效地面对。

因此,目前对于AI在信仰团体或福音未来发展上所产生的影响,了解还十分有限,很容易过分低估或夸大其影响。由于文章篇幅的限制,在此笔者不再重复许多关于“AI时代可能带给我们的影响”的讨论。有兴趣的读者,可以很容易从网络上找到相关资讯(注34)。以下仅综合前面从圣经的创造、救赎与启示的角度,来对华人基督教会或基督徒提供笔者几个方向性建议:

1. 从创造论的角度,我们应该肯定AI相关的发展,也是上帝创造人类时所赋予的上帝形象展现之一。因此可以鼓励更多相关领域的专业基督徒,投入研究或发展,也在教会生活中适当应用,不必妖魔化或给予不必要的质疑。

2. 从创造论的角度,基督教会应该对这些AI模型开发的目的与影响,给予更多的关注,鼓励督促开发者用于协助人类管理其它被造物,帮助人脱离束缚,而不是用来限制或约束人(或至少不能对人类全体有所伤害)。

3. 从救赎论的角度,我们需要提醒基督徒与社会大众,对AI几乎不可避免的错误。尽量谋求改善,并准备好相关的配套措施或法律制度。特别是如ChatGPT这类接近通用型的AI,需要有更完善的管理或审核机制。

4. 从救赎论的角度,我们知道AI因为资料蒐集与人工训练的缘故,必然会有价值观的选择,无法逃避。基督教会可以从信仰的高度,协助与不同价值观者有积极的对话,寻求妥协与配套,减少因为ChatGPT这类AI对话机器人而扩大人类内部原有的差异或冲突。

5. 从启示论的角度,教会应鼓励基督徒更好地建造信仰的基础知识,使之可以善用ChatGPT所产生的文字来造就人,增广相关见识或深化既有基础,而非被其可能的错误而误导。

6. 从启示论的角度,教会的牧养与神学院的信仰教育应加强预备,协助传道人让上帝的道在AI模拟信息充斥的时代,仍能有效地对基督徒与这个世代发声。要作到这个,除了对会众的需求提供引导“意见”,以及基本的“知识”基础,更需要能提供ChatGPT这类对话机器人无法产生的属灵“洞见”,让生命得到真实的属灵喂养。毕竟AI的特色,就是从大数据中模拟。倘若讲台上仍重复许多属灵“术语”就以为是敬虔,那就真的很难造就信徒的灵魂,也更容易被模仿取代。

最后,笔者认为未来AI必然会以更多的应用形式渗入我们的生活,人们都会被这些虚拟环境所围绕,更难完整地认识自己。因此未来对于人生的意义或价值有迷茫的人,必定更多(特别是年轻世代),形成更大的福音需求。

因此,教会的聚会不能再只有节目式的大型聚会或同温层内的小组聚会,毕竟在未来AI模拟充斥的时代,人们来到教会都需要找到耶稣对其个人独特的呼召,而非仿佛用同个工厂的标准流程所制造出的罐头信徒。或许唯有这样,我们才能算是实践自己的“道成肉身”,成为耶稣所认识但无法为AI算法所替代的那一位。

 

附录:语言文字理解的五个层次(注35)

(返回目录)

一般使用语言文字表达的时候,我们可以先区分以下几个不同层次的概念,这些组成我们对于现有知识结构的理解(注36):字词(word)、信息(information)、意见(opinion)、知识(knowledge)与洞见(Insight),并举一些基督信仰的例子来说明。

1. 字词:本身其实只是一种符号,通常是用来表达另一些概念对象。

从现代语言学的角度来看,某个特定的符号和其所特定所指的概念对象之间的联系不是绝对的,而是有约定俗成的弹性。唯一有关系的是使用这个字词的人是否是在相关的文化环境中使用,以至于可以与其他人正确的沟通,不会误会彼此的意思。

因此,如果认为某些基督教术语(如哈利路亚)之类的就比较属灵,其实那只是在一个特定的脉络中才对听得懂的人有意义。从这个角度来看,一个基督徒说“哈利路亚”如果只是一个习惯性的口头禅,并不见得会比ChatGPT在合适的脉络下使用这个词汇。更为属灵或被上帝所看重。

2. 信息:由于只有单字词是无法正确代表语言,还必须放在正确的前后文(context)中,才有可能发挥效果,描述某些外在事物或内心感受或理念。

前述的大型语言模型,就是根据这个前后文来计算出的复杂机率关系:利用前面出现的几十个字词,推算后面将会出现的字词,有助于形成一个通顺的文句,例如“这件事情可以祷告交托给上帝”。这样的语言表达,可以说在某个程度上描写出一段不同事物 (事情、祷告、交托、上帝) 彼此之间的关系,开始指涉某些事件发生的过程或内涵。

这样的讯息是带有描述成分,也当然就可能成为可以评价正确性或合适性与否的内容。由于大型语言数据库都是人类所使用的文字,所以应该几乎不会出现类似“给事情祷告可以交托这件上帝”这种看起来符合文法但语意不通的句子。

3. 意见:但是以上的信息本身并不见得能影响对话的对象,因为听的人可能只是觉得他在自言自语,毕竟类似的信息本身就充满在我们四周。但是我们通常会选择考虑听从那些有根据、专业或至少经验上看来可靠的意见文字,来做判断。那样的意见当然不会只是一个规范性的命令,通常也会包括相关的理由与说明,形塑出一个逻辑架构,让人觉得可以考虑信任。

举例来说,“这件事情可能让妳特别烦躁,但短时间内显然也无法有效解决,也许可以祷告交托给上帝,看后来会有什么样的预备,再决定是否继续还是调整。”这样一段话就是一个意见,提供一些脉络与逻辑,带有价值评断或规范性的期待,就会使听者更愿意考虑。

笔者认为,目前的AI对话机器人所提供的文字讯息,主要是属于这样的“意见”层次,以至于会让我们觉得好像针对我们的提问而值得参考(或至少需要决定如何否决)的可能性。

从心理层面来说,对于这样“人模人样”的文字,我们人类就容易在心理上投射出应该可以信任、考虑其意见的感觉,毕竟这会帮我们节省一些做决策的时间。但是反过来说,如果使用者本身的分辨能力不足,以为所得到的回答是正确的(也无法质疑),那就可能被误导而不自知。例如前述ChatGPT的回答,说自己没有价值观,其实是不正确的。因为它的价值观已经是透过人工调教并重新训练而成,如前述的“人工回馈的强化式学习”。没有这些基础的人,就会真的以为它是完全价值中立的。

4. 知识:虽然意见的文字本身可能是通顺流畅且合理的,但是不一定能形成有效的知识。在这里,笔者并不是要陷入哲学上对于“知识论”(Epistemology)的探讨论证(注37),只是先以一般人基本的概念来说,真正的知识大致上需要一种与外在世界相符(有经验主义的基础)且有内在逻辑理由(有理性主义的架构)的整合性概念。这部分就会牵涉到实际上这些意见是否真的可行的问题,或是如果我不照着做,是否有所损失?而非只是“看起来人模人样”的感觉。

以此而论,ChatGPT有部分的功能,例如写程式、找程式的错误、找寻过往的资料、整理现存的资讯等等功能,的确达得到这类层次而成为可以信赖的知识。虽然错误仍然会有,但因为是包在一个论述架构中,所以除非对这方面相当熟悉的使用者才可能分辨。但是反过来说,如果这样的“知识”其实错误的引导到外界的事件,就可能带来严重的影响,例如医学相关的应用(注38)。

因此,我们发现容易混淆的原因就在于,由于信仰的问题很多终极的答案在于对上帝的理解或者对圣经经文的诠释。这部分往往本身难以有绝对客观的标准,很难排除某些论述的有效性,因而使用者在心理层面受到类似锚定效应(Anchoring Effect)的影响(注39)——虽然AI机器人的文字回复只是意见的层次,却有可能像是可参考的知识内容,甚或因此产生了权威感。

这是为何ChatGPT来作法律或商管领域的申论题,往往可以表现得很好,甚至可能颠覆过往人文社会领域传统、特别重视文字论述的学习方式(注40),但是它作数学或理工的问题往往不容易及格。

5. 洞见:笔者这里的洞见是指,这些文字组成不仅仅带有知识的内容可以被检验,也提出一些特殊(或以前很少被听到或重视的)观点,而这些观点是带有可预测性或至少有更完整可延伸的解释能力,能够让人相信这是未来可以被验证,或至少相当有说服力地去理解过往没有被充分了解过的问题。

这部分是目前AI机器人几乎做不到的;如此说当然也要更具体地看是哪一种问题或是哪些回复方式才能确认。可是就笔者印象所及,网络上目前为止所提出的ChatGPT实测结果,都只是惊叹它整理出一些我们本来大约就知道的内容,而没有精准高明到认为超过人类一般的能力。

其实,如果我们了解AI目前的训练方式,就会知道这一点对于目前的AI对话机器人,很可能是先天的限制,永远都无法像AlphaGo那样超越人类。这背后的原因也很简单,因为AI只是从训练的资料中模拟可能的结果。

如果资料来源是自然科学中可以明确知道的结果(如天气预测)或可以用数学所定义的目标(如围棋比赛),那AI的应用,的确就可能超越人类而更接近客观目标。但是如果这些训练资料是来自于人类社会,标准是由人类自行所定义的(否则就不像人类),那AI最多只能模拟人类的行为,准确性也就不可能超越人类多数的标准,只能说可以加快速度处理更大量的资料而节省时间。

(返回目录)

注:

1. ChatGPT的网址:https://chat.openai.com/

2. 〈ChatGPT推出仅两个月,活跃用户突破一亿〉,Business Digest (2/7/2023),引用网址:

https://hk.news.yahoo.com/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD-chatgpt%E6%8E%A8%E5%87%BA%E5%83%85%E5%85%A9%E5%80%8B%E6%9C%88-%E6%B4%BB%E8%BA%8D%E7%94%A8%E6%88%B6%E7%AA%81%E7%A0%B4-%E5%84%84-071345612.html

3. 笔者撰写这篇文章的时候,已经有Google的Bard与Meta的Llama推出类似功能的AI对话机器人,虽有其特色,但似乎都并未被认为超过ChatGPT的能力。参考以下两篇报导:〈聊天机器人Bard回答走钟 Google母公司市值蒸发千亿美元〉,上报 (2/9/2023)。引用网址: https://www.upmedia.mg/news_info.php?Type=3&SerialNo=165552。〈AI 叫阵 GPT!Meta 公开 LLaMA 大型语言模型〉,Inside(02/26/2023)。引用网址: https://www.inside.com.tw/article/30859-llama-meta

4. 本文内容有一部份改写于笔者所著,〈当Google遇上ChatGPT──从语言理解的心理面向看AI对话机器人的影响〉,风传媒(2/11/2023)。引用网址:https://www.storm.mg/article/4725780?mode=whole。后来增补的版本亦可直接见于笔者的部落格原文:https://blog.udn.com/dawweiwang/178350327。最后AI对信仰的影响,亦主要来自于笔者过去几年对AI与信仰的相关主题演讲,例如〈人工智能(智慧)的发展与基督教的未来〉(11/07/2017)。引用网址:https://blog.udn.com/dawweiwang/108971169

5. 例如可参考以下新闻:〈公开指AI聊天机器人有“人格意识”!Google工程师惨遭开除〉,数位时代(7/25/2022)。引用网址:https://www.bnext.com.tw/article/70804/google-fires-software-engineer-for-lamda?

6. 移情作用(transference)是精神分析学大师佛洛依德(Sigmund Freud)所提出,描述人类常将自己对某人的情感无意识地投射到他人身上的情形。移情作用并非都是不好的,是有助于生活的情趣或情感的调适(如对宠物的喜悦),但可能不见得是对方真实的状态。可以参考以下简要的说明。https://en.wikipedia.org/wiki/Transference

7. 关于比较搜寻引擎和语言模型的应用,以及Google与Microsoft之间可能的竞争,笔者觉得以下这篇文章写得蛮好的,也可以因此更多了解这些技术的特性与侷限,提供有兴趣的读者参考。〈微软vs Google:语言模型会不会压倒搜寻引擎?〉,36氪(2/1/2023) 。引用网址:https://tw.stock.yahoo.com/news/%E5%BE%AE%E8%BB%9Fvsgoogle%EF%BC%9A%E8%AA%9E%E8%A8%80%E6%A8%A1%E5%9E%8B%E6%9C%83%E4%B8%8D%E6%9C%83%E5%A3%93%E5%80%92%E6%90%9C%E5%B0%8B%E5%BC%95%E6%93%8E%EF%BC%9F-055720192.html

8. 事实上,微软已经将ChatGPT与搜寻引擎Bing结合起来,称作New Being,就可以联网作即时训练并将这些搜寻到的资料作通顺的整理表达,未来的确可能挑战目前Google网络搜寻的霸主地位,但也被发现因为来不及作人工除错训练,也出现许多AI幻觉或激烈言词,不得不限制每次搜寻的次数。可参考以下新闻报导:〈致命伤出现?微软承认新版Bing缺陷:聊天太久AI会生幻觉〉,自由时报(2/17/2023)。引用网址:https://3c.ltn.com.tw/news/52236

9. 〈OpenAI接受 MIT Technology Review 采访:我们压根没想到 ChatGPT 会爆红〉,Inside (3/6/2023)。引用网址:https://www.inside.com.tw/article/30914-inside-story-oral-history-how-chatgpt-built-openai

10. 关于AI如何处理人类语言的工作,统称为“自然语言处理”(Natural Language Processing),可以说是当前最富挑战性也最有未来性的AI应用。对这主题有兴趣可以参考笔者所曾经拍摄的一段影片,“自然语言处理简介”。影片参考网志:https://www.youtube.com/playlist?list=PL_qamH512zu6NbUEDShUFyHiE7qHUGJiNmty2e-3pe84

11. 关于人工配合训练ChatGPT的部分,可以参考以下稍微详细一些的说明:〈ChatGPT 为何能像人类对谈?台大资工陈缊侬教授揭 AI 模型背后的训练原理〉,Inside (12/26/2022)。引用网址:https://www.inside.com.tw/article/30190-chatgpt-professor-Vivian-Chen-interview

12. 李建兴,〈OpenAI改进GPT-3使其更能听懂人类指示,并减少输出有毒内容〉,iThome (1/28/2022)。引用网址:https://www.ithome.com.tw/news/149140

13. 事实上,网络上已经有许多人提供所谓的“ChatGPT指令大全”之类的资讯,方便使用者用特定的提问方式,来让AI做出更符合其要求与期待的工作。例如读者可以参考以下网页:ChatGPT 指令大全https://www.explainthis.io/zh-hant/chatgpt

14. ChatGPT可以依据使用者的指令作角色扮演,例如此篇提到的“伴侣模式”,〈全世界第一篇!开箱ChatGPT测试中的“虚拟情人”隐藏功能〉,Vocus (3/8/2023)。引用网址:https://vocus.cc/article/64008eb6fd89780001e5d7c8

15. 〈ChatGPT多聪明?实测能通过美名校商学院、法学院考试〉,经济日报 (1/29/2023)。引用网址:https://udn.com/news/story/6811/6935748

16. 举例来说,笔者问ChatGPT如何帮收音机介绍女友,它也就一本正经地根据收音机的性质列出一些条件,例如要喜爱音乐这样才能欣赏收音机的优点。这代表它并无法真正的掌握到人类语言表达中许多未明言的常识,这也就是所有这类AI先天不足之处。

17. 可参考美国神学家薛福(Francis A. Schaeffer)在他的著作《人类的上帝形象》(The God Who Is There)。其中他强调了人类的创造能力是上帝形像的一个重要方面,因为上帝是创造者,而人类通过创造来展现自己的形像。

18. 有人可能会引用物理中的量子力学或测不准原理认为世界的本质是随机而不可确定的。但是笔者要提醒的是,我们仍能用量子力学的方程式来明确描述计算这些机率。这显示物理学家并非相信世界本质上是混沌随机,否则连建立物理定律来描述的企图都不必有。

19. 这些当前AI应用时最容易被质疑与引起争议的地方,已经有许多人文社会领域的学者开始研究相关的防范配套措施,此处就不再叙述。

20. 关于AI是否有自由意志等主题,在哲学或心理学领域已经有许多讨论。这根本上会牵涉到我们如何定义人类的自由意志,或甚至人类到底是否有

21. 这也代表基督教的“救赎论”绝对不只是如何定罪或得就这类过于简化的标语,还更包括如何在这罪恶满盈的世界中,带着仍会犯罪与他人几乎无异的软弱来面向上帝,与世界对话而仰望新天新地的到来。这个等候过程也是一个信心成长的历程,也就是基督徒所谓的“成圣”。

22. Samantha Murphy Kelly, “This AI chatbot is dominating social media with its frighteningly good essays”, CNN Business (11/8/2022)。引用网址:https://edition.cnn.com/2022/12/05/tech/chatgpt-trnd/index.html

23. 这显然已经发生于中国这样对资讯管控更严密的国家,如以下报导:〈ChatGPT在中国被禁用仍爆红 各家企业推替代工具〉,中央社(2/13/2023)。引用网址:https://www.cna.com.tw/news/ait/202302100339.aspx

24. 最近OpenAI也发表了类似独立宣言般的正式声明,强调人类社会应该更积极地用对话的方式来面对处理通用型AI的来到,确保每个人都能从这样的发展中获得益处。Sam Altman, “Planning for AGI and beyond”, OpenAI (2/24/2023)。引用网址:https://openai.com/blog/planning-for-agi-and-beyond

25. 虽然我们都知道许多动物可以透过声音、气味或运动方式来传达简单的讯息,但那些都完全没有办法重新组成本来所指涉的物体/事件以外的意义,也就是没有多元使用上的弹性,与人类的语言表达能力有本质上的钜大差别。

26. 王道维,《当Google遇上ChatGPT──从语言理解的心理面向看AI对话机器人的影响》,《风传媒》(2/11/2023)。引用网址:https://www.storm.mg/article/4725780?mode=whole。后来增补的版本亦可直接见于笔者的部落格原文:https://blog.udn.com/dawweiwang/178350327

27. 圣经诠释学本身是很广阔的学问,难以用三言两语说明。笔者个人很喜欢范浩沙 (Kevin J. Vanhoozer)的《神学诠释学》(校园),推荐读者可以参考。笔者为校园书房写的推荐文可见于以下网址:https://blog.udn.com/dawweiwang/109548865

28. 笔者此处的看法是属于基督教几个主要解经派别中,于宗教改革后所发展以历史文化研究为基础的“字义派”观点。相较于其他教会历史中较保守的如中世纪天主教的“寓意派”与敬虔主义的“灵修派”、或19世纪以来较为开放的“新正统派”与“自由派”,应该是属于较为中立且与华人福音派有最大交集的范围。这些解经派别的简介可见经典的解经书籍,如兰姆 (Bernard Ramm)的《基督教释经学》,或其他各种较新的当代释经学书籍。

29. 根据ChatGPT自己所提供的资料,其关于基督教信仰的资料来源包括各种常见的圣经版本、基督教历史资料、教义与信仰文集、基督教文化与艺术、基督教生活方式与实践相关的文字。资料的形式来源包括如书籍、新闻、网站、杂志、学术论文和其他文本,且不断在增加中。当然,英文的资料一定是占大多数。

30. 这部分可以参考基督教论坛报所作的专题企画,〈ChatGPT来袭! 当耶稣遇上聊天机器人会如何?〉,基督教论坛报(2/22/2023)。引用网址:https://ct.org.tw/html/news/3-3.php?cat=80&article=1394282

31. 以高等教育为例,美国的各大学已经开始为ChatGPT的使用展开新的规范甚至开发新的教学方式,可见新闻报导例如:〈禁了也没用,美大学开始改变教学方式研究怎么与ChatGPT 共存、又不用担心学生抄袭〉,36氪(1/31/2023)。引用网址:https://www.techbang.com/posts/103356-chatgpt-is-coming-american-universities-are-beginning-to

32. 可以参考以下的报导:〈ChatGPT 平均智商约 83,但让NLP工程师觉得工作毫无意义〉,INSIDE (12/09/2022)。引用网址:https://www.inside.com.tw/article/30042-ChatGPT-challenge-NLP-Algorithm-Engineer。〈用AI取代菜鸟设计师写程式,也许比你预期的更快!AlphaCode已与一般程式设计师能力相当〉,T客邦(12/15/2022)。引用网址:https://www.techbang.com/posts/102423-the-next-frontier-in-artificial-intelligence-alphacode-is

33. 可以参考以下的报导:〈请别相信 AI 不会取代人类工作〉,Inside (3/5/2023)。引用网址: https://www.inside.com.tw/article/30913-Do-not-believe-that-AI-wont-replace-human-jobs

34. 关于AI的发展会对我们社会带来的影响,并从基督信仰观点而有的回应,可以参考笔者过去几年对AI与信仰的相关主题演讲,例如〈人工智能(智慧)的发展与基督教的未来〉(11/07/2017)。引用网址:https://blog.udn.com/dawweiwang/108971169

35. 此部分较为详细的说明可以参考笔者之前的文章,〈当Google遇上ChatGPT──从语言理解的心理面向看AI对话机器人的影响〉,风传媒(2/11/2023)。引用网址:https://www.storm.mg/article/4725780?mode=whole。后来增补的版本亦可直接见于笔者的部落格原文:https://blog.udn.com/dawweiwang/178350327

36. 一般的认知心理学会以Miller(1973)所建议的五个层次来组成语言,分别是语音、语法、词汇或语意、概念、信念。但在这里笔者更着重于将最后一个信念(belief)细分为知识与洞见,代表不同强度的可信赖性,也是AI机器人比较无法呈现的部分。

37. 知识论是西方哲学重要的一个分支,重点在于如何确认所知道的内容是真实可靠的。在17-18世纪的时候有很多重要的哲学家参与相关的讨论,大抵上可分为欧陆的理性主义传统与英伦三岛的经验主义传统,而后由康德做了相当好的整合与推广界定。有兴趣的读者可以从维基百科参考一些相关资料:https://zh.wikipedia.org/zh-tw/%E7%9F%A5%E8%AF%86%E8%AE%BA

38. 例如以下报导:〈或危及人类安全? AI聊天机器人编造的医学论文摘要 科学家难辨真假〉,Bastille Post (1/23/2023)。引用网址:https://www.bastillepost.com/hongkong/article/12136400-%E6%88%96%E5%8D%B1%E5%8F%8A%E4%BA%BA%E9%A1%9E%E5%AE%89%E5%85%A8%EF%BC%9F-ai%E8%81%8A%E5%A4%A9%E6%A9%9F%E5%99%A8%E4%BA%BA%E7%B7%A8%E9%80%A0%E7%9A%84%E9%86%AB%E5%AD%B8%E8%AB%96%E6%96%87%E6%91%98

39. 也就是说,人类在进行决策时,会过度偏重先前取得的资讯,即使这个资讯与这项决定无关。详见维基百科的说明。引用网址:https://zh.wikipedia.org/zh-tw/%E5%AE%9A%E9%8C%A8%E6%95%88%E6%87%89

40. 例如以下这篇评论:〈人工智能降临,人文科学已死?〉,36氪(12/30/2022)。引用网址:https://www.techbang.com/posts/102780-artificial-intelligence-humanities

 

作者现于台湾清华大学任物理系教授、咨商中心主任与人文社会AI应用与发展研究中心副主任。未修改原文可见作者博客https://blog.udn.com/dawweiwang/178590221

2 responses to “道可道,非神道?——从基督信仰看能言善道的ChatGPT(王道维)2023.03.15”

  1. […] 一、简介:AI的基本图像与常见误解 […]

  2. […] [1]王道维,“道可道,非神道?──从基督信仰看能言善道的ChatGPT与其对教会的挑战”,发表于《举目》杂志(3/12/2023)与刊登于《文化宣教:跨学科现象与理论研究》一书,由曾劭恺博士主编。《举目》的原文网址:https://behold.oc.org/?p=59126。但本文后来有若干编修与小量增补,最新版可见于笔者的部落格,引用网址:https://blog.udn.com/dawweiwang/178590221。 […]

Leave a Reply

Your email address will not be published. Required fields are marked *

Discover more from OC举目网站

Subscribe now to keep reading and get access to the full archive.

Continue reading