,

如何辨别与利用AI提供的属灵知识?(王道维)2023.06.18

本文原刊于举目官网2023.06.18

王道维

【编按】作者在举目上发表《道可道,非神道?——从基督信仰看能言善道的ChatGPT》一文后,根据读者回应,整理出7个常见的、与此主题相关之开放性问题(编注)作为回答。由于文章较长,所以本刊将原文7个问与答,分别加上标题成为7篇独立短文依次刊出,以方便读者阅读、讨论或回应。

Q3: 如何更好利用ChatGPT得到所需要的属灵知识而避免可能的错误?若有错误,又要如何辨别?应用于牧者讲章预备或主日学教育有何需要注意的地方?

A3这的确是很重要的问题,笔者可以从以下三个面向来提供一些想法共读者参考。

所知有限、信息有误

首先,我们需要了解这类大型语言模型的基本原理,才不会对他有错误的预期或不合宜的想像。

最常见的误解是,把ChatGPT这类生成式AI当作“搜寻引擎”来使用,以为问什么问题都会从中得到最新或最正确的资料(注6)。虽然ChatGPT的确使用大量的文字资料来训练,但是不是把他们放在数据库中然后随时找出来给使用者参考。ChatGPT的程式库中没有这些资料,只有几千亿个参数(这些参数的意义没有人懂),负责把使用者输入的问题转换成我们所看到的“回答”。

因此,使用者要先了解,这种方式产生的文字本来就只是“猜测”,而不是“认证”:这些被产生出来的语意概念,之前可能并未在任何一个网页或书本中出现,只是针对使用者的需求而被组合生成出来的(即,使用者可以任意组合看起来不相关的两个词,ChatGPT都可能滔滔不绝,十足一本正经的胡说八道)。

目前,ChatGPT之所以会被许多人认为可以使用,乃是因为已经经过相当多的人工训练与形式上的调整,在适当的使用范围内,可能有助于解决我们的需求,并非理所当然的无所不知或绝对无误。

其次,如果我们没有办法确认所得到的结果是否正确,最快速的检视方式是请他重新产生几次,比较一下所出现的答案是否一致。

如果只有一些文字细节上的差异,整体的回应结构与内涵是一致的,也许这个结果可以值得参考(虽仍然可能有误,但机会少得多)。反之,如果每次出现的回答有不小的差异,可能代表这个问题AI其实没有把握,很高的机率是每次回答都不值得相信。

这也就是笔者所说的只有“意见”的层次还未到“知识”的层次(注7)。

第三,我们也要了解大型语言模型所产生的这类“虚拟知识”,即使是有相当的一致性(注8),仍然是与使用者的提问方式密切关连的结果,并非一个独立于提问者的静态命题。

因此,好的提问方式或清楚明确的指令(Prompt),往往也是得到好的答案或正确可靠知识的前提。目前在网络上已经有许许多多对于这些指令的介绍,请读者自行参考。

请ChatGPT更好完成任务

笔者建议在大多数的情形下,可以用以下四层结构请ChatGPT更好完成任务,也可以参考本书文附录而有更多的想法:

1. 设定ChatGPT的身分、场景与过往资历,让他知道以什么身分处理。(例如改革宗神学/灵恩神学背景的牧师、学者或宣教士,是要用在周日讲章或婚礼致词等。)

2. 明确定义任务的目的、对象与想要达到的目标。(例如针对家庭主妇或职场人士的内容,希望能产生即知即行的动力还是自我反省的探索。)

3. 设定完成任务所需要的完整原始资料、定义、条件或限制等。(例如圣经章节的进度、节期的需求、重大社会事件的内容或表达风格等)

4. 设定完成任务时的呈现架构、字数、语言、表格或范本等。(例如分五个段落、是否要有大小标题、相关圣经经文、生活实例、时间列表等)

最后,我们也需要了解GPT4的版本是支援多层次的回应字串,也就是能将同一个问题继续深入提问,将前面的条件继续补充或修改。使用者可以不断深入地询问,挖出更多丰富或深入的文字内容。

英文、简体中文与繁体中文

笔者还要提醒一下,目前ChatGPT或大多数相对多人使用的AI对话机器人,其英文训练资料都远多于中文,而其中简体中文的数量也多于繁体中文的数量(除非是台湾企业自行开发的)。

虽然ChatGPT内部会将不同语言的资料作翻译,补充特定语言中所找不到的部分,但这个情形仍会让以繁体中文为主的华人信徒,在使用上可能还没有办法经验到最好的结果(这个情形与维基百科相同)。所以,若可以的话,使用者可以直接以英文询问相关问题,或是先请ChatGPT翻译成英文再行输入,之后再将它将结果直接翻译成中文。

总的来说,虽然在属灵知识的学习与讲台讲章的预备上,要谨慎生成式AI的应用,但是其确实可以协助教会牧者与基督徒突破现有的思想或想像的框架。

更重要的是,它可以帮助牧者减少蒐集资料等准备的时间,而专心将个人的牧养经验或属灵洞见与ChatGPT提供的基本知识相结合,让信息的层次有更丰富,也更容易贴近不同族群的需求,让从上帝来的感动能更进入受众的内心。

注:

6. 目前微软的New Bing是可以连网的,而ChatGPT最近也开放连网。Google的Bard也可以连线。但是就笔者所知,这些主要是将搜寻过后的资料重新整理呈现。并不是像许多人想像中根据最新资料所提供的最终可信赖结果。这其实也很容易理解,因为训练大型语言模型是需要好的资料与训练时间,即时的新资料又大量又良莠不齐,若用不加筛选的使用在模型训练可能结果更糟,也不会是最即时的(因为重新训练需要时间)。反之若用过往的训练结果,也就无法产生最新的资讯,这些都是大型语言模型技术上的限制。这就像看很多即时新闻的人不见得比阅读政经历史的学者更能洞察时事。笔者相信未来或许会用阶段性的更新,例如每三个月重新训练一次,但也要审慎评估这样的结果,不见得比使用过往资料好好训练的模型更为优秀。

7. 王道维,《当Google遇上ChatGPT──从语言理解的心理面向看AI对话机器人的影响》,风传媒(2/11/2023)。引用网址: https://www.storm.mg/article/4725780?mode=whole。后来增补的版本亦可直接见于笔者的部落格原文:https://blog.udn.com/dawweiwang/178350327

8. 见注5. 王道维,《迎接“后知识时代”的来临—从生成式AI的虚拟知识谈起》,风传媒(3/31/2023),引用网址:https://www.storm.mg/article/4766772?mode=whole。后来补充修改的版本可参考作者的部落格原文: https://blog.udn.com/dawweiwang/178728006

编注:

作者整理出7个常见关于“ChatGPT与基督信仰”的问题如下:

Q1:对比机器人和人工智能,人类的超越性体现在哪些方面?人类有可能与AI产生情感关系或位格上的交流吗?

Q2:基督徒可以在哪些方面使用AI帮助我们的信仰与服事?我们与上帝的关系会因为使用AI而被取代吗?  

Q3: 如何更好利用ChatGPT得到所需要的属灵知识而避免可能的错误?若有错误,又要如何辨别?应用于牧者讲章预备或主日学教育有何需要注意的地方?  

Q4:若应用ChatGPT在查经、灵修或教义研讨上,如果发现与牧者的教导不合该如何处理?   

Q5:在可以预见的未来,是否有可能开发基督教信仰的大型语言模型?或是如何植入AI关于基督教的价值观念?

Q6: 这类生成式AI对教会或神学院中信仰教育的影响是什么?牧者关怀信徒的生命,如何可以搭配而更为深入与差异化?   

Q7:神学教育或神学研究对AI的发展可以投入哪些方面的关注?  

作者现于台湾清华大学任物理系教授、咨商中心主任与人文社会AI应用与发展研究中心副主任。本文原刊于作者的部落格,经作者同意后修改发表。

Leave a Reply

Your email address will not be published. Required fields are marked *

Discover more from OC举目网站

Subscribe now to keep reading and get access to the full archive.

Continue reading