,

人类威胁?福音助手?真理契机?——关于当红炸子鸡AI(黄雅格)2023.07.19

本文原刊于举目官网2023.07.19

黄雅格

AI发展划时代的一年

2023年5月29日上午11点台北时间,亚洲最大的 IT 工业展Computex揭开了序幕,由英伟达(NVIDIA,又译辉达)之首席执行官黄仁勋作主题演讲。

在此会议中,黄报告了多项GPU的进步与在AI上的应用,还让AI生成一首台湾风味的英伟达宣传歌曲。

报告的重点,是“生成型AI和加速计算机的时代正已经来临”——突破了摩尔定律(Moore’s Law)的限制:过去,每两年芯片上的元件密度加倍,对CPU中央计算器来说,可能已经饱和了;而根据黄氏定律(Huang’s Law),图像计算处理器(GPU,又称显卡)的性能,在过去10年增长了100万倍,约每5年增强1000倍!(注1)

当今GPU的突飞猛进,如英伟达Nvidia或超微(Advanced Micro Devices, Inc.;缩写AMD)的GPU,正是能将AI能从无用的废文产生器,发展到能实际有用工具的主要关键。因此英伟达成为第一家在2023年5月30日市值达万亿美元的芯片设计公司。

与此同时,2022年11月30日和2023年3月14日,也是在AI软件科技界的两个主要日子。

就在这两个具标志性的日子,ChatGPT 3.5与GPT4 的AI软件系统相继问世,其能力令人惊悚:居然AI可以用超过20种自然语言流利的对话,相互翻译,可以回答许多相当广泛知识领域的问题,可以根据提示的题目写出短文,写相当不错的英文十四行诗,与中文白话诗,甚至可以理解一些一语双关的笑话。

在语音识别方面,AI已经相当成熟可以实用,譬如将一篇视频送入Maestra的AI软件网站,它可以在几分钟之间产生全稿,配上字幕。而产生的文字稿可以再输入到ChatGPT,整理出大纲与关键字,作为网络搜索的索引。

而另一方面,在图像识别与图像产生也有长足的进步。用MidJourney 的软件,只要以文字输入提示,即可产生非常传神的图像。

英伟达在自己的年度技术研讨会上,也展现了如何以AI 捕捉黄仁勋先生的立体3D影像,并模拟他的语音,再AI合成他在研讨会的主题演说,他只是提供讲稿而已……此外,AI甚至可以写出相当不错的电脑程序。

因此,若说2023年是AI发展划时代的一年,一点都不夸张;因着AI的跳跃式的进展,若预估此AI 进展将会引起整个社会的变革,也不为过。

到底啥是AI?

所谓人工智能(AI),其实是计算机科学的一个分支,着重创建能够模仿人类智能的机器和软件,包括学习、推理、解决问题、感知和语言理解等等。

AI系统可大致分为两类:1. 狭义AI——设计用于执行特定任务(如面部识别或互联网搜索)。2. 通用AI——可以执行人类能够完成的任何智力任务。

此外,人工智能(AI)还包含多个子领域:

机器学习(ML

为一种资料分析方法,可以自动建立分析模型。它使计算机能够在没有明确程序设计的情况下找到隐藏的现象。如推荐系统(比如亚马逊推荐商品,脸书推荐帖文)、欺诈检测以及预测客户行为。

自然语言处理(NLP

让计算机和人类语言交流,使计算机能够理解、解释和生成人类语言。NLP应用于语音助手(Siri,Alexa)、翻译服务和情感分析等。

计算机视觉

使计算机理解和解释视觉世界。它被用于人脸识别系统、自动驾驶汽车、图像编辑软件以及医学影像分析。

机器人学

设计、构造和使用机器人来与物理世界互动。机器人用于制造业、医疗保健(手术机器人)、灾难应对以及家庭任务(如Roomba吸尘器)。

专家系统

模仿人类专家决策能力的电脑系统(资料根据,则是来自人类专家提供的大量专业知识与规律)。它们被用于诸如医疗诊断、财务规划和天气预报等复杂的问题解决。

语音辨识

教授机器理解和解释人类的语音。它应用在语音启动的虚拟助手、转录服务以及客户服务机器人等。

人工神经网络和深度学习

人工神经网络,是一种受人脑神经元启发的计算模型,通过分层互联的人工神经元来处理复杂资料。而深度学习,是指它使用许多层人工神经网络,来建模和理解资料集中的复杂模式。它们应用在图像和语音辨识、自然语言处理,以及其他需要解释复杂、非结构化资料的任务上。

根据我自2022年11月以来使用GPT经验,知道如果使用者自己胸有成竹,博览群笈,是可以将大量引用的文本与资料输入GPT,让AI来节要、整合,写出文本。我甚至用GPT-4产生约14万字的全套课程,而且每一段都会引用圣经与文献出处。这的确可以作为很有效的工具。

大型语言模型的严重缺点

但是,AI应用的大型语言模型(Large Language Model,简称 LLM。注2),也有它严重的缺点。

从Chat-GPT1.0 到目前的GPT-4多模式输入系统,主要是一种以人工神经网络发展出来的 LLMs。其工作原理是基于前面词语的上下文(context),用机率来计算和预测句子中的下一个词。这是通过一种转换器(Transformer)的机器学习模型实现的。这种模型在做出预测时,可以考虑到词与词之间的长期依赖关系。

GPT的原意,就是“基于转换器的生成式预训练模型” (Generative Pre-trained Transformer)。训练LLM,需要将大量的文本数据输入模型,它会根据在这些数据中观察到的模式,预测序列中的下一个词。随着时间的推移,模型能够生成与输入相关信息,模拟人写的文本。

不过,ChatGPT这样的LLMs,却不能替代网络浏览器的搜索或人工作更深入的研究,原因是:

1. 缺乏实时知识

LLMs是在静态数据集上训练的,没有能力获取或理解实时信息。例如,如果你问GPT关于当前的天气或最近的新闻事件,它将无法提供准确的信息,因为它没有连接到互联网或实时更新。

另一方面,网络浏览器允许你访问互联网上最新的信息。虽然在2023年5月24日出的更新版 GPT,可以选项用微软的Bing来及时搜索网络,但是由于时间限制,往往仅仅搜索一、两个网站,资料很不完整。

2.  生成不准确信息的风险

诚然,LLMs可以生成像人写的文本,但它们有时会产生错误、“幻想”、甚至误导性的信息。这是因为它们基于在训练大数据中极端压缩的资料来生成回应,而不是基于已验证的事实或更新的信息。因此,如果没有内存的数据,它会借用相关类似的资料来编织回答,只是以机率计算出来的结果而已。

3. 不存在理解或自我意识

LLMs实际上并不理解它们生成的文本。它们只是根据在训练过程中学习到的模式,用机率预测下一个最可能的词。它们没有信念、观点或意识。

4. 数据中的偏见

LLMs可能会反映并放大训练数据中存在的偏见,这可能导致生成带着偏见或有害的内容。大数据通常来源于互联网,因此,它们可以反映这些数据集中存在的多样性、复杂性,也包括不准确性和偏见,因为输出的有时可能包含错误或传播错误信息,包括假新闻。

然而,人类却可以以批判性思维、区分偏见和无偏见信息的能力,来做深入的研究,而这是目前LLMs无法做到的。特别是LLM的中文训练数据量远不如英文的,因此其品质有很大的限制!若能以英文提示,英文回答,最后再翻译为中文,往往比较准确。

5. 无法评估来源

进行研究时,评估信息来源的可信度和可靠性非常重要。但LLMs无法评估它们在训练中所使用的信息的质量或可靠性。

真假信息难辨黄仁勋

因为英伟达的成功,在中文网络上就流传着许多黄仁勋先生的奋斗故事,有真有假。有些网红博主甚至声称黄先生年轻时是不良少年,在泰国的不良少年学校成长。

我也尝试着询问GPT,却因为它引用资料的混杂,甚至编造出假信息,诸如:

黄仁勋的父母并不是早年来美的。他们在黄仁勋很小的时候就离婚了……被母亲单独抚养……在台湾,直到黄仁勋小学毕业时,他的母亲决定把他们送到泰国的一所寄宿学校……在高中毕业后选择来到美国,并在俄勒冈州的一所高中完成了最后一年的学习。”(读者可对照维基资料。编注)

其实黄先生父母健在,从未离婚且恩爱持恒。可见AI若不会使用,可以祸害不浅。(可使用GPT-4 以“他的父母也是早年来美的吗?”为提示。见5/24/2023版)

深入调查,发现有一篇黄先生在他母校欧内达(Oneida)浸信会中学毕业礼上的演说。(注3)他在2019年曾捐款二百万美元给母校,建立宿舍和教室——当地偏远,但浸信会学校爱心帮助正规学校适应有困难的学生,且收费低廉,甚至免费。当年,所有学生都必须工读,黄先生就是每周负责清扫厕所。

黄仁勋在演讲中,还提到母校对少年时的他,在性格和未来的职业道德上,都产生了深远的影响。在每周两次的教堂礼拜中,黄学习了信仰和社区的重要性。在大学期间,他与未来的妻子相遇,他们共同对科技和学习的热情,成为黄仁勋生活态度的驱动力。

尽管工作繁重,黄始终将家庭置于第一,体现了他在工作与生活之间的平衡原则。他并未因为家庭经济原因无法进入常春藤大学而止步。他的生活旅程证明,成功取决于个人的爱护家庭,牺牲奉献、辛勤工作和毅力,而非学历的高低。

他甚至一再强调,他是个很普通的人,浸信会学校对他终身影响深厚。(注4)

我们虽然在公开资料中,无法找到黄先生的个人有何宗教信仰,但他年轻时绝非如网上所言,是不良少年。他的父母也从未离婚,并对他爱护有加。他自己也承认少年时在教会学校的教育,影响他一生的待人处事。网络流传的谣言来源,甚至可以说是由AI 产生的。

真理必叫我们得以自由

因此,虽然像ChatGPT这样的LLMs,可以生成模拟人写的文本,是协助执行各种任务非常有用的工具,但是它们应该被用作对深入研究和批判性思维的助手与补充,而绝对不是替代。

若是平时使用者没有习惯使用Wikipedia, Google Research等网站作深入研究,仅仅求快询问GPT,而不会应用一连串的提示导引正确答案,那就极端容易出错而不自知。

圣经中耶稣基督的教导,给我们为使用AI的伦理考量提供了最佳的基础。

耶稣说:“我就是道路、真理、生命;若不借着我,没有人能到父那里去。”(《约》14:6)。这句话强调了真理作为基督徒基本价值观的重要。耶稣并说:“你们必晓得真理,真理必叫你们得以自由。”(《约》8:32)。这些教导强调了真理的真自由力量和诚信的重要性。

如此,基督徒若不明白、不分辨事实,传播假信息,实在有愧于我们的主。在现今AI的大环境下,透明度、准确性和伦理责任,更是基督徒作盐作光的根本。

AI可被滥用来创建和传播假新闻,但AI也可以为有效的工具,作为写文章,预备课程与研究的助手,帮助传播、认识福音。因此,基督徒需要学习如何正确地使用AI,尤其是如何善用提示工程(Prompt Engineering),也就是引导AI模型生成期望输出的技术。

提示工程涉及到制定特定的提示,有效地指导AI完成所需的任务。通过掌握这些技术,使用者就可以更好地控制AI的输出结果,确保它们符合“真理”并站在健全的基督教伦理的根基上。

注:

1. https://www.youtube.com/watch?v=i-wpzS9ZsCs&t=4073s&ab_channel=NVIDIA

2. https://cdn.openai.com/papers/gpt-4.pdf

3. https://youtu.be/4jbUnXMzcF8

4. https://www.wired.com/2002/07/nvidia/

作者为机器人工学博士及教牧护教学博士。曾任职美国太空总署休斯敦太空中心研究发展主管。现职以教学、讲道为主。

Leave a Reply

Your email address will not be published. Required fields are marked *

Discover more from OC举目网站

Subscribe now to keep reading and get access to the full archive.

Continue reading