本文原刊于举目官网2023.07.19
黄雅格
AI发展划时代的一年
2023年5月29日上午11点台北时间,亚洲最大的 IT 工业展Computex揭开了序幕,由英伟达(NVIDIA,又译辉达)之首席执行官黄仁勋作主题演讲。
在此会议中,黄报告了多项GPU的进步与在AI上的应用,还让AI生成一首台湾风味的英伟达宣传歌曲。
报告的重点,是“生成型AI和加速计算机的时代正已经来临”——突破了摩尔定律(Moore’s Law)的限制:过去,每两年芯片上的元件密度加倍,对CPU中央计算器来说,可能已经饱和了;而根据黄氏定律(Huang’s Law),图像计算处理器(GPU,又称显卡)的性能,在过去10年增长了100万倍,约每5年增强1000倍!(注1)
当今GPU的突飞猛进,如英伟达Nvidia或超微(Advanced Micro Devices, Inc.;缩写AMD)的GPU,正是能将AI能从无用的废文产生器,发展到能实际有用工具的主要关键。因此英伟达成为第一家在2023年5月30日市值达万亿美元的芯片设计公司。
与此同时,2022年11月30日和2023年3月14日,也是在AI软件科技界的两个主要日子。
就在这两个具标志性的日子,ChatGPT 3.5与GPT4 的AI软件系统相继问世,其能力令人惊悚:居然AI可以用超过20种自然语言流利的对话,相互翻译,可以回答许多相当广泛知识领域的问题,可以根据提示的题目写出短文,写相当不错的英文十四行诗,与中文白话诗,甚至可以理解一些一语双关的笑话。
在语音识别方面,AI已经相当成熟可以实用,譬如将一篇视频送入Maestra的AI软件网站,它可以在几分钟之间产生全稿,配上字幕。而产生的文字稿可以再输入到ChatGPT,整理出大纲与关键字,作为网络搜索的索引。
而另一方面,在图像识别与图像产生也有长足的进步。用MidJourney 的软件,只要以文字输入提示,即可产生非常传神的图像。
英伟达在自己的年度技术研讨会上,也展现了如何以AI 捕捉黄仁勋先生的立体3D影像,并模拟他的语音,再AI合成他在研讨会的主题演说,他只是提供讲稿而已……此外,AI甚至可以写出相当不错的电脑程序。
因此,若说2023年是AI发展划时代的一年,一点都不夸张;因着AI的跳跃式的进展,若预估此AI 进展将会引起整个社会的变革,也不为过。
到底啥是AI?
所谓人工智能(AI),其实是计算机科学的一个分支,着重创建能够模仿人类智能的机器和软件,包括学习、推理、解决问题、感知和语言理解等等。
AI系统可大致分为两类:1. 狭义AI——设计用于执行特定任务(如面部识别或互联网搜索)。2. 通用AI——可以执行人类能够完成的任何智力任务。
此外,人工智能(AI)还包含多个子领域:
– 机器学习(ML)
为一种资料分析方法,可以自动建立分析模型。它使计算机能够在没有明确程序设计的情况下找到隐藏的现象。如推荐系统(比如亚马逊推荐商品,脸书推荐帖文)、欺诈检测以及预测客户行为。
– 自然语言处理(NLP)
让计算机和人类语言交流,使计算机能够理解、解释和生成人类语言。NLP应用于语音助手(Siri,Alexa)、翻译服务和情感分析等。
– 计算机视觉
使计算机理解和解释视觉世界。它被用于人脸识别系统、自动驾驶汽车、图像编辑软件以及医学影像分析。
– 机器人学
设计、构造和使用机器人来与物理世界互动。机器人用于制造业、医疗保健(手术机器人)、灾难应对以及家庭任务(如Roomba吸尘器)。
– 专家系统
模仿人类专家决策能力的电脑系统(资料根据,则是来自人类专家提供的大量专业知识与规律)。它们被用于诸如医疗诊断、财务规划和天气预报等复杂的问题解决。
– 语音辨识
教授机器理解和解释人类的语音。它应用在语音启动的虚拟助手、转录服务以及客户服务机器人等。
– 人工神经网络和深度学习
人工神经网络,是一种受人脑神经元启发的计算模型,通过分层互联的人工神经元来处理复杂资料。而深度学习,是指它使用许多层人工神经网络,来建模和理解资料集中的复杂模式。它们应用在图像和语音辨识、自然语言处理,以及其他需要解释复杂、非结构化资料的任务上。
根据我自2022年11月以来使用GPT经验,知道如果使用者自己胸有成竹,博览群笈,是可以将大量引用的文本与资料输入GPT,让AI来节要、整合,写出文本。我甚至用GPT-4产生约14万字的全套课程,而且每一段都会引用圣经与文献出处。这的确可以作为很有效的工具。
大型语言模型的严重缺点
但是,AI应用的大型语言模型(Large Language Model,简称 LLM。注2),也有它严重的缺点。
从Chat-GPT1.0 到目前的GPT-4多模式输入系统,主要是一种以人工神经网络发展出来的 LLMs。其工作原理是基于前面词语的上下文(context),用机率来计算和预测句子中的下一个词。这是通过一种转换器(Transformer)的机器学习模型实现的。这种模型在做出预测时,可以考虑到词与词之间的长期依赖关系。
GPT的原意,就是“基于转换器的生成式预训练模型” (Generative Pre-trained Transformer)。训练LLM,需要将大量的文本数据输入模型,它会根据在这些数据中观察到的模式,预测序列中的下一个词。随着时间的推移,模型能够生成与输入相关信息,模拟人写的文本。
不过,ChatGPT这样的LLMs,却不能替代网络浏览器的搜索或人工作更深入的研究,原因是:
1. 缺乏实时知识
LLMs是在静态数据集上训练的,没有能力获取或理解实时信息。例如,如果你问GPT关于当前的天气或最近的新闻事件,它将无法提供准确的信息,因为它没有连接到互联网或实时更新。
另一方面,网络浏览器允许你访问互联网上最新的信息。虽然在2023年5月24日出的更新版 GPT,可以选项用微软的Bing来及时搜索网络,但是由于时间限制,往往仅仅搜索一、两个网站,资料很不完整。
2. 生成不准确信息的风险
诚然,LLMs可以生成像人写的文本,但它们有时会产生错误、“幻想”、甚至误导性的信息。这是因为它们基于在训练大数据中极端压缩的资料来生成回应,而不是基于已验证的事实或更新的信息。因此,如果没有内存的数据,它会借用相关类似的资料来编织回答,只是以机率计算出来的结果而已。
3. 不存在理解或自我意识
LLMs实际上并不理解它们生成的文本。它们只是根据在训练过程中学习到的模式,用机率预测下一个最可能的词。它们没有信念、观点或意识。
4. 数据中的偏见
LLMs可能会反映并放大训练数据中存在的偏见,这可能导致生成带着偏见或有害的内容。大数据通常来源于互联网,因此,它们可以反映这些数据集中存在的多样性、复杂性,也包括不准确性和偏见,因为输出的有时可能包含错误或传播错误信息,包括假新闻。
然而,人类却可以以批判性思维、区分偏见和无偏见信息的能力,来做深入的研究,而这是目前LLMs无法做到的。特别是LLM的中文训练数据量远不如英文的,因此其品质有很大的限制!若能以英文提示,英文回答,最后再翻译为中文,往往比较准确。
5. 无法评估来源
进行研究时,评估信息来源的可信度和可靠性非常重要。但LLMs无法评估它们在训练中所使用的信息的质量或可靠性。
真假信息难辨黄仁勋
因为英伟达的成功,在中文网络上就流传着许多黄仁勋先生的奋斗故事,有真有假。有些网红博主甚至声称黄先生年轻时是不良少年,在泰国的不良少年学校成长。
我也尝试着询问GPT,却因为它引用资料的混杂,甚至编造出假信息,诸如:
“黄仁勋的父母并不是早年来美的。他们在黄仁勋很小的时候就离婚了……被母亲单独抚养……在台湾,直到黄仁勋小学毕业时,他的母亲决定把他们送到泰国的一所寄宿学校……在高中毕业后选择来到美国,并在俄勒冈州的一所高中完成了最后一年的学习。”(读者可对照维基资料。编注)
其实黄先生父母健在,从未离婚且恩爱持恒。可见AI若不会使用,可以祸害不浅。(可使用GPT-4 以“他的父母也是早年来美的吗?”为提示。见5/24/2023版)
深入调查,发现有一篇黄先生在他母校欧内达(Oneida)浸信会中学毕业礼上的演说。(注3)他在2019年曾捐款二百万美元给母校,建立宿舍和教室——当地偏远,但浸信会学校爱心帮助正规学校适应有困难的学生,且收费低廉,甚至免费。当年,所有学生都必须工读,黄先生就是每周负责清扫厕所。
黄仁勋在演讲中,还提到母校对少年时的他,在性格和未来的职业道德上,都产生了深远的影响。在每周两次的教堂礼拜中,黄学习了信仰和社区的重要性。在大学期间,他与未来的妻子相遇,他们共同对科技和学习的热情,成为黄仁勋生活态度的驱动力。
尽管工作繁重,黄始终将家庭置于第一,体现了他在工作与生活之间的平衡原则。他并未因为家庭经济原因无法进入常春藤大学而止步。他的生活旅程证明,成功取决于个人的爱护家庭,牺牲奉献、辛勤工作和毅力,而非学历的高低。
他甚至一再强调,他是个很普通的人,浸信会学校对他终身影响深厚。(注4)
我们虽然在公开资料中,无法找到黄先生的个人有何宗教信仰,但他年轻时绝非如网上所言,是不良少年。他的父母也从未离婚,并对他爱护有加。他自己也承认少年时在教会学校的教育,影响他一生的待人处事。网络流传的谣言来源,甚至可以说是由AI 产生的。
真理必叫我们得以自由
因此,虽然像ChatGPT这样的LLMs,可以生成模拟人写的文本,是协助执行各种任务非常有用的工具,但是它们应该被用作对深入研究和批判性思维的助手与补充,而绝对不是替代。
若是平时使用者没有习惯使用Wikipedia, Google Research等网站作深入研究,仅仅求快询问GPT,而不会应用一连串的提示导引正确答案,那就极端容易出错而不自知。
圣经中耶稣基督的教导,给我们为使用AI的伦理考量提供了最佳的基础。
耶稣说:“我就是道路、真理、生命;若不借着我,没有人能到父那里去。”(《约》14:6)。这句话强调了真理作为基督徒基本价值观的重要。耶稣并说:“你们必晓得真理,真理必叫你们得以自由。”(《约》8:32)。这些教导强调了真理的真自由力量和诚信的重要性。
如此,基督徒若不明白、不分辨事实,传播假信息,实在有愧于我们的主。在现今AI的大环境下,透明度、准确性和伦理责任,更是基督徒作盐作光的根本。
AI可被滥用来创建和传播假新闻,但AI也可以为有效的工具,作为写文章,预备课程与研究的助手,帮助传播、认识福音。因此,基督徒需要学习如何正确地使用AI,尤其是如何善用提示工程(Prompt Engineering),也就是引导AI模型生成期望输出的技术。
提示工程涉及到制定特定的提示,有效地指导AI完成所需的任务。通过掌握这些技术,使用者就可以更好地控制AI的输出结果,确保它们符合“真理”并站在健全的基督教伦理的根基上。
注:
1. https://www.youtube.com/watch?v=i-wpzS9ZsCs&t=4073s&ab_channel=NVIDIA
2. https://cdn.openai.com/papers/gpt-4.pdf
3. https://youtu.be/4jbUnXMzcF8
4. https://www.wired.com/2002/07/nvidia/
作者为机器人工学博士及教牧护教学博士。曾任职美国太空总署休斯敦太空中心研究发展主管。现职以教学、讲道为主。
Leave a Reply