,

人類威脅?福音助手?真理契機?——關於當紅炸子雞AI(黃雅格)2023.07.19

本文原刊於舉目官網2023.07.19

黃雅格

AI發展劃時代的一年

2023年5月29日上午11點臺北時間,亞洲最大的 IT 工業展Computex揭開了序幕,由英偉達(NVIDIA,又譯輝達)之首席執行官黃仁勳作主題演講。

在此會議中,黃報告了多項GPU的進步與在AI上的應用,還讓AI生成一首臺灣風味的英偉達宣傳歌曲。

報告的重點,是“生成型AI和加速計算機的時代正已經來臨”——突破了摩爾定律(Moore’s Law)的限制:過去,每兩年芯片上的元件密度加倍,對CPU中央計算器來說,可能已經飽和了;而根據黃氏定律(Huang’s Law),圖像計算處理器(GPU,又稱顯卡)的性能,在過去10年增長了100萬倍,約每5年增強1000倍!(註1)

當今GPU的突飛猛進,如英偉達Nvidia或超微(Advanced Micro Devices, Inc.;縮寫AMD)的GPU,正是能將AI能從無用的廢文產生器,發展到能實際有用工具的主要關鍵。因此英偉達成為第一家在2023年5月30日市值達萬億美元的芯片設計公司。

與此同時,2022年11月30日和2023年3月14日,也是在AI軟件科技界的兩個主要日子。

就在這兩個具標誌性的日子,ChatGPT 3.5與GPT4 的AI軟件系統相繼問世,其能力令人驚悚:居然AI可以用超過20種自然語言流利的對話,相互翻譯,可以回答許多相當廣泛知識領域的問題,可以根據提示的題目寫出短文,寫相當不錯的英文十四行詩,與中文白話詩,甚至可以理解一些一語雙關的笑話。

在語音識別方面,AI已經相當成熟可以實用,譬如將一篇視頻送入Maestra的AI軟件網站,它可以在幾分鐘之間產生全稿,配上字幕。而產生的文字稿可以再輸入到ChatGPT,整理出大綱與關鍵字,作為網絡搜索的索引。

而另一方面,在圖像識別與圖像產生也有長足的進步。用MidJourney 的軟件,只要以文字輸入提示,即可產生非常傳神的圖像。

英偉達在自己的年度技術研討會上,也展現了如何以AI 捕捉黃仁勳先生的立體3D影像,並模擬他的語音,再AI合成他在研討會的主題演說,他只是提供講稿而已……此外,AI甚至可以寫出相當不錯的電腦程序。

因此,若說2023年是AI發展劃時代的一年,一點都不誇張;因著AI的跳躍式的進展,若預估此AI 進展將會引起整個社會的變革,也不為過。

到底啥是AI?

所謂人工智能(AI),其實是計算機科學的一個分支,著重創建能夠模仿人類智能的機器和軟件,包括學習、推理、解決問題、感知和語言理解等等。

AI系統可大致分為兩類:1. 狹義AI——設計用於執行特定任務(如面部識別或互聯網搜索)。2. 通用AI——可以執行人類能夠完成的任何智力任務。

此外,人工智能(AI)還包含多個子領域:

機器學習(ML

為一種資料分析方法,可以自動建立分析模型。它使計算機能夠在沒有明確程序設計的情況下找到隱藏的現象。如推薦系統(比如亞馬遜推薦商品,臉書推薦帖文)、欺詐檢測以及預測客戶行為。

自然語言處理(NLP

讓計算機和人類語言交流,使計算機能夠理解、解釋和生成人類語言。NLP應用於語音助手(Siri,Alexa)、翻譯服務和情感分析等。

計算機視覺

使計算機理解和解釋視覺世界。它被用於人臉識別系統、自動駕駛汽車、圖像編輯軟件以及醫學影像分析。

機器人學

設計、構造和使用機器人來與物理世界互動。機器人用於製造業、醫療保健(手術機器人)、災難應對以及家庭任務(如Roomba吸塵器)。

專家系統

模仿人類專家決策能力的電腦系統(資料根據,則是來自人類專家提供的大量專業知識與規律)。它們被用於諸如醫療診斷、財務規劃和天氣預報等複雜的問題解決。

語音辨識

教授機器理解和解釋人類的語音。它應用在語音啟動的虛擬助手、轉錄服務以及客戶服務機器人等。

人工神經網路和深度學習

人工神經網路,是一種受人腦神經元啟發的計算模型,通過分層互聯的人工神經元來處理複雜資料。而深度學習,是指它使用許多層人工神經網路,來建模和理解資料集中的複雜模式。它們應用在圖像和語音辨識、自然語言處理,以及其他需要解釋複雜、非結構化資料的任務上。

根據我自2022年11月以來使用GPT經驗,知道如果使用者自己胸有成竹,博覽群笈,是可以將大量引用的文本與資料輸入GPT,讓AI來節要、整合,寫出文本。我甚至用GPT-4產生約14萬字的全套課程,而且每一段都會引用聖經與文獻出處。這的確可以作為很有效的工具。

大型語言模型的嚴重缺點

但是,AI應用的大型語言模型(Large Language Model,簡稱 LLM。註2),也有它嚴重的缺點。

從Chat-GPT1.0 到目前的GPT-4多模式輸入系統,主要是一種以人工神經網絡發展出來的 LLMs。其工作原理是基於前面詞語的上下文(context),用機率來計算和預測句子中的下一個詞。這是通過一種轉換器(Transformer)的機器學習模型實現的。這種模型在做出預測時,可以考慮到詞與詞之間的長期依賴關係。

GPT的原意,就是“基於轉換器的生成式預訓練模型” (Generative Pre-trained Transformer)。訓練LLM,需要將大量的文本數據輸入模型,它會根據在這些數據中觀察到的模式,預測序列中的下一個詞。隨著時間的推移,模型能夠生成與輸入相關信息,模擬人寫的文本。

不過,ChatGPT這樣的LLMs,卻不能替代網絡瀏覽器的搜索或人工作更深入的研究,原因是:

1. 缺乏實時知識

LLMs是在靜態數據集上訓練的,沒有能力獲取或理解實時信息。例如,如果你問GPT關於當前的天氣或最近的新聞事件,它將無法提供準確的信息,因為它沒有連接到互聯網或實時更新。

另一方面,網絡瀏覽器允許你訪問互聯網上最新的信息。雖然在2023年5月24日出的更新版 GPT,可以選項用微軟的Bing來及時搜索網絡,但是由於時間限制,往往僅僅搜索一、兩個網站,資料很不完整。

2.  生成不準確信息的風險

誠然,LLMs可以生成像人寫的文本,但它們有時會產生錯誤、“幻想”、甚至誤導性的信息。這是因為它們基於在訓練大數據中極端壓縮的資料來生成回應,而不是基於已驗證的事實或更新的信息。因此,如果沒有內存的數據,它會借用相關類似的資料來編織回答,只是以機率計算出來的結果而已。

3. 不存在理解或自我意識

LLMs實際上並不理解它們生成的文本。它們只是根據在訓練過程中學習到的模式,用機率預測下一個最可能的詞。它們沒有信念、觀點或意識。

4. 數據中的偏見

LLMs可能會反映並放大訓練數據中存在的偏見,這可能導致生成帶著偏見或有害的內容。大數據通常來源於互聯網,因此,它們可以反映這些數據集中存在的多樣性、複雜性,也包括不準確性和偏見,因為輸出的有時可能包含錯誤或傳播錯誤信息,包括假新聞。

然而,人類卻可以以批判性思維、區分偏見和無偏見信息的能力,來做深入的研究,而這是目前LLMs無法做到的。特別是LLM的中文訓練數據量遠不如英文的,因此其品質有很大的限制!若能以英文提示,英文回答,最後再翻譯為中文,往往比較準確。

5. 無法評估來源

進行研究時,評估信息來源的可信度和可靠性非常重要。但LLMs無法評估它們在訓練中所使用的信息的質量或可靠性。

真假信息難辨黃仁勳

因為英偉達的成功,在中文網絡上就流傳著許多黃仁勳先生的奮鬥故事,有真有假。有些網紅博主甚至聲稱黃先生年輕時是不良少年,在泰國的不良少年學校成長。

我也嘗試著詢問GPT,卻因為它引用資料的混雜,甚至編造出假信息,諸如:

黃仁勳的父母並不是早年來美的。他們在黃仁勳很小的時候就離婚了……被母親單獨撫養……在臺灣,直到黃仁勳小學畢業時,他的母親決定把他們送到泰國的一所寄宿學校……在高中畢業後選擇來到美國,並在俄勒岡州的一所高中完成了最後一年的學習。”(讀者可對照維基資料。編註)

其實黃先生父母健在,從未離婚且恩愛持恒。可見AI若不會使用,可以禍害不淺。(可使用GPT-4 以“他的父母也是早年來美的嗎?”為提示。見5/24/2023版)

深入調查,發現有一篇黃先生在他母校歐內達(Oneida)浸信會中學畢業禮上的演說。(註3)他在2019年曾捐款二百萬美元給母校,建立宿舍和教室——當地偏遠,但浸信會學校愛心幫助正規學校適應有困難的學生,且收費低廉,甚至免費。當年,所有學生都必須工讀,黃先生就是每週負責清掃廁所。

黃仁勳在演講中,還提到母校對少年時的他,在性格和未來的職業道德上,都產生了深遠的影響。在每週兩次的教堂禮拜中,黃學習了信仰和社區的重要性。在大學期間,他與未來的妻子相遇,他們共同對科技和學習的熱情,成為黃仁勳生活態度的驅動力。

儘管工作繁重,黃始終將家庭置於第一,體現了他在工作與生活之間的平衡原則。他並未因為家庭經濟原因無法進入常春藤大學而止步。他的生活旅程證明,成功取決於個人的愛護家庭,犧牲奉獻、辛勤工作和毅力,而非學歷的高低。

他甚至一再強調,他是個很普通的人,浸信會學校對他終身影響深厚。(註4)

我們雖然在公開資料中,無法找到黃先生的個人有何宗教信仰,但他年輕時絕非如網上所言,是不良少年。他的父母也從未離婚,並對他愛護有加。他自己也承認少年時在教會學校的教育,影響他一生的待人處事。網絡流傳的謠言來源,甚至可以說是由AI 產生的。

真理必叫我們得以自由

因此,雖然像ChatGPT這樣的LLMs,可以生成模擬人寫的文本,是協助執行各種任務非常有用的工具,但是它們應該被用作對深入研究和批判性思維的助手與補充,而絕對不是替代。

若是平時使用者沒有習慣使用Wikipedia, Google Research等網站作深入研究,僅僅求快詢問GPT,而不會應用一連串的提示導引正確答案,那就極端容易出錯而不自知。

聖經中耶穌基督的教導,給我們為使用AI的倫理考量提供了最佳的基礎。

耶穌說:“我就是道路、真理、生命;若不借著我,沒有人能到父那裡去。”(《約》14:6)。這句話強調了真理作為基督徒基本價值觀的重要。耶穌並說:“你們必曉得真理,真理必叫你們得以自由。”(《約》8:32)。這些教導強調了真理的真自由力量和誠信的重要性。

如此,基督徒若不明白、不分辨事實,傳播假信息,實在有愧於我們的主。在現今AI的大環境下,透明度、準確性和倫理責任,更是基督徒作鹽作光的根本。

AI可被濫用來創建和傳播假新聞,但AI也可以為有效的工具,作為寫文章,預備課程與研究的助手,幫助傳播、認識福音。因此,基督徒需要學習如何正確地使用AI,尤其是如何善用提示工程(Prompt Engineering),也就是引導AI模型生成期望輸出的技術。

提示工程涉及到制定特定的提示,有效地指導AI完成所需的任務。通過掌握這些技術,使用者就可以更好地控制AI的輸出結果,確保它們符合“真理”並站在健全的基督教倫理的根基上。

註:

1. https://www.youtube.com/watch?v=i-wpzS9ZsCs&t=4073s&ab_channel=NVIDIA

2. https://cdn.openai.com/papers/gpt-4.pdf

3. https://youtu.be/4jbUnXMzcF8

4. https://www.wired.com/2002/07/nvidia/

作者為機器人工學博士及教牧護教學博士。曾任職美國太空總署休斯敦太空中心研究發展主管。現職以教學、講道為主。

Leave a Reply

Your email address will not be published. Required fields are marked *

Discover more from OC举目网站

Subscribe now to keep reading and get access to the full archive.

Continue reading