生成式AI(ChatGPT)的應用與挑戰



盧希鵬教授
 
文/記者趙錦漢整理報導
 
  禧年經濟倫理文教基金會(簡稱禧年)於11月4日舉行「ChatGPT來了—AI時代的挑戰與因應之道」研討會,由中華福音神學院、中華信義神學院,還有基督門徒訓練神學院及約書亞管理學院等學府協辦。大會邀請了國立台灣科技大學資訊管理系專任特聘教授盧希鵬主講生成式AI(ChatGPT)的應用與挑戰。
 

  禧年董事長陳建信早年跟盧希鵬教是國中同學,後來一起負笈美國。盧教授於1992年回台灣教的第一門課就是人工智能(簡稱AI)。當時他覺得AI沒有產業價值,於是改為研究電子商務。到2016年再度研究AI。
 

  期間,多倫多大學教授辛頓(Geoffrey Hinton)於2006年發表「深度學習」(deep learning)文章,現今大部分AI領袖都是他的高足,而他也成為了AI教父。礙於AI發展驚人,辛頓教授曾表示後悔發展AI,擔心人類的安危,並於5月宣布離開谷歌(Google)。
 

陳建信董事長致詞
 

世代交替的下一步?

  為什麼神允許人類發明一個像人類思維的演算法,能夠分辦善惡、各從其類,甚至比人類優秀?神可能要人學習謙卑,留意生命樹的果子,而不只是論斷或各從其類而己。有新聞消息指出,ChatGPT的考試成績比法律系考生好。
 

  先後用中文托福、台大高等中文鑑定考試及神學生考試來測試ChatGPT的能力,結果它的成績彪炳,對答如流,原因是生成式AI模型懂得用機率判斷作答。此外,辛頓教授的深度學習理論能幫助AI處理資料,融會貫通。
 

  AI業界有句說話:「成熟的AI叫工具,不成熟的工具叫AI。」意味著AI仍會出錯,但當AI完善,便能成為人類的工具
 

過去的AI發展分為5個階段:

  一、邏輯符號型,發展依賴工程師,例如下象棋;

  二、決策型:即大數據,例如預測消費行為;

  三、辨識型:即特徵表達。生物特徵如貓、狗,還有聲音、文字等等;

  四、生成式:按照特徵來表達和生成;

  五、任務型:智慧代理人,代替人類決策。
 

  按照辨識型發展,AI會放棄所有人類所訂立規則,在環境中自我學習,有如人類在某一語言環境學習外語一樣。AI是把片言隻語連接成句子,再建構成知識,情況有點像神創造天地時,說有光,就有光。ChatGPT原本只是語言模型,卻利用了世界上推論體系建構知識,使人驚奇。

深度學習演算法 生成式AI(ChatGPT)的應用

  谷歌自2012年起引進AI人才,包括辛頓教授及其門生。有一位聰明的工程師按照五官距離,發明了人面辨識。相反,人類卻無法辦識同種動物,描述不同貓的特徵。根據辛頓的理論,只要有足夠的數據,便能定義何謂貓,卻不是按人類的知識或定義來學習的過程。例如盧教授最近參加了緯創的年終大會,多達600人與會。主辦方請他把個人照上傳,系統便能從多張照片中辦識到他,而這個技術谷歌早在10年前已開始應用。
 

  AI有能力鉅細無遺地分析資料,比人類仔細、迅速,能夠比對物件及特徵,現應於醫學報告如X光片、超聲波,或半導體檢測等等。ChatGPT雖然無法確認一張台北101照片的拍攝時間,但可仔細描繪當時的天氣及建築物名稱,接著也能用家要求來為這張照片寫詩及繪製意境畫。
 

  AI不但能夠辦識不同語言、聲調,而且能夠按詞句語氣分析情緒。例如可以按照一段客訴的語境來分析客人的個性,並提供解決方案。是不是也可以截取新朋友的一段話,來教導傳道人如何與他對話,甚至傳福音?
 

Ai能辨識狗的特徵

 

ChatGPT辨識照片之餘,能完成指派任務,如作詩。
 

生成式AI的威脅

  生成式AI屬於非監督學習,意味著在沒有指導下的學習,分別由生成器及判別器組成,如同教授判別博士論文有什麼錯誤,由學生自行找出錯處,經反覆驗證後,自我生成論文。因著辨識型AI的發展,科學家逆向思考,能不能利用所學習的特徵表達來生成圖像、聲音、影像和文字等等。這種技術也多方應用,例如修圖美顏、模仿人聲、導航聲音、AI主播及生成報告等等。

 

  AI能不能當牧師?例如談到人類語言有能力的,人類話語也是智慧的開端,想找一段聖經經文做開場白,請ChatGPT幫忙找出5個相關的經文。不到1秒鐘,它便找到5節經文。最後要求ChatGPT選一個,答案是:創世記11章6節巴別塔的經文,原因是提到人們在語言方面的一致與合作,而生成式AI有潛力將不同人的想法與言語結合,以實現合作和成就。這個答案也無可厚非,因為它的工作就是把全世界各種語言的圖片與內容整合起來。
 

  進一步請教這段經文的意義,ChatGPT會解經,並試圖解釋經文有助引導人們知道和平的意義。同時也坦言自己不會成為人類的巴別塔,因為它只是一個AI模型,缺乏自我意識與靈性。至於倫理道德問題,它很圓滑地分析和比較兩方面的答案,最終取決於個人的信仰和價值觀。

 

  AI能不能禱告?ChatGPT能幫肋人撰寫有結構內容的禱文。但當問到神會不會聽禱告。它也誠實回答自己不具有自我意識、信仰或靈性,因此無法跟神互動,也無法確定神會不會聽禱告。它重申是提供範本,無法確定能不能帶來實際的宗教意義或影響。
 

  重問ChatGPT開場白的經文,比較哥林多前書13章1節及創世記11章6節。ChatGPT按對象回答,如果是教會,可用哥林多前書13章1節;如果是技術導向,可用創世記11章6節。
 

  AI能不能傳福音?向ChatGPT說明慕道友的背景,包括他母親患病,然後請教ChatGPT如何傳福音。它能夠生成一封信寫給對方。AI也能夠按經文或主題查經、寫詩歌、畫海報、寫程式、編寫兒童主日學故事及繪本。
 

  谷歌在這一年(2023)建立了醫學語言模型,幫助醫院作客服。醫院是透過生成型AI回答病人問題,而病人回應指出,AI比醫生有愛心,也專業,能通過醫學院考試。按此邏輯,AI能不能當牧師,甚至用牧師的口吻跟人說話?在其他的應用層面,AI的外掛程式遍地開花,也走入社群,有可能未來的好朋友並不是人類。
 

  教會準備好了嗎?按照發展,教會起初由專家產生內容,由神職人員講解聖經;因著印刷術發展,用家可產生內容,開始了宗教革命;至今AI可生成內容。
 

  盧教授一切再重申,AI技術只是剛開始而已。除了谷歌,其他科技巨擘如Meta、Windows都在發展。辛頓教授曾表示:「我對我的畢生工作,感到十分後悔。」、「注意!前方有危險,前方有危險,前方有危險!」、「人們也無法去辨別什麽是真實的,什麽是虛假的內容」、「AI技術遲早會顛覆就業市場。」等等。果不其然想起電影主角奧本海默後悔製造原子彈。
 

  新近回歸的OpenAI執行長、ChatGPT之父阿特曼(Samuel Altman)表示:「面對人工智慧,更應該謹慎行事並提高安全標準......想要阻止人工智慧災難的唯一方法,就是讓人工智慧與人類的價值觀和目標保持一致,並確保人類能夠「控制人工智慧」並與人工智慧合作。」
 

  最後,盧教授使用ChatGPT勉勵「禧年」,「只有在遵守倫理規範和道德原則的情況下,科技的發展才會獲得神的祝福。」
 

 

禱告焦點

  1. 求主帶領科學家及工程師,創作合神心意的AI技術,幫助人類進步及學習。

  2. 求主保守教會及學生,在學習使用AI過程中仍然懂得依靠神,而不是以AI取代全能神的位置。


 
go top