台灣大型語言模型更有「台灣味」?讓AI更懂你也更值得信賴

精彩回顧

台灣大型語言模型更有「台灣味」?讓AI更懂你也更值得信賴

生成式AI模型百家爭鳴,而國科會也推動台版AI語言模型計畫,讓快速發展的AI技術,帶來極大創新應用與效益。不過AI的大量數據資料也對社會與人文也帶來了新的問題與風險,為此台灣數位信任協會因此而生。究竟AI的發展會走向何方,如何創造值得信任的AI時代?

 

主持人:Ethan 劉傑中

對談來賓:

—許永真 台灣AI卓越中心副總召集人

—詹婷怡 人工智慧科技基金會董事長

 

重點摘要

《台灣大型語言模型更有「台灣味」?讓AI更懂你也更值得信賴》

 

台灣AI發展的優勢與策略

人工智慧科技基金會詹婷怡董事長指出,台灣的半導體產業在全球供應鏈中具有核心地位,使其在AI發展中具備不可或缺的硬體基礎。此外,台灣多年來在製造技術上的累積,奠定了AI應用落地的穩固基礎。她強調,AI發展不僅僅是技術進步,關鍵在於應用場景的價值創造。尤其在台灣數位轉型的進程中,AI的角色如同賦能引擎,助力各行各業進行流程再造、服務優化。

 

台灣AI卓越中心許永真副總召集人提出,自2023年起,台灣積極投入本地語言模型的研發,這不僅是出於技術進步的考量,更是基於數據主權與語言文化保存的需求。他強調,台灣在AI發展上面臨的類似困境,以ChatGPT為例, ChatGPT的成功雖然提高了大眾對AI的認知,但也突顯了台灣在AI技術自主性方面的不足,如果臺灣的AI發展過度依賴國外技術,將可能受制於人,難以掌握關鍵技術的發展方向,台灣的語言模型項目不僅有助於提升數位競爭力,也能避免簡體中文資訊的偏移風險。

 

台灣在AI研發上的持續投入,包括在國家資源有限的情況下採取開放架構策略,期望能吸收外來技術,並結合台灣的產業應用需求,AI在醫療、製造等領域中的應用前景廣闊,尤其在解決本地化問題方面,台灣有獨特優勢,AI發展如同馬拉松,需要有系統地規劃技術進階步驟,以確保能長期維持國際競爭力。

 

建立數位信任的重要性

數位信任是 AI 技術應用的核心要素。隨著 AI 技術深入生活的每個角落,無論是政府、企業,還是消費者,都需要數據治理來確保系統透明和公正。而AI 技術應用必須基於「責任」原則,AI 開發者和服務提供者應負責任,保證 AI 系統的透明性和問責性,並設法減少技術帶來的風險。

人工智慧科技基金會詹婷怡董事長認為,數位信任是數位經濟和網路治理的基石。他強調企業在提供 AI 產品和服務時應負起責任,確保 AI 的發展和應用符合社會倫理和價值觀,如同歐盟的人工智慧法案,臺灣也需要制定相應的法律,台灣因此成立了數位信任協會,推動企業在資料治理、透明度及演算法倫理等方面的自我規範,涵蓋數據完整性和信息透明化等方面,希望在提升數位治理、數據完整性和風險管理等方面,建立起完善的法律框架。規範AI的發展和應用,並將AI產品和服務的風險分級管理,以確保其安全性及可信任性。

台灣AI卓越中心許永真副總召集人也認同數位信任的重要性。他認為,在 AI 時代,個人不能完全依賴國家或平台來保障自身的權益,而應該具備自主判斷和選擇的能力。他建議透過技術手段,例如給予真假訊息不同的傳播速度,來幫助人們來增加對不良訊息的反應。

 

AI時代的人才培育

兩位講者均強調,AI人才的養成應擴展至跨領域知識的培養,因為數位轉型過程中,非常重要的是流程的環節,流程如果連接起來,就會產生協助,而不管是政府、企業、組織,人才涵蓋各種行業的知識尤為重要,隨著數位轉型在各行業中的應用,AI技術的發展和應用離不開人才的支撐。AI 不僅需要技術專家,還需要熟悉各個行業的領域專家,來協助實現數位轉型的價值創造。

人工智慧科技基金會詹婷怡董事長指出,除了生產製造為我們創造GDP很重要之外,應該好好的善用AI應用在數位轉型在各個領域,創造更高的價值。而也要去思考AI如何為我們培育各領域的專家,臺灣需要培養跨領域的AI人才。未來的 AI 人才不僅需要精通程式設計和演算法,更需要具備跨領域的知識和技能,可以縱觀全局的人才,這樣的思維導入,才會讓我們的AI的應用可以更加的完善,將 AI 技術應用到各個領域。

台灣AI卓越中心許永真副總召集人則從教育的角度出發,指出AI是一個很方便的工具,它可以幫你找資料、整理資料、回答問題,可是最後的判斷還是要在人身上,所以使用者對於資訊的理解與判斷尤為關鍵,另強調 AI 素養的重要性,在 AI 時代,建議加強「批判性閱讀」的教育,分析訊息來源,培養獨立思考能力,這種能力不僅在應對AI生成資訊時重要,也有助於避免受到不當資訊的誤導。台灣AI卓越中心許永真副總召集人也認為,人才培育的重點在於使能夠在資訊洪流中保持冷靜,掌握應對複雜局勢的技能,才能更好地適應 AI 時代的生活和工作。

 

媒體識讀與資訊辨別能力

隨著生成式AI的迅速普及,台灣AI卓越中心許永真副總召集人強調,媒體識讀能力應當成為教育的一部分,生成式AI雖然具備流利的語言表達能力,但其生成內容可能存在嚴重錯誤,甚至出現偽造資訊,因此民眾需要學會辨別真假信息的技巧,不應過度依賴演算法推薦,避免被不實資訊誤導。

 

人工智慧科技基金會詹婷怡董事長建議,大家在推出服務、產品、資訊,也要了解其背後的資料來源,通過技術工具幫助用戶提高辨識力,作為判斷依據。兩位講者也提到,媒體識讀和資訊素養在教育以及企業有愈來愈多相關課程,這種「預防性教育」可以幫助民眾更好地應對資訊環境的複雜性,才能對自己接收、吸收的資訊,有選擇的素養跟能力,也盡量避免單純依賴某個單一來源或平台。

 

AI的治理與法規制定

人工智慧科技基金會詹婷怡董事長提到,台灣在推動「人工智慧基本法」時,可以借鑒歐盟的分級管理制度,以風險管理的方式進行分級處理。而大的企業如何要被規範,傳統的立法模式已不適用於網路時代,要順應網路的本質跟它的本質去訂一個符合它可執行性高的規範,其中例如,高風險應用如醫療、金融等領域需遵守更嚴格的法規,以保障使用者的權益。她認為,AI應用的風險分級管理有助於釐清不同類型的AI技術及其應用領域的責任分配,進而確保公眾安全。

 

而AI治理應與數位治理並行推進,從而整體提升台灣在數位轉型時代的適應力。她強調,科技發展不僅是技術本身的問題,還涉及各利益相關者之間的協同合作。從企業到政府,AI技術的健康發展需要各界共同推動,確保AI發展方向符合全社會的利益。

 

台灣AI卓越中心許永真副總召集人進一步指出,AI基本法的制定只是第一步,需要建立完善的科技發展和數據治理的法律框架,台灣應同時考慮AI技術發展的特性及其潛在風險,避免陷入單一治理方式的限制,雖然人工智慧基本法是推動AI安全與負責任應用的基礎,但更關鍵的是搭建出一個能夠隨科技發展變化的法規框架,該框架應包括資訊透明、責任歸屬與數據隱私保護等關鍵要素。

 

兩位講者都認為,台灣在發展AI的同時,需要多管齊下,發展自主技術、建立信任環境、培育AI人才、提升媒體識讀能力,並制定完善的AI治理法規,才能在AI時代站穩腳步。