議程
14:00-14:05 活動介紹
14:05-14:45 專題演講一「歐盟以人為本的AI監管模式 」:謝國廉 教授(國立高雄大學財經法律學系/人工智慧法律國際研究基金會兼任研究員)
14:45-15:25 專題演講二「美國人工智慧監管原則與落實 」:郭戎晉 助理教授(南臺科技大學財經法律研究所)
15:25-16:05 專題演講三「中國的AI監管法規 」:曾怡碩 博士(國防安全研究所網路安全與決策推演研究所)
專題演講
歐盟以人為本的AI監管模式 / 謝國廉 教授(國立高雄大學財經法律學系/人工智慧法律國際研究基金會兼任研究員)
為因應高速發展的AI科技對於歐盟法律、倫理及社會發展的衝擊,歐盟執委會(European Commission)於2018年6月設立包含了法律、哲學、技術等不同領域的「AI高階專家群組」(Artificial Intelligence-High Level Experts Group,簡稱AI-HLEG),試圖凝聚關於「值得信賴的AI」(Trustworthy AI)的法律與倫理共識。此獨立群組在2018年底公佈「值得信賴的人工智慧的倫理方針」(Ethics Guidelines for Trustworthy AI,簡稱AI方針)初稿,並在參酌各界意見後,於2019年4月正式公布AI方針。此方針雖以「倫理方針」為名,其主要理念在於推廣「值得信賴的AI」,而所謂值得信賴的AI概念包含合法、合於倫理,以及有助於健康蓬勃的發展三要件。「合法」是指AI不能使用在違法用途上。「倫理」在此方針中強調的是需以人的利益而非商業利益作為出發點,來考量人工智慧發展方向。而從技術面與社會面等角度來看,就算一開始是良善的意圖,但AI系統也有可能在發展過程中出現非預期的危險,因此AI必須健康蓬勃的發展也是「被信賴」的要件之一。
雖然以AI倫理方針為名,但其內容包含許多闡述歐盟AI法治的基本理念。根據AI方針內容,AI必須以人為中心,亦即AI系統必須用來服務人類以及實現人類的共同利益,目標在於增進人類的福祉並增進自由權的保障。這理念和歐盟的基本權利憲章是一致的,包括尊重人性尊嚴、保護個人自由權;尊重民主正義與法治;平等、禁止歧視與團結,以及公民權利等,謝教授認為,這些理念非曲高和寡且可操作性高。他進一步分析,AI方針雖然是歐盟軟法(soft law),按國際公法的理論,其法律效力是不確定的,但訂定軟法的國際組織會員國若積極將軟法內容轉化為國內法,則有可能產生明確法律約束力。某種程度上將有助於實現AI方針的法律理念,但條約的基本權保護條款,實際上能否完全實現AI方針的法律理念,仍須持續觀察。
其次,就尊重民主、正義與法治而言,AI方針指出,憲政民主體制下的所有政府權力,皆應獲得法律授權並受到法律限制。舉例來說,目前尚無成熟的AI系統得以檢測已發生的或者預測未來可能發生的犯罪行為。因此特定的AI系統或大數據資料,若被執法機關用於對特定人士進行有罪推定,則現行刑事法體系,甚至是法治制度,必將遭受嚴重的損害。此外,就個人自由權的保護而言,AI方針指出,所謂的個人自由權是指個人有權自由地做出與其人生有關的各項決定,免受國家的侵擾,而那些承受被社會排除風險的個人或群體,亦能平等地獲得AI所帶來的利益。
關於實現「值得信賴的AI」理念,在AI方針B部分的第2章中有列出7項要件對實現此一目標的方式提供指引,此要件具有幾項特點,第一:此7項要件要分別建構在AI方針所提出的特定AI倫理原則。第二:其中幾項要件,像是需支持人類的動能並受到人為監管、需保護隱私並進行妥適的資料治理等,與AI環境中的基本權保護途徑有著密切關係。值得注意的是,相關的倫理原則雖不具備法律上的拘束力,但在AI法制尚未完整建立的今天,具有可操作性的倫理原則,或可提供解決相關爭議的思考方向,其重要性並不亞於具有法律效力的條文。第三,根據AI方針,「基本權影響評估」應於AI系統開發工作進行之前進行。此一評估機制,就實現值得信賴的AI而言,是最具體而有前瞻性的法律設計。
謝國廉教授最後提到,AI方針是以具有強烈性的文字來強調人性尊嚴的重要性,其指出所有人皆應被當作道德上的主體受到尊重,因此發展AI系統必須尊重、服務且保護人類身體與精神的完整性、個人與文化上的認同感以及人類基本需求的滿足感。這些看似曲高和寡的宣示,其實具有深刻的意涵值得大家去體會與瞭解。
美國人工智慧監管原則與落實 / 郭戎晉 助理教授(南臺科技大學財經法律研究所)簡報下載
郭戎晉教授在進入正題前,就先為今天講題內容作結論,他認為AI不一定要監管,但是AI的風險必須要被加以處理,這也是國際之間的共識。而在解決風險問題的過程中需考量到許多面向,包括政府、企業等。今天特別針對美國的部分跟大家分享。
嶄新資通訊技術的持續問世及運用,大幅度改變人們的工作與日常生活形態。許多科技在上個世紀已經被陸續提出,到了千禧年各項科技技術趨於成熟。2010年後,AI技術開始被廣泛運用。郭教授特別提醒當我們在談數位科技時不會只是談論單一科技,而會有類似像AI結合區塊鍊、AI結合IOT或AI結合雲端等方式來討論。這些數位科技在交互運用的過程中,帶來無窮的應用潛力,相對的也可能造成危害或風險的倍增情況發生。因此在國內要不要有AI基本法,已經不是陌生的想法。
在2000年之前,人們其實不重視「資料」(Data),因為需要耗費成本來儲存資料,直至資料儲存技術的進步,人們才開始注意到其重要性。因而「資料」逐漸在人工智慧中成為關鍵助力,比如,AI歧視也是依據人類所提供的資料所形成的演算結果。
當AI被廣泛應用後,開始衍生出爭議,第一個問題是AI究竟要處理什麼?要處理的是底層技術問題或者是感知應用部分? 郭教授指出因AI並非單一技術概念,就人工智慧字面上意義而言泛指非人類(機器)所表現的智慧,是眾多技術的結合運用。AI所包含的的範圍也可引用世界智慧財產權組織(World Intellectual Property Organization,WIPO)提出的AI細部技術包括像是機器學習、邏輯程式設計、模糊邏輯等。所以人工智慧其實包底層技術及感知應用的層面。
而第二個AI所面臨到的問題是:究竟要事前規範使用行為減少風險?還是要做事後的追究與處理法律責任的問題?第三個問題是要處理現實已存在的問題,還是要預想還沒發生的問題?當人工智慧比人類還要強的時候,就是所謂的「強人工智慧」,歐盟在辯論到底是否要針對未來的強人工智慧來規範思考,或者要就現實存在的弱人工智慧問題做處理?
郭教授進一步點出AI監管面臨的4道難題分別為:無法有效衡量風險;難以直接援引既有的網路治理或數位治理的監管經驗;監管創新動能落後於技術創新的困難點;以及AI仍是發展中、萌芽中的技術,未來發展的成熟度將可左右監管舉措與力道等。也因此AI監管容易落入到所謂「柯林格里奇困境」(Collingridge dilemma),當過早介入監管可能會扼殺發展。在整個2019年之前是以自律為主,重點是「道德」;當AI在產業別運用越來越明顯時,2020年開始有他律管理風險的思考;2021年他律的想法被強化,也陸續有AI基本法的出現。
美國的人工智慧規範發展一直擺盪在自律與他律之間求取平衡的過程。早期的科技大廠都有自己的AI自律,不過這些業者也陸續發現自律的不足,因此2020年美國白宮提出了「AI應用監管指南」(Ethics Guidelines for Trustworthy AI),具體提出美國聯邦機構在制定人工智慧應用相關規範時,應當納為考量的10項基本原則,包含公眾信任、公眾參與、科學誠信與資訊質量、風險評估與管理、收益與成本、靈活性、公平與非歧視、公開與透明、安全保障以及機構相互協調。在此同時,也有兩部具代表性的州立法出現,包括伊利諾州AI視訊面試法(Artificial Intelligence Video Interview Act),以及加州聊天機器人揭露法。其中加州聊天機器人法原本希望用於處理假新聞,後來因為爭議較大,目前使用在智慧客服中。
根據Stanford大學的AI Index Report,在2016年全球主要國家通過AI立法僅有1件,至2021年全球則通過了18件與AI關連的立法,其中又以美國的13件大幅超出其他國家。儘管如此,美國並沒有AI基本法,只有在某些立法中納入AI條款;儘管統計顯示美國通過最多AI關連立法,但美國仍採取謹慎用法立法,若對比實際被提出而未能通過的草案,通過比例事實上僅有2%。
最後郭教授分享美國國家標準暨技術研究院(National Institute of Standards and Technology,簡寫NIST)為有效管理人工智慧對個人、機構與整體社會帶來的相關風險,於2021年7月宣示研擬「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF),旨在促進人工智慧的可信賴性,包括如何因應並解決人工智慧在設計、發展及使用過程中所產生的正確性、可解釋性及避免歧視等課題,NIDT已於今(2022)年8月公布AIRMF草案修正版本,預計在明年初正式發布。另外,白宮的科技政策辦公室(OSTP)在2022年10月發布的AI權利法案藍圖(Blueprint for an AI Bill of Rights),以協助指導人工智慧(AI)與其它自動化系統的設計、發展與部署,保障美國大眾的權利。該法案提出五大權利保護原則,包括:建立安全及有效的系統、避免算法歧視、保障個人隱私、闡明自動化系統的依據與用途以及允許使用者退出。該法案未來有沒有可能延伸變成聯邦層級的基本法,這些都可以再關注。
提問1:AI技術所衍生的著作權議題的相關討論有哪些?
回覆1:透過AI技術輔助進行藝術創作或是開發治療阿茲海默症藥物已有先例,目前國際間對於是否能將AI系統視為專利發明人或是著作人有諸多討論,;另一個熱門議題是使用AI系統進行醫療行為,若發生誤診等醫療疏失行為,誰必須承擔責任?是設計AI系統的人還是操作AI系統的人須負責?或甚至由AI系統本身來負責?倘若承認AI系統為著作/發明人,或是AI系統得以為醫療疏失行為負責,等於直接承認AI系統具有人格權,如此一來現行法律設計必須有所改變。
中國的AI監管法規 / 曾怡碩 博士(國防安全研究院網路安全與決策推演研究所)
曾怡碩博士的演講主題為中國的AI監管法規,他首先針對本場次主題「監管AI,全球共識有可能嗎?」進行破題:若單從法規來看,中國的AI監管法規與歐美(特別是歐洲)雖然用字遣詞類同,但背後的意圖與後果卻與歐美大相徑庭。
中國的監管是由上而下的,其數位監管機構目前以中央網信辦(中央網絡安全和信息化委員會辦公室)及國家安全部門──公安部及國家安全部,來主導中國的網路安全戰略。中央網信辦經國務院授權,主要負責網際網路內容的管理執法;而公安部旨在查緝網路犯罪,並營運中共的防火牆;國家安全部則為進行反間諜、反情報、外國情報和國內情報的機關。此外。中國也在2014年成立「中央網絡安全和信息化領導小組」,為跨越黨政軍的超級機構,並於2019年3月,中共科技部組建國家新一代人工智慧治理專業委員會,是直接可以與國外對話的單位。
曾博士接著介紹了若干中國數位監管法律,如《網路安全法》、《數據安全法》、《個人信息保護法》等,其中《網絡安全法》就網路空間整體安全發展制定總綱領,屬於網路空間治理基本法;而《數據安全法》以資料安全為核心,重點保護重要資料和國家核心資料;《個人信息保護法》則全面規定個人資訊保護細項,形塑一套「中國式」的網路秩序與運作規則,並宣告數據監管治理時代正式來臨。
曾博士指出中共將人工智慧發展最重要的資料、算法及算力都視為國家主權的一部份。以中央網信部發布的《網路安全審查辦法》以及今年9月施行的《數據出境安全評估辦法》為例,這兩部法律重視國家資訊安全,其強調企業或個人資料若有影響國安、損害公共利益之虞,或有被外國政府影響、控制、惡意利用的風險,均不得出境,目標在於保護國家免受外部和內部資訊威脅,以確保其主權、領土完整、經濟發展、國防和安全。這也造就了中國在AI監管方面與其他國家最不同之處:控制。例如,例如法規要求企業應當注意人民個資及隱私保護,卻也同時要求企業將用戶資料交給國家管理。
中國的AI應用最有名的就是進行社會監控,例如社會信用制度,將所有公民的社會行為與中國社會監控系統統緊密相連,並採用人臉識別技術和大數據分析技術,以AI進行大規模社會控制,至2020年該制度幾乎串聯所有公共服務領域,包括就業、升學機會、貸款購買機票和高鐵票等,均可透過連網進行控制。其他監控措施包括天網工程、雪亮工程、情緒監控系統(廣角鏡),這些牽涉到的是人權的價值,也是歐美關注的重點。
中國將人工智慧視為國家戰略等級,在「十四五」規劃中,官方特別提出要強化國家戰略科技力量。主要透過施行《網路安全法》、《數據安全法》、《個人信息保護法》確保公民個資與大量數據統一由國家掌握,藉此蒐集大量數據建立龐大的演算法資料庫。由於中國具有人口眾多的優勢,AI可採集的數據樣本較西方國家更多,這些巨量資料的資源作為深度學習訓練AI使用,將使中國人工智慧技術越臻成熟。曾博士也認為,因為掌握的數據夠多,中國會是唯一最有可能發展出最多樣不同AI應用與監管模型,以及實現AI霸權的國家。
演講最末,曾博士統整中國式AI監管的特色,他針對資料、算法及算力三項人工智慧發展重要指標來說明。在算力方面,主要關注數據中心的布局戰略(東數西算),將碳排、電量供應以及雲端韌性等因素納入考量;算法方面,中國透過監管抖音等公司的演算法技術,以提升政府的演算法能力,而後進行全國甚至全球的監管;在資料方面,中國要求企業必須保護個資,但政府卻全面控制個資並投入AI應用,進一步進行社會控制。