若機器能認出那張臉:數位時代的人臉辨識與人權挑戰

精彩回顧

若機器能認出那張臉:數位時代的人臉辨識與人權挑戰

活動資訊

日期:2020年5月29日(五)下午19:00-21:30

引言報告 :人臉辨識概況介紹(何明諠 台灣人權促進會副秘書長)

專家座談:

主持人:邱文聰 副研究員(中央研究院法律學研究所)

與談人:林昕璇 博士後研究員(中央研究院法律學研究所)、周宇修 會長(台灣人權促進會)、蔡志順 (「智能科學」社團管理員/版主)、翁逸泓 副教授(世新大學法律學院)


何明諠:歐美與台灣人臉辨識使用近況

在開場引言中,何明諠簡要介紹了美國、歐盟、以及台灣三地在人臉辨識上的使用情形及公民社會的聲音。他首先以美國為例指出,美國在2018-2019年起興起了一波反對人臉辨識技術的聲浪,起因於Amazon將其人臉辨識技術販售給政府,加之有高錯誤率,導致監控及歧視的反對聲浪蜂擁而起。也使得到目前為止,舊金山等城市已禁止執法機關使用人臉辨識。

而在歐盟,2020年二月,媒體取得一份外洩的文件,指出歐盟警方打算在跨國交換生物資料的計畫中,新增人臉辨識資料,用以打擊犯罪。差不多時間點上,歐盟則開始傳出在研擬禁用人臉辨識技術五年。雖然政策最終無疾而終。

何明諠也表示,台灣其實也早已悄悄在社會中安插了人臉辨識技術的使用。何明諠以警察使用的M-Police系統為例指出, 台灣警方使用的M-Police系統中早已建有「照片比對系統」,每年約會被查詢20萬次。而在警察機關之外,大量教育場所也在近年來紛紛引入人臉辨識技術,因此2019年,台權會也曾要求教育部,應調查校園使用人臉辨識現況,並訂定相關規範。此外,桃園機場或未來的數位身分證都可能會引入相關技術。


蔡志順:機器如何讀出人臉?以深度學習技術為基礎的人臉辨識。

人臉辨識技術的範疇與應用廣泛,蔡志順為大家深入淺出奠基於深度學習技術的人臉辨識。

蔡志順指出,機器目前辨識人臉或針對人臉進行分析,大致需經歷數個不同階段,而每個階段都是人臉辨識技術的不同範疇。分別是:偵測人臉、抓取面部特徵、識別不同人臉、判定身分、甚至情緒分析,判斷人種的生理分析等。

蔡志順也指出,訓練人臉辨識的方法多樣,他以卷積(Covolution)神經網路為例,由多個卷稽核逐步掃描臉部影像,擷取特徵,抓取出線條疊合成局部特徵,經由層層學習,最終可識別出人臉。

蔡志順在報告中也提醒,人臉辨識技術應用廣泛。從計算遊行示威人數,到使用Deepfake仿冒政治人物發言影片,或是以虛擬實境重建逝去親人的影像,甚至創建不存在的擬真人臉等,都是已能做到的應用。技術的推演,除了使反人臉辨識的技術也相對在發展中外,相關的法治也必須迅速跟上,方能解決技術應用所衍生的各種倫理或人權問題。


林昕璇:公部門使用人臉辨識偵查犯罪合法嗎?以英國地方法院判決為例

AI監控系統並非獨裁國家的專利,林昕璇在報告中引用「卡內基國際和平基金會」的報告指出:民主國家超過半數佈建AI監控系統。其中包含人臉辨識、智慧城市、智慧型警政,以架設在公共場所的攝影機取得的資料,與政府的資料庫比對,再經由資料串接,進而達到預測犯罪熱區、維繫公共安全等目的。

林昕懸介紹了英國新南威爾市警方使用自動化人臉辨識AFR(Automated Facial Recognition)這個案例。該案例中,新南威爾市的警察以自動化技術將人區分為不同種類的嫌疑犯,並經警察確認後發動盤查。執法機關在大型運動賽事、音樂會、集會遊行場所都使用了這項技術,最終遭人權組織提告違反歐洲人權公約第8條。該條文旨在保障人民隱私,僅允許政府在法律保留、或維繫社會秩序、國家安全等目的內限縮人民隱私。

林昕璇指出,在該判決中,地方法院最終認為,人臉生物特徵雖無庸置疑為內在隱私,具備合理隱私期待,但英國警方引用的數據保護法和職權行使法、勤務執行條例也已充足並服務正當程序。林昕璇對此認為,該判決雖是全球第一個人臉辨識技術的司法個案,但僅就法律論理,導致其認為人臉辨識技術合法合憲性,是可惜之處。而針對該判決的不足之處,林昕璇也說,未來討論AI監控技術,需更進一步了解技術運作細節的特性 、考證犯罪偵查的公眾信賴與效能,並更細緻地區分傳統偵防手法與人臉辨識監控的差異。


翁逸泓:提供歐盟法治作為參考。技術已大量應用下,台灣的法制應即時跟上。

延續前一位講者的案例,翁逸泓指出,AFR大致有三個特徵:即時性、難以逃避變更、低成本。而其中有關黑名單的設計,更是需要被監督之處。翁逸泓指出,黑名單的設計,除了該名單的建置是否可靠外,是否會因此讓國民的臉都被蒐集,也是必須考量的重點。

翁逸泓指出,面部特徵資料學理上已逐漸將之視為敏感資料,因此理論上應該要受到更嚴格的保護。在報告中,翁逸泓認為,在這部分,至少應針對技術及資料的治理架構、相關資訊能否透明、決策可否挑戰等著手分別處理。

翁逸泓也以科技監控對個資的增幅衝突為例,強調法規上應該要同步跟進。例如俄羅斯在使用面部辨識防疫上,專門針對黃種人,就是明顯科技促成差別待遇的案例。翁逸泓表示,歐盟在這部分,已經制定了「可信賴的人工智慧道德指引(Ethics Guidelines for Trusted AI)」,指引中針對何謂可信賴的人工智慧,提出了三個基本要素:合法、合乎道德、以及「穩健(robust)」。而同樣在GDPR中,亦有賦予人民拒絕權等。但反觀台灣,相關法制至今依然闕如。

針對規範上要如何修正,翁逸泓指出,台灣當前已持續增加人臉辨識技術應用的狀況下,若法規上要修正,則參酌歐盟立法至少有四個基本方向可參考:確保平等、可課責、機制透明、資料保護衝擊影響評估。這是未來法規上須儘快補足之處。


周宇修:釋字第603號解釋仍有其意義,科技推演須同時考量對不同族群帶來的正反影響。

針對此議題,周宇修則從2005年大法官釋字第603號解釋談起。在該解釋中,大法官不僅肯認了隱私權是憲法保障的基本權,其內涵更包含人民可以自主決定其資料的流向與使用。周宇修指出,雖然釋字第603解釋距今已超過15年,但其中的觀點,至今還是有參考價值。例如在解釋中提及,國家若要建立大型資料庫,應該亦法律明定其蒐集目的,並禁止目的外使用。周宇修指出,同樣的問題,在人臉辨識的技術上,人臉既是可以顯著識別當事人的特徵,則該資料就是重要資料,而人臉辨識雖可能可以促進安全,但也可能有其他副作用。因此若要建立這種重要資料的資料庫,按照釋字第603號解釋,就應該法律明文規定才行。

周宇修進一步表示,但過去我國在使用相關技術時,不僅沒有立法,導致合法、合憲性都有疑慮,此外人臉辨識還會帶來其他的爭議,例如誤判導致的權利侵害、功能蠕變、侵害資訊自主權、擴大資安風險、限縮集會遊行權、甚至黑名單擬定的不透明等。

也因此周宇修認為,在未來的技術使用上,若已顯見有相關的風險存在,則該做的應是先行儘量避免前述的風險,而社會也必須認識到,科技進步與人民安全或人民基本權利的保障,時常不一定是併行,但也不一定是相悖。在報告最後,周宇修也以大法官釋字第584號為例指出,當年大法官認為可以禁止有重大前科的計程車司機營業,理由之一是因為當年定位技術很差,倘若現今的定位技術已足夠精準,那對該條文解禁是否就成為可能的選項之一?這都是未來值得持續思考的方向。