人工智慧(AI)繼續幫助世界各地的人們處理日常任務,例如即時翻譯、行車路線的最佳化、工廠的自動化等等。AI還可用於解決一些最具挑戰性的問題,例如幫助病理學家更快更正確地發現癌症,最佳化道路交通號誌的效率,預測洪水和氣候變化的其他影響,並為COVID-19的藥物和疫苗研發提供助益。
但隨著AI的應用越廣,越來越多人認識到AI也會帶來巨大風險,世界各地紛紛重視和提出AI的原則、AI的治理等相關提案和法規,大部分關注到AI系統的公平、安全和隱私等問題。經濟合作暨發展組織(OECD)、G20和G7已通過各自的AI原則,IEEE、ISO和美國的NIST等標準機構也在制定AI的治理標準。今年四月,歐盟發布了第一個AI的監管提案(AI Act),其中概述對AI系統的詳細要求和如何管理高風險AI系統的建議。
大部分的治理原則認為AI應該:
1.對社會有益:對人和社會可能帶來的好處遠大於可預見的風險和不利因素。
2.避免製造或強化不公平的偏見:避免對人的不公正影響,特別是與種族、民族、性別、國籍、收入、性取向、個人能力和政治或宗教信仰等敏感特徵相關的影響。
3.安全第一:設計和測試上要符合目前最好的AI安全研究,包括在可控制的環境中進行測試並持續監控。
4.可以究責:接受適當的人為指導和控制,在發生問題時可以提供資料和相關解釋。
5.納入隱私設計:鼓勵具有隱私保護的架構,並提供適當的透明度和對資料使用的控制。
6.堅持科學卓越的高標準:AI的技術創新要根植於科學方法,利用正直和誠信的方法,並承諾可以公開被探究。
7.普惠大眾:AI使用不能有特權,且要限制可能有害或濫用的應用。
除上述目標外,AI不應該在以下應用領域設計或部署:
1.可能造成整體傷害的應用,AI只能在利益大大超過風險的情況下進行,並納入適當的安全管制和限制。
2.不能用在發展武器或以傷人為目的應用。
3.違反國際公認規範去收集或使用個人資訊進行監控的應用。
4.違反公認的國際法和人權原則的應用。
關於AI我們不知道的還有很多,例如如何定義AI的公平性,評估和管理AI風險的技術仍在發展中。隨著AI技術不斷發展,也會帶來新問題和挑戰,例如用人工合成資料來當作訓練資料是否正確,又如情感計算AI試圖了解人類情感的一切,但會不會讓情感被控制等。未來AI有令人興奮的新功能,也帶來新的風險,人類必須學會理解和管理AI。
(本文已刊載於2021.12.02聯合報第A12版民意論壇)
但隨著AI的應用越廣,越來越多人認識到AI也會帶來巨大風險,世界各地紛紛重視和提出AI的原則、AI的治理等相關提案和法規,大部分關注到AI系統的公平、安全和隱私等問題。經濟合作暨發展組織(OECD)、G20和G7已通過各自的AI原則,IEEE、ISO和美國的NIST等標準機構也在制定AI的治理標準。今年四月,歐盟發布了第一個AI的監管提案(AI Act),其中概述對AI系統的詳細要求和如何管理高風險AI系統的建議。
大部分的治理原則認為AI應該:
1.對社會有益:對人和社會可能帶來的好處遠大於可預見的風險和不利因素。
2.避免製造或強化不公平的偏見:避免對人的不公正影響,特別是與種族、民族、性別、國籍、收入、性取向、個人能力和政治或宗教信仰等敏感特徵相關的影響。
3.安全第一:設計和測試上要符合目前最好的AI安全研究,包括在可控制的環境中進行測試並持續監控。
4.可以究責:接受適當的人為指導和控制,在發生問題時可以提供資料和相關解釋。
5.納入隱私設計:鼓勵具有隱私保護的架構,並提供適當的透明度和對資料使用的控制。
6.堅持科學卓越的高標準:AI的技術創新要根植於科學方法,利用正直和誠信的方法,並承諾可以公開被探究。
7.普惠大眾:AI使用不能有特權,且要限制可能有害或濫用的應用。
除上述目標外,AI不應該在以下應用領域設計或部署:
1.可能造成整體傷害的應用,AI只能在利益大大超過風險的情況下進行,並納入適當的安全管制和限制。
2.不能用在發展武器或以傷人為目的應用。
3.違反國際公認規範去收集或使用個人資訊進行監控的應用。
4.違反公認的國際法和人權原則的應用。
關於AI我們不知道的還有很多,例如如何定義AI的公平性,評估和管理AI風險的技術仍在發展中。隨著AI技術不斷發展,也會帶來新問題和挑戰,例如用人工合成資料來當作訓練資料是否正確,又如情感計算AI試圖了解人類情感的一切,但會不會讓情感被控制等。未來AI有令人興奮的新功能,也帶來新的風險,人類必須學會理解和管理AI。
(本文已刊載於2021.12.02聯合報第A12版民意論壇)

