期交所雙月刊60期
17 臺灣期貨雙月刊 TAIFEX BIMONTHLY 負責任之人工智慧系統( Responsible AI ) WFE 2019 年技術研討會議針對「負責任之 人工智慧系統」( Responsible AI )議題進行討論, 人工智慧系統需具備道德性、合法性、可靠性及 有益於人類社會。於開發人工智慧系統時確保開 發過程中要考慮到道德性及社會影響力,設計系 統時將道德推理能力整合為人工自治系統一部分, 對於設計人員如利益相關者(研究人員、開發者、 製造商等)及政府機構必須確保監管及認證機制。 開發「負責任之人工智慧系統」時需達成下列 三項要求: ・ 問責制( Accountability ): 人工智慧系統開發 單位必須為系統達成功能承擔責任。 ・ 責任( Responsibility ): 人工智慧系統具有自 我治理能力,於設計時必須將該系統設計為如 同人類思考模式,才能對人類社會有助益。 ・ 透明度( Transparency ): 資料及處理流程、 演算法及最終輸出結果須向大眾揭露。於制定負 責任之演算法時,需要考量到受影響方、決策標 準、標準合理性、如何去訓練演算法等議題。 對於設計者,人工智慧系統必須遵循法規、 通過認證、符合標準、有合理行為模式。政府機 構可以透過立法及設定認證標準,讓資訊廠商於 開發人工智慧系統完成後通過認證,可於銷售上 與其他人工智慧系統未通過認證者有差異性。認 證標準制定後,人工智慧系統於設計階段就必須 導入負責任之概念,而非不受限制發展,可確保 大眾更加接受人工智慧系統各種應用層面。 人工智慧系統相關規範 目前共有三個國際組織制定開發人工智慧系統 相關規範: ・ 歐洲聯盟委員會( European Commission ) 之人工智慧高階專家小組( High-Level Expert Group on Artificial Intelligence ): 人工智慧 系統必須尊重基本人權,開發時須遵循基本原 則,及考量對大眾利益影響。對於開發時須達 成規範有:人力資源管理以及如何監督、技術必 須要穩健且安全、隱私及資料管理、人工智慧系 統透明度、需考量多樣性、消弭歧視及考量公平 性、對社會及環境有助益且能符合問責制。 制定規範後,在推展人工智慧系統時可以更具影 響力,改變歐洲商業格局,讓歐洲公共部門使 用人工智慧系統程度更高,獲得世界級研發能 力,增進公民利益等。對於歐洲人工智慧系統 開發商而言,可吸引對人工智慧系統業者投資, 具體建置人工智慧系統所需基礎設施,發展對 人工智慧系統教材並教導相關技能,確保開發 商可以遵守相關政策及監管框架。 ・ 經濟合作暨發展組織( OECD )之人工智慧原 則( Principles on Artificial Intelligence ): 人工智慧系統必須造福人類及地球,尊重法治、 人權、民主價值及多樣性,包括適當保障措施 (例如人類干預)確保公平公正社會制度、透 明度及負責任地揭露資訊,必須運作穩健且安 全,為使人工智慧系統能夠合理且正常運作, 必須能對組織及個人問責。 ・ 電機電子工程師學會( IEEE )之道德設計規範 ( Ethically Aligned Design ): 須確保人工智 慧系統不侵犯人權,因為過往並沒有考量到人 工智慧系統對人類影響程度,因此未來該如何 確保設計者、製造商、業主及營運商是負責任 且可問責,如何確保人工智慧系統透明度,如 何增進人工智慧系統利益並且盡量減少人工智 慧系統技術被誤用風險等議題。 結語 人工智慧系統對未來人類社會影響力愈來愈 廣,將來有更多機會來擴展人工智慧系統應用至全 新領域。再次強調人工智慧系統係人類製造出來產 品,因此必須制定目標,確保系統不會被誤用。人工 智慧系統需要符合問責制、責任及透明度等三原則。 於開發設計階段,須把道德觀念時時刻刻記在心中, 必須使人工智慧系統合乎法規,能有效監管並通過 認證,才能有益於人類社會發展。
Made with FlippingBook
RkJQdWJsaXNoZXIy NDEyMzQ=