私隱公署發布AI個人資料保障框架 指引規定事故須暫停系統運作

網絡熱話

廣告

私隱專員公署最近發布了一套新的《人工智能個人資料保障模範框架》,旨在規範人工智能(AI)的應用,以保護個人資料不被濫用。根據這套指引,所有採用AI技術的機構都必須成立一個管治委員會,負責制定AI的使用目的和管治策略。

AI事故應對措施

當AI系統出現事故時,如涉及歧視等問題,相關機構必須立即暫停系統的運作,並向其公司董事局進行匯報,以便迅速處理問題並防止進一步的損害。

私隱處理問題

在處理個人資料時,機構需要特別注意私隱的保護。個人資料私隱專員鍾麗玲指出:「譬如掃描了虹膜後成立了資料庫,但相關項目原來無法找回。掃瞄虹膜後參加者的相關數據並非百分百找到,變相一些客戶或參加者如果想刪除自己的虹膜紀錄,或更正自己的登記紀錄,原來找不到,這便違反了私隱條例的相關規定。」