私隱專員鍾麗玲表示,早前開展的循規審查發現,機構一般都有安全風險意識,一些機構更有内部管制架構檢視如何使用人工智能,並從各個部門派人緩減使用AI的風險。
私隱專員鍾麗玲。私隱專員公署資料圖片
鍾麗玲在一個電台節目表示,大型機構在這方面做得比較好,較少中小企有管制架構,公署日前已經公布指引,可協助制定使用生成式AI內部政策,讓員工清楚如何使用AI和留意輸入的資料。她舉例指,一些時裝設計機構輸入所有客戶資料,以AI分析客戶的喜好,但署方提醒有關機構不需要輸入客戶個人資料包括名字。
私隱專員公署。FB圖片
鍾麗玲說,循規審查範圍包括公營機構和政府部門,暫時看不到有違反個人《個人資料(私隱)條例》的情況是很好現象,但無論甚麽類型的機構都不應該掉以輕心。她認為公署絕對有足夠權力介入AI相關事故,但希望市民別以為公署是「老虎」,因為不是「下下都要咬人」。
個人資料私隱專員公署日前公布指引,協助機構制定使用生成式人工智能的內部政策。私隱專員鍾麗玲表示,留意到生成式AI越來越普及,很多人在老闆未必知道的情況下使用,期望清單協助企業制定內部政策,讓員工能更安全使用,釋放AI最大威力。
私隱專員鍾麗玲。私隱專員公署圖片
鍾麗玲在一個電台節目說指引有三頁,系統列出五大內容,包括使用AI的範圍、保障個人資料私隱、合法合乎道德使用AI、數據安全,以及違反指引的後果,形容僱主可以「執藥咁執」。她表示,指引推出幾日後,有業界反映希望公署製作內部政策的樣本,署方會考慮,而公署設有AI安全熱綫,讓企業查詢問題,亦有度身訂造的培訓課程,6月亦會同生產力促進局舉辦AI安全研討會。
私隱專員鍾麗玲。私隱專員公署圖片
對於AI風險方面,鍾麗玲說,最主要是關注個人資料私隱風險,尤其是資料的使用,例如員工將收集到的客戶資料悄悄用於訓練AI。其次是員工輸入一些公司不允許的敏感機密資料。第三,是關於資料外洩的問題,因為訓練AI通常需要大量數據,如果發生事故,後果可以相當嚴重。
私隱專員鍾麗玲表示,透過制定使用人工智能指引,冀助企業釋放AI最大威力。私隱專員公署圖片