欣欣:
最近工作忙碌吗?近年生成式人工智能(AI)工具越来越普及,你又有没有在工作中运用这些工具呢?上星期与你姊姊吃饭时,我们也有提起AI这个时下热门话题。她大赞生成式AI令她的工作量减轻了不少,她说只需向聊天机械人输入一两句指示,就可得到一篇大方得体的文件初稿,甚至帮助她分析财务报表。也难怪现时许多机构都打算采购各种AI系统用于营运之中,从而提升生产力。
不过,值得留意的是,聊天机械人提供的资讯,很多时并非百分百准确。聊天机械人有些时候甚至在它的回应中,以出乎意料的方式向你泄漏个人资料。举例来说,若你向提供予公司内部员工使用的聊天机械人输入自己的个人资料,聊天机械人或会将你输入的资料储存至它的资料库,并且在回答其他员工的问题时披露这些资料,构成私隐风险。此外,去年有研究人员发现,当他们要求市场上某聊天机械人不断重复一些单字时,它虽然会先按指示重复该单字,但不久之后,它就会开始输出训练资料,当中包括姓名、电话、电邮地址等个人资料。欣欣,我相信你也知道,训练AI模型需要海量数据,随着AI模型不断「升呢」,它们对数据的「胃口」越来越大。 有报道更指出,一个知名品牌的聊天机械人模型的开发者从互联网上收集了多达3000亿字来训练模型,而这些数据很大机会包含个人资料。
此外,AI输出的资讯可能不准确,具歧视性或带有偏见。美国有研究显示,许多人脸识别技术系统错误识别有色人种面孔的可能性比白人高达10至100倍,原因是训练数据中属有色人种的数据不足。若AI系统是用于诊断病人,但分析错误,导致医生「断错症」、延误治疗,后果就不堪设想。事实上,AI系统「摆乌龙」的情况时有发生。据报道,美国有一名血癌病人被AI判断为患有败血症,因此需要进行抽血等进一步医疗程序,结果却发现AI误诊,白白地增加了病人的感染风险和医药费。
另一方面,AI的数据安全风险同样不容忽视。AI系统与其他资讯科技系统一样,有资料外泄风险。我们身处数码年代,无论是香港或其他地区,资料外泄事故都呈现上升的趋势。同样地,AI系统亦可能因为黑客入侵或系统设定出错等不同原因而导致资料外泄。去年正正有一宗牵涉AI聊天机械人的严重资料外泄事故,除了泄露了部分用户过往对话的标题,更泄露了用户的姓名、电邮地址和信用卡号码的部份数字。
针对香港机构使用AI的情况,私隐专员公署于今年初已就28间机构使用AI的情况完成循规审查,并未有发现任何违规情况。为应对AI所带来的风险,公署早前出版了《人工智能(AI):个人资料保障模范框架》(《模范框
架》),协助机构在采购、实施及使用AI,包括生成式AI处理个人资料时,遵从《私隐条例》的相关规定。这套《模范框架》建基于一般业务流程,涵盖四个范畴,就保障个人资料私隐方面提供有关AI管治的建议及最佳行事常规,包括建议机构应制定AI策略及管治架构、评估相关风险、采取「风险为本」的方式以决定所需的人为监督程度、实行AI模型的定制与AI系统的实施及管理,以及促进与持份者的沟通及交流。业界对公署推出《模范框架》,反应相当正面,许多机构都认同《模范框架》有助它们安全、合规地使用AI。《模范框架》以浅白的文字,具体的个案、例子、图表说明怎样在采购、实施及使用AI模型时保障个人资料,并引入「红队演练」、AI事故应变计划等建议,提升系统安全和数据安全。我希望《模范框架》可帮助中小企对症下药,更安心地采购、实施及使用各式各样的AI系统。
为了协助公众和机构理解《模范框架》的建议,我们亦已推出懒人包,将《模范框架》浓缩至两页简单又易明的单张,令到大家可以透过该单张轻易掌握框架的精髓。
我相信在采取适当的保障措施下,AI的使用将可以为大家带来更大的益处。机构若对《模范框架》的内容有甚麽疑问,可致电私隐专员公署的中小企热线查询。我们也会主动为业界提供协助,帮助机构将《模范框架》的各项建议纳入至他们的业务流程之中,提升AI管治水平。公署将会举办讲座及工作坊,为业界详细介绍框架内容。
欣欣,我深信《模范框架》会协助孕育AI在香港的健康及安全发展,促进香港成为创新科技枢纽,推动香港以至大湾区的数字经济发展。
最后姨姨想提提你,机构固然有责任在使用AI之余,保障用户的个人资料;而你我作为不同AI工具的使用者,也要学懂保障自己及他人的个人资料私隐。你使用聊天机械人时,要切记不可随便透露任何个人资料呀。私隐专员公署早前都出版了《使用AI聊天机械人「自保」十招》,闲时记得看看这单张,学多几招傍身、保障自己的私隐!
姨姨
2024年6月29日
香港电台第一台FM92.6 - 94.4星期六早上九点至九点二十分
编导:陈健佳
监制:林嘉瑜
学者、议员、官员及社会人士透过书信形式,分析社会现象,细诉个人感受。