个人资料私隐专员钟丽玲——人工智能系统有「机」亦有「危」 科企确保数据安全责无旁贷
黄教授:
近期人工智能(AI),特别是生成式AI驱动的聊天机械人的崛起,例如 ‘ChatGPT’、 ‘Bard’、「文心一言」和「通义千问」,已在不同司法管辖区和各行各业引起了震荡。不知道你有否使用过这些聊天机械人,去帮助你教学或者研究的工作呢?
与早期主要透过分析大数据作出决策的人工智能不同,聊天机械人的「神奇」之处在于它们可以秒速回应用户的请求和问题,并根据所给予的提示,像人类般提供看来理性、完整及令人信服的回应,甚至可用来创作诗词歌赋,这使它成为人工智能发展史上的一个里程碑。
最近有报道指,生成式AI的逻辑理解和分析能力已相当接近人类,例如用生成式AI去解答文凭试DSE中史科试卷,可以1分钟内完成试卷并得到5级的佳绩。最近更有世界摄影比赛的冠军作品是由人工智能生成。究竟我们面对的是真实的人的作品还是人工智能的作品,真是可谓「人机难辨」!
然而,有「机」亦有「危」。虽然很多人视这科技突破为人类的福音,但人工智能的使用所带来的私隐及道德问题同时引起各界关注。
很多人可能不知道,生成式AI的运作建基于「深度」学习技术,当中涉及使用大量的原始资料或数据作为训练数据,而这些资料或数据可以包括敏感的个人资料,可以是由用户所提供的,或是由互联网收集及复制的。
试想一想,若你的朋友在你完全不知情、遑论同意的情况下,将你的姓名、职位、住址、身份证号码,甚至信用卡号码提供予聊天机械人作为对话的一部分,视乎有关程式的演算法,这些个人资料便可能会被储存到机械人的资料库中,并可能成为它回答下一个用户的材料!
从以上的例子可以看到,由于用户的对话可能被用作训练人工智能模型的新训练数据,若是用户不经意地向人工智能系统提供了敏感的资料,那么他们的个人资料便可能会被滥用,超出用户提供他们个人资料的原本目的。同时,若是相关的资料收集过程透明度不足,又是否会出现在用户不知情及不公平的情况下收集个人资料,从而构成私隐风险呢?除却资料的性质及收集过程外,还有其他同样复杂的问题有待考虑及处理,包括用户可如何行使他们查阅及改正资料的权利、如何保护儿童私隐、在开发及使用生成式AI的过程中如何减少不准确的资料、具歧视性或偏见的内容,以及减少资料安全的风险。
最近更有报道指,有些员工因为使用聊天机械人而将公司机密资料,例如公司系统原始码、甚至一些医疗纪录放入聊天机械人的系统里,引来企业机密资料和私隐外泄的忧虑。
最近,全球超过二万七千人,当中包括科技专家,联署了一封公开信,呼吁所有人工智能实验室六个月内暂停训练更强大的生成式AI系统,并在这期间共同制定和实施一套安全守则。
究竟现时是否将人工智能的发展好好地规划及管理、甚至规管的契机?
我认为科技公司,尤其是人工智能开发科企,有责任确保人工智能系统的数据安全,相关科企应检视及评估他们的人工智能系统在运作上对数据私隐及道德的影响,并确保遵从相关法例或适用的指引。
在这方面,私隐专员公署于2021年8月发出《开发及使用人工智能道德标准指引》,协助机构以保障私隐、符合道德及负责任的方式开发及使用人工智能系统。《指引》胪列了国际认可的人工智能道德原则,涵盖问责、人为监督、透明度、公平、数据私隐、有益的AI,以及数据可靠、稳健及安全等方面的标准。机构在开发及使用生成式AI时,除了须要符合《个人资料(私隐)条例》的规定外,亦应该遵守这些原则,以减轻私隐及道德风险。
展望未来,生成式AI的出现已经是一个不可逆转的事实。我赞成对这新兴科技采取一个谨慎开放的态度,在不窒碍新科技长远发展的同时,亦应考虑以法律法规、指引、行业标准,或甚至国际标准去作出规范,令生成式AI在一个健康、合法及符合道德的空间中发展。黄教授,你从事科技研究多年,在这方面我也想听一下你的意见。
丽玲
2023年4月29日
【声音完全版】
香港电台第一台FM92.6 - 94.4星期六早上九点至九点二十分
主持:张凤萍
编导:张凤萍
监制:林嘉瑜
学者、议员、官员及社会人士透过书信形式,分析社会现象,细诉个人感受。