当前位置: 首页» 专题» 聚焦2024全国两会» 建言献策

李治欣代表:关于构筑多重AI安全“护栏”,织密反诈防护网的建议

近年来,人工智能(AI)技术发展十分迅速,在艺术、社交、医疗等领域呈现出积极应用。与此同时,由于其易得性强、成本低、仿真度高,AI深度伪造技术被犯罪分子用于诈骗案件频发,引发社会广泛关注。2月4日,香港警方透露了一场涉及深度AI造假技术的复杂骗局,一家跨国公司的香港办事处遭受了高达1.8亿元的重大财务损失。这已经不是第一起有关AI的诈骗了,2023年4月20日发生在内蒙古包头市的一起金额高达430万元的诈骗案件,也是利用AI换脸技术得手的。据了解,依靠深度伪造技术工具,AI客服可以同时给上万人打电话,从事电信诈骗的危害性更强、数额更大。从源头规范AI技术的使用和发展,已迫在眉睫。为此,建议:

一、完善法律法规,构筑制度护栏。

近年来,从国家层面陆续出台了《网络安全法》《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理办法》等系列法律法规,有效保障了人民群众财产安全。但从司法实践看,还需在多个方面进一步完善法律规范配套措施。一是明晰法律责任。加快出台并完善人脸识别数据管理专项法律,厘清各部门监管责任,加强行政监管机制建设,构建专业的个人信息保护监管体系。规范落实AI制作者的责任义务,明确标识其制作的内容为AI合成,加强对生成内容的甄别、溯源和追责。建立健全行业自律机制,网络服务提供者的企业和平台在搜集与利用个人信息时应自觉遵守法律规范,担负起保护隐私安全的责任。二是明确应用场景。制定严谨的隐私政策措施,规范人脸识别数据采集、存储和应用,强化对用户数据的安全防护,明确可实施用户生物特征信息合理运用的应用场景和使用目的,防止数据泄露成为AI技术诈骗的资源渠道。三是明示使用标识。强制对使用“AI换脸”技术的影像、声音等标注可识别标识,特别是可能导致公众混淆或者误认的,如合成人声、仿声等语音生成或者显著改变个人身份特征的编辑,应在其生成或编辑信息内容的区域进行显著标识,向公众提示深度合成情况。

二、强化科技创新,构筑技术护栏。

一是强化技术升级。2023年7月,美国政府宣布,已获得亚马逊、谷歌等多家人工智能头部公司承诺,将对人工智能生成的内容加水印等措施,以帮助提高技术的安全性。建立涉及人脸信息处理的“留痕”技术制度,鼓励和支持高校、高科技企业和研发机构,尽快开发和应用专门针对AI换脸技术的检测工具,识别出已经或有潜在AI换脸处理风险的内容,识别与监督,并加快其推广和使用。二是强化协同合作。近年来,国内多地各部门加强合作,共同探索反制技术,加强网络安全防护,取得明显成效。如湖北省黄石市公安局联合科大讯飞股份有限公司、电信运营商联合研发的反智能语音机器人“小飞”上岗后,为一些“不听劝”的受害者避免了经济损失。建议推广借鉴这些先进经验,各级政府、公安机关、金融机构、科技企业,以及其他相关部门,要加强协调联动,建立信息共享机制,共同致力于对AI犯罪行为的监管和打击,加强网络安全防护。三是强化身份验证。近日,多名大学生“被法人”现象引发热议。建议涉及公众身份敏感信息的相关部门,采用多元化的身份验证技术,如生物特征识别(指纹、面部识别等)、动态验证码以及硬件令牌等,从而大幅度提高对非法换脸行为的识别能力。

三、加强自我保护,构筑意识护栏。

加大宣教力度,引导用户掌握识别及应对AI技术诈骗风险的方法。社会公众要提高警惕性,加强个人信息保护意识,不点击可疑链接、不下载不明附件、不随意在一些非官方的网站上提交照片。谨慎使用各类“AI换脸”“AI变声”软件,对不断更新的网络技术和诈骗方式,增强防范意识,设好自我防线,坚持不轻信、不透露、不点击、不转账。