新华报业网 > 首页 > 正文
江东时评 | 谨防AI技术击穿安全底线
2023/05/23 20:37  新华报业网  韩宗峰  

  近日,包头警方发布一起利用AI实施电信诈骗的典型案例,福州市某科技公司法人代表郭先生10分钟内被骗430万元。AI既可以换脸还可以拟声,逼真到视频聊天也看不出破绽,“仿真”程度足以以假乱真,这让不少人“细思极恐”。

  此前,在多个省份都有类似案例。骗子往往通过有偿收购等手段获取他人音频素材等基础“物料”,利用AI技术合成声线、“活化”照片,然后“骗过”验证、登录他人社交平台并联系“好友”诈骗获利。深度合成技术正瓦解“眼见为实”的信任逻辑,一张正脸静态照片,在经过“活化”处理之后,可以呈现出丰富表情、生成流畅视频。同样,经处理后声音也可呈现真人音效,足以以假乱真。

  目前,深度合成应用正呈现出指数级增长,一些滥用该技术的行为正带来肉眼可见的伦理和治理问题。除了用AI换脸假装好友诈骗,还有人用它来制作他人不雅视频、冒充明星带货等等。在支付场景日益丰富的当前,人们的面部、声音、指纹、虹膜等生物信息的使用越来越广泛,隐私泄露等风险隐患点也随之增多。同时,人工智能的深度学习和算法越来越先进,其处理过的音频日益逼近真人,恰如那句网络流行语:你永远不知道网络的对面是一个人还是一条狗。如果不对此类技术加以限制,AI技术不仅容易威胁到他人财产安全、伤害个人尊严和隐私,还可能会构成较大社会危害。

  英国科幻剧《黑镜》通过若干小故事带领观众思考未来数字化生存的挑战,探讨了数字化生存危机,指出“科技至上”和技术专制的尽头或许是不测深渊。要防止坠入技术滥用的深渊,当然要靠公众提升防护意识、避免网络“踩坑”,不过在技术优势面前,自我防护效果有限,人们总有意识松懈麻痹时。因而,要求公众有不“踩坑”的意识之外,更需要相关部门和企业积极引导技术向善,完善风险治理体系,从而帮助公众堵上高技术诈骗这个漏洞。

  面对有可能击穿安全底线的技术风险,有必要出台法律、明确监管框架,给AI技术套上缰绳。当前,AI合成技术还属新生事物,立法和监管应当紧跟实际、甚至具有一定前瞻性。警惕科技“变坏”,关键还在于不能让AI“吃”进过多公众信息,否则这些信息就有可能被大数据技术抓取,让不法分子描摹出精细的用户画像。相关平台要加大力度研发防骗反诈监测系统和应急软件,同时基于自身大数据能力和安全防护能力,对侵权行为及时采取删除、屏蔽、终止交易和服务等必要措施,以科技防骗杜绝科技诈骗。

标签:
责编:刘雨菲

版权和免责声明

版权声明:凡来源为"交汇点、新华日报及其子报"或电头为"新华报业网"的稿件,均为新华报业网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为"新华报业网",并保留"新华报业网"的电头。

免责声明:本站转载稿件仅代表作者个人观点,与新华报业网无关。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。

read_image_看图王.jpg
信长星.png
read_image.png
受权.jpg
微信图片_20220608103224.jpg
微信图片_20220128155159.jpg

相关网站

二维码.jpg
21913916_943198.jpg
jbapp.jpg
wyjbL_副本.png
jubao.jpg
网上不良信息_00.png
动态.jpg