中国互联网协会:警惕“AI换脸”新骗局

【大河彩立方新闻】5月24日,中国互联网协会发文警告新型“AI换脸”骗局。

今年以来,ChatGPT、GPT-4等技术的应用成为信息技术领域的热门话题,引发了公众对AI技术的广泛关注和热情。 但随着深度合成技术的开源,深度合成产品和服务逐渐增多。 利用“AI换脸”、“AI变声”等虚假音视频进行诈骗、诽谤的现象屡见不鲜。

近日,包头市公安局电信网络犯罪侦查局发布了一起利用智能AI技术实施电信网络诈骗案件。 犯罪分子利用AI技术,通过语音合成伪造特定人的声音,利用AI换脸、伪装成特定人,与他人实时进行视频通话。 改变后的面部表情是自然的、虚假的,该人可以冒充他人联系受害人,获取受害人的信任,进而实施诈骗。

做个人信息安全第一责任人

1、强化个人信息保护意识,防止信息泄露:不轻易向他人提供人脸、指纹等个人生物识别信息; 不轻易泄露您的身份证、银行卡、验证码等信息; 不要为了方便而使用身份证、银行卡等。 卡片照片等直接一起存储在手机中。

提示:如果您发现该APP过度、强制收集个人信息,请进行投诉。

2、不点击不熟悉的链接,不下载不熟悉的软件,不随意添加不熟悉的好友,不随意扫描未知的二维码。 管理好自己的朋友圈,不要轻易与陌生人分享手机屏幕。

3、做好个人防护,安装安全软件,防范手机、电脑病毒。 警惕个人账户安全,尤其是陌生设备登录,防止微信、QQ等被黑客攻击,给亲友带来麻烦。

4、对于不常用的应用,建议卸载前先退出个人账户。

△温馨提示:如果APP没有提供个人账号注销方式,或者对账号注销设置各种障碍,请在此投诉。

远程转账需多重验证,管好你的“钱袋子”

如果有人通过社交软件、短信、电子邮件等自称是“家人”、“朋友”、“老师”、“领导”,“我的手机掉进水里了,学校需要交学费”。紧急辅导班”或“此人正在国外旅行,需要帮助购买机票”。 “我需要紧急转账,为老板办理个人事务”、“我出了车祸,需要立即手术”、“情况特殊,需要借过桥资金”等各种方式和理由诱导您转账汇款,请务必尽快提高警惕!

AI时代,文本、声音、图像、视频都可能被深度合成。 在转账汇款、资金往来等典型场景中,您必须通过回拨对方手机号码等附加通讯方式进行验证和确认。 不要在未经验证的情况下直接通过单一通信渠道转账和汇款! 不管对方是谁!

中国互联网协会持续推动行业自律,积极开展电信网络诈骗防治工作。 2023年6月14日至16日,中国互联网协会将组织“2023年电信网络欺诈治理培训”,解读电信网络欺诈治理法律法规,分析研判电信网络欺诈治理重点任务和发展情况,帮助企业落实防范和管理电信网络诈骗责任,提高管理能力,促进行业健康发展。

© 版权声明
THE END
喜欢就支持一下吧
赞赏 分享