中国互联网协会:小心! “AI换脸”新骗局

今年以来,ChatGPT、GPT-4等技术的应用成为信息技术领域的热门话题,引发了公众对AI技术的广泛关注和热情。 但随着深度合成技术的开源,深度合成产品和服务逐渐增多。 利用“AI换脸”、“AI变声”等虚假音视频进行诈骗、诽谤的现象屡见不鲜。

近日,包头市公安局电信网络犯罪侦查局发布了一起利用智能AI技术实施电信网络诈骗案件。 犯罪分子利用AI技术,通过语音合成伪造特定人的声音,利用AI换脸、伪装成特定人,与他人实时进行视频通话。 改变后的面部表情是自然的、虚假的,该人可以冒充他人联系受害人,获取受害人的信任,进而实施诈骗。

面对利用人工智能技术的新骗局,公众需要提高警惕,做好防范。

1、做个人信息安全第一责任人

1、强化个人信息保护意识,防止信息泄露:不轻易向他人提供人脸、指纹等个人生物识别信息; 不轻易泄露您的身份证、银行卡、验证码等信息; 不要为了图方便而使用身份证、银行卡等。 卡片照片等直接一起存储在手机中。

提示:如果您发现该APP过度、强制收集个人信息,请进行投诉。

2、不要点击不熟悉的链接,不要下载不熟悉的软件,不要随便添加不熟悉的好友,不要随便扫描未知的二维码。 管理好你的朋友圈,不要与陌生人分享你的手机屏幕。

3、做好个人防护,安装安全软件,防范手机、电脑病毒; 保持个人账户安全特别是陌生设备登录的警惕,防止微信、QQ等账号被盗给亲友带来麻烦。

4、对于不常用的应用,建议卸载前先退出个人账户。

提示:如果APP未提供个人账户注销方式,或对账户注销设置各种障碍,请在此投诉。

2、异地转账需多重验证,管好“钱袋子”

如果有人通过社交软件、短信、电子邮件等自称是“家人”、“朋友”、“老师”或“领导”,“手机掉进水里,学校需要支付补习班费用”学费急”或“此人出国旅行,需要帮助购买机票”。 各种方式和理由都可能诱使您转移资金、汇款,例如“为老板处理个人事务需要紧急转账”、“车祸后需要立即手术”、“特殊情况需要过桥贷款”等.你必须尽快提高警惕。 AI时代,文本、声音、图像、视频都可能被深度合成。 在转账、汇款、资金往来等典型场景中,应采用回拨对方手机号码等额外的通讯方式进行验证和确认,而不是仅仅依赖单一的通讯渠道。 无需验证直接转账! 不管对方是谁!

提示:如遇到诈骗信息,请向反诈骗专栏举报。 如果您遭受资金损失,请及时报警。

中国互联网协会持续推动行业自律,积极开展电信网络诈骗防治工作。 2023年6月14日至16日,中国互联网协会将组织“2023年电信网络欺诈治理培训”,解读电信网络欺诈治理法律法规,分析研判电信网络欺诈治理重点任务和发展情况,帮助企业落实防范和管理电信网络诈骗责任,提高管理能力,促进行业健康发展。

来源:中国互联网协会

© 版权声明
THE END
喜欢就支持一下吧
赞赏 分享