网信办联合多部门出手!AI技术滥用乱象将终结

301png

近年来,AI技术的迅猛发展给社会带来了前所未有的便利,但同时也催生了一系列滥用乱象。从深度伪造(Deepfake)视频的泛滥,到AI换脸技术被用于诈骗,再到算法推荐导致的"信息茧房"问题,AI技术的无序应用正在对社会秩序和个人权益构成严峻挑战。许多用户都曾遭遇过AI生成的虚假信息,或是被精准投放的广告"绑架",这些痛点正引发全社会的广泛关注。在此背景下,网信办联合多部门重拳出击,标志着AI技术滥用乱象或将迎来终结。

AI深度伪造技术面临严格监管

深度伪造技术近年来被频繁用于制作虚假视频和图片,从明星换脸到政治人物"发表"不当言论,这类内容在社交平台上的传播已经造成了严重的社会影响。新规明确要求,任何使用AI技术生成或编辑的内容都必须进行显著标识,平台方需建立完善的内容审核机制。专家指出,这一举措将有效遏制利用AI技术制造虚假信息的违法行为,维护网络空间的清朗环境。同时,相关技术提供方也被要求建立可追溯机制,确保每一条AI生成内容都能找到责任主体。

算法推荐不能成为"信息牢笼"

长期困扰用户的"信息茧房"问题终于迎来转机。新规对算法推荐服务提出了明确要求,平台不得仅基于用户画像进行单一内容推送,必须提供多元化的信息选择。这意味着用户将重新获得信息自主权,不再被算法困在单一的信息闭环中。监管要求平台建立"人工干预"机制,对热点事件的推送内容进行必要调整,防止算法放大极端观点。这一改变将有效打破"信息孤岛",让用户重新接触到更全面、客观的信息世界。

AI数据采集使用划定红线

个人隐私保护成为新规的重点关注领域。近年来,一些企业为训练AI模型大量采集用户数据,甚至出现人脸信息被非法买卖的情况。新规明确规定,任何组织和个人收集、使用个人信息都必须取得明确授权,禁止以"默认同意"等方式变相强制获取用户数据。对于敏感生物特征信息,如人脸、声纹等,新规设立了更严格的保护标准。同时要求AI服务提供者建立数据安全管理制度,确保用户信息不被滥用。这些措施将有力遏制当前AI领域存在的数据滥用乱象。

随着新规的实施,AI技术的发展将进入更加规范的新阶段。在保护创新活力的同时,通过明确的监管红线,确保技术进步真正服务于社会公共利益。这场针对AI滥用乱象的整治行动,不仅回应了社会关切,更为人工智能产业的健康发展指明了方向。未来,如何在创新与规范之间找到平衡点,仍将是业界和监管方持续探讨的重要课题。