山 海
近日,“顶流明星被曝境外豪赌输光十亿”的AI谣言引发舆论震动,造谣者徐某强被行政拘留8日。这起事件暴露出AI技术滥用对社会秩序的严重冲击,也凸显了技术“双刃剑”特性下治理的紧迫性。在技术狂飙的时代,如何平衡创新与安全,成为全社会亟待破解的命题。
AI滥用让谣言、诈骗形成“降维打击”。AI技术的易用性使其成为谣言制造的“加速器”。仅需输入热点关键词,即可生成看似真实的文本、图片甚至视频,如“云南山体滑坡致8人遇难”等虚假信息,通过算法推荐机制迅速扩散,扰乱公共秩序。更值得警惕的是,AI技术被用于精准诈骗:克隆明星、专家声音诱导老年人购买保健品,或伪造企业高管语音实施金融诈骗,涉案金额动辄超千万元。这类犯罪成本低、隐蔽性强,对中老年群体等“技术弱势群体”构成“降维打击”。
利益驱动与监管滞后造成AI技术滥用。AI造谣与诈骗的猖獗,源于技术滥用的低成本与高收益。以AI变声为例,仅需几元至数十元即可克隆声音,且伪造效果逼真。部分商家通过篡改综艺节目片段植入虚假广告,利用公众对权威的信任牟利,甚至冒用明星肖像权进行商业推广。与此同时,监管存在技术短板与规则空白。尽管《生成式人工智能服务管理暂行办法》等法规已要求内容标识,但部分平台审核流于形式,标识不显著、溯源机制缺失,导致虚假信息“漏网”。
法律、技术与社会协同共治滥用乱象。强化法律震慑,需明确AI生成内容的法律责任边界。例如,北京互联网法院已认定AI生成声音可纳入肖像权保护范围,商家未经许可使用他人声音构成侵权。应进一步细化《民法典》《反不正当竞争法》等法律条款,提高违法成本,严惩虚假宣传与诈骗行为。技术对抗技术,推广AI内容检测工具与溯源技术,如区块链存证、数字水印标识,实现“以AI制AI”。平台需落实主体责任,对AI生成内容进行主动审核与显著标识,避免“先发后审”漏洞。提升公众免疫力,通过典型案例剖析AI谣言的生成逻辑,普及“多源验证”方法论。例如,引导网民对“爆炸性”信息交叉比对权威信源,警惕“专家推荐”“权威背书”等话术陷阱。中老年群体需加强媒介素养教育,子女与社区应主动科普AI技术风险。构建多元共治格局,网信部门需牵头建立跨部门协作机制,整合平台、企业、科研机构资源,形成“源头防控—过程监管—结果追溯”的全链条治理体系。同时,鼓励企业探索“AI+伦理”审查模式,将价值观对齐纳入技术设计环节。
技术是中性的,但人是有主观意图和道德责任的。AI技术的滥用,本质是人性贪婪与监管缺位的叠加结果。从“清朗”专项行动到《人工智能生成合成内容标识办法》,我国已迈出治理的关键步伐。然而,技术的双刃剑效应决定了治理需持续迭代:既要通过法律与技术筑起“防火墙”,更要重建社会的信息免疫力,让公众在技术浪潮中保持理性与审慎。唯有如此,AI才能真正成为推动社会进步的“神笔”,而非扰乱秩序的“凶器”。