【ITBEAR】国庆期间,网络掀起一股“雷军热”,不过此“雷军”非彼雷军,而是AI技术合成的产物。短视频平台上,这个“雷军”就堵车、调休等话题发表犀利言论,甚至爆粗口,引发广泛关注。然而,这一切与知名企业家雷军本人并无半点关系。
AI技术的滥用,再次引发公众对科技伦理和底线的思考。从“AI孙燕姿”翻唱歌曲到“AI郭德纲”讲英文段子,AI配音在网络世界的应用愈发普遍。然而,当技术被用于违法、悖德的边缘试探时,我们不得不警惕其潜在的风险。
据《2024人工智能安全报告》显示,仅今年上半年,AI诈骗案案值已高达1.85亿元。这些案件不仅侵犯了公民的合法权益,更混淆了大众认知,带来了巨大的社会风险。
深度伪造技术的普及,使得“一键变声”“一键变脸”成为可能。市面上大量的AI配音小程序,为用户提供了便利的同时,也为不法分子提供了可乘之机。他们凭借一段原始语音或照片,就能编造谣言、设置陷阱,实施诈骗。
面对深度伪造技术嵌入我们的数字生活,我们该如何应对?一方面,需要推动反深伪检测技术的持续更新迭代,以应对层出不穷的骗局;另一方面,加强技术监管、明确生成式人工智能服务的合法边界也刻不容缓。同时,社交平台作为传播链条的重要一环,也应负起相应的治理责任。
此次“雷军”事件虽以平台下架相关内容告终,但规范生成式人工智能技术的发展仍任重道远。我们期待在科技的推动下,社会能更加美好,而非成为乱象的温床。