新加坡联合早报昨晚(2月10日晚)发布社论称:“在AI技术一日千里的当下,确保监

史鉴奇谈 2026-02-11 10:29:32

新加坡联合早报昨晚(2月10日晚)发布社论称:“在AI技术一日千里的当下,确保监管跟得上科技发展的步伐,和推动技术进步同样重要。Seedance 2.0的‘恐怖’效应再次表明,强大的技术若缺乏约束,可能造成的恐怖后果,不只是在视频里说说而已。”   了解情况的人都知道,Seedance 2.0是字节跳动旗下的一款AI视频生成模型,这款模型还处在内测阶段的时候,就因为它超高的拟真生成能力,在行业内外引发了广泛讨论,只是这份讨论里,更多的是担忧而非单纯的赞赏。   有影视创作者做过测试,他只是往模型里上传了几张自己的个人照片,既没有提供自己的语音样本,也没有给予模型复刻自己的授权,可系统最终生成的视频里,人物的面部特征、动作神态,甚至说话的声音,都和他本人高度趋同,这种“无授权复刻”的能力,远远超出了很多人的心理预期,也一下子就把AI技术的隐私保护问题,推到了所有人的面前。   其实Seedance 2.0暴露出来的问题还不止这一个,这款模型之所以能有这么强大的生成能力,核心就在于它背后有海量的视频素材作为训练基础,可这些训练素材的来源和授权问题,一直都是个绕不开的迷局,也成了行业内争议的焦点。   有创作者发现,自己公开发布的视频素材,很可能已经被悄悄纳入了Seedance 2.0的训练数据集,比如影视飓风团队的相关素材,就被检测出出现在了模型的训练库中。更让人揪心的是,有相关数据统计显示,训练Seedance 2.0所用的百万级视频素材里,只有32%获得了明确的授权,剩下的大部分素材,都存在潜在的侵权风险。   即便字节跳动方面宣称,对这些未授权的素材进行了“去标识化”处理,可法律界人士还是发出了警告,要是这些AI生成的视频被认定为衍生作品,那么相关的侵权诉讼随时都有可能发生,这不仅会影响到模型的正常发展,也会损害到众多创作者的合法权益。   除此之外,Seedance 2.0还存在明显的技术短板,这些短板也让它的安全风险进一步提升。   有实测数据显示,普通用户使用基础会员权限,生成一条10秒左右的短视频,大约需要花费20分钟的时间,要是遇到使用高峰期,排队等待的时间还会更长,这样的效率,根本满足不了普通用户的快速创作需求。   更关键的是,当前Seedance 2.0生成的视频,本质上就是一段固定的视频流,一旦用户觉得视频不符合预期,比如想修改一句口播、更换一个角色,唯一的办法就是“重抽”,也就是重新生成一遍,这种不确定性,也成了这款模型商业化落地的最大障碍。   而且模型在处理复杂场景的时候,还容易出现“生成幻觉”,也就是会因为对用户需求的理解偏差,生成一些不符合事实的内容,虽然字节跳动官方宣称,模型内置了数字水印,用来防止技术被滥用,可安全研究人员很快就发现,简单的裁剪操作,就能轻松规避数字水印的检测,这也意味着,深度伪造的风险,依然像一把悬在头顶的利剑,随时都有可能落下。   面对这些暴露出来的问题,字节跳动也做出了紧急回应,就在2月9日,平台通过即梦创作者社群发布了通知,宣布在内测期间,暂时不支持用户输入真人图片或视频作为主体参考,从源头上堵住了盗用他人肖像、生成虚假视频的可能。   现在无论是在即梦网页端、小云雀平台,还是在即梦App和豆包App上,用户只要尝试上传含真人脸的素材,都会收到明确的提示,无法完成上传;要是用户想生成自己的数字分身出镜,就必须录制本人的形象和声音,完成真人校验后才能操作,北京航空航天大学的教授沙磊也评价,这种主动限制,是企业在技术狂奔时,必须守住的责任底线。   新加坡联合早报的社论,其实就是借着Seedance 2.0的这些问题发声,它想告诉所有人,AI技术的发展本身是好事,它能给我们的生活、工作和创作带来很多便利,也能推动整个社会的进步,可这种发展绝对不能没有边界,更不能缺少监管。   就像社论里隐含的意思一样,现在全球AI技术的发展都在加速,类似Seedance 2.0这样的强大模型还会不断出现,要是监管工作一直滞后,跟不上技术发展的步伐,那么技术滥用的情况只会越来越多,隐私泄露、版权侵权、虚假信息传播等问题,也会变得越来越普遍。   到那个时候,AI技术原本的价值会被彻底扭曲,它不再是服务人类的工具,反而会变成危害公共利益、扰乱社会秩序的隐患,而这也正是联合早报强调“监管与发展同等重要”的核心原因,Seedance 2.0的“恐怖”效应,不过是一个提醒,它在告诉我们,技术无界,但规则必须有边,监管必须到位。

0 阅读:0
史鉴奇谈

史鉴奇谈

感谢大家的关注