2025-06-04 10:47:29 | 来源: AICG工具箱
6月15日报道 | 随着AI生成内容的广泛应用,一个令人担忧的问题开始浮现:当AI生成的内容在互联网上不断增加,并且用于训练模型时,会发生什么?
最近来自英国和加拿大的研究人员对这个问题进行了深入研究,并在开放获取期刊arXiv上发表了一篇相关论文。他们的研究发现令人忧虑,即使用模型生成的数据进行训练会导致生成的模型出现不可逆转的缺陷,被称为"模型崩溃"。
研究人员主要研究了文本到文本和图像到图像的AI生成模型的概率分布。他们得出结论称,从其他模型生成的数据中进行学习会导致模型崩溃,这是一个逐渐退化的过程,随着时间的推移,模型会逐渐忘记真正的底层数据分布。即使在理想的长期学习条件下,这个过程也是不可避免的。
当AI训练模型接触到更多AI生成的数据时,模型的性能会逐渐下降。它会在生成的响应和内容中产生更多错误,并且响应的非错误多样性也会减少。
AI生成数据的"污染"导致模型对现实的感知产生了扭曲。即使研究人员尝试训练模型不要生成过多重复的响应,他们发现模型崩溃仍然会发生,因为模型会编造错误的响应以避免频繁重复数据。
幸运的是,即使在现有的转换器和LLM(语言模型)的情况下,有一些方法可以避免模型崩溃。研究人员强调了两种具体的方法。
首先是保留原始的完全或名义上由人工生成的数据集的副本,并且不要与AI生成的数据混淆。然后,可以定期重新训练模型或从头开始使用完全新的数据集来刷新模型。
第二种方法是将新的、干净的、由人类生成的数据重新引入到训练中,以避免响应质量下降并减少模型中不需要的错误或重复。
然而,研究人员指出,这需要内容制作者或人工智能公司采用一种大规模标签机制或努力来区分人工智能生成的内容和人类生成的内容。
总之,这些研究发现对于人工智能领域具有重要意义,强调了需要改进方法以保持生成模型的完整性随着时间的推移。它们也提醒我们注意未经检查的生成过程的风险,并可能指导未来的研究以制定防止或管理模型崩溃的策略。
热门榜单
快影
常用AI小冰岛
常用AI通义万相
常用AIDALL·E 3
常用AIPika AI
常用AI猫箱
常用AIWink Studio
常用AI讯飞同传
常用AI夸克扫描王
常用AI热门资讯
TensorRT插件安装_TensorRT插件怎么提升SD生图速度_stable diffusion插件
05-08神州问学深入大模型微调技术研究,小参数的模型在特定任务场景中表现超越大模型
01-31DeepL推出新一代翻译编辑大模型:翻译质量超越竞争对手谷歌微软ChatGPT
02-13落地发绿卡?微软加速AI团队撤出中国,加码布局投资东南亚市场
03-27微软Build 2024发布Copilot多项服务升级丨通义主力大模型API定价暴降97%丨文心大模型两大主力模型API免费
03-27vivo发布行业首个视障人士辅助多模态大模型,AI智能识别物体,为视障人士开启智能“电子眼睛”
03-28三星新一代旗舰手机Galaxy S24遭到沃尔玛「意外」提前上架:主打AI翻译功能,搭载高通骁龙8 Gen 3处理器
05-03开源版Gemini诞生_全能多模态模型Emu2登热榜_最新Emu2
05-03「微信AI」功能终于要来了:腾讯官宣2024微信公开课PRO定于1月11日开讲,还携手OPPO战略合作
05-03当闭环王者进入开源世界:苹果发布开源多模态大模型Ferret,可用于精准识别与定位图像里边的物体
05-04