AI 生成内容的隐患:当 AI 只学习 AI,网络将充斥无意义的内容
这些科学家在 5 月份发表了一篇论文,试图探究当 AI 互相训练时会发生什么。他们发现,在这种情况下,AI 输出的内容会逐渐变得荒谬可笑。例如,一篇关于中世纪建筑的文章,在经过九代 AI 训练后,变成了一篇关于各种颜色兔子的胡言乱语内容。
这种现象被称为“模型崩溃”。目前,大多数 AI 语言模型(如 ChatGPT 和 OpenAI)都是基于从互联网上获取的大量数据进行训练的,而这些数据大部分是由人类生成的。但是,随着 AI 生成内容的增加,未来的 AI 训练将不可避免地受到这些内容的影响。这意味着错误和无意义的信息会不断累积,后来的 AI 无法区分事实和虚构内容,开始误信自己的错误观念。
剑桥大学的罗斯・安德森教授是论文的作者之一,他在博客中将这种现象比作污染,写道:“就像我们用塑料垃圾污染了海洋,用二氧化碳污染了大气层,我们也即将用胡言乱语污染互联网。”
事实上,AI 生成内容已经在网络上广泛传播。 注意到,今年 5 月,一个名为 NewsGuard 的网络虚假信息监测机构警告说,他们发现了 49 个完全由 AI 编写的新闻网站。此外,市场营销和公关机构也越来越多地将他们的文案交给聊天机器人来完成,导致人类作家失去工作机会。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。