Q1|数据底座:如何应对可能的语料库枯竭?

作者介绍:窦德景教授,复旦大学计算机学院特聘教授、清华大学电子工程系兼职教授、国家级人才计划入选者

Q:有学者指出高质量语料库将在 2027 年面临枯竭。对于 AI 技术和产业应用领域的不同企业而言,如何应对数据危机?合成数据训练或联邦学习是否会成为下一代技术底座?

窦德景:如果数据都是合成的,隐私问题自然就不存在了。不过,就合成数据本身而言,目前大家都在使用 AI 生成合成数据来训练 AI 模型,这已经成为一种常见的做法。

我的预期是,在未来的某个阶段,我们可能不再需要依赖大量的真实训练数据。这让我联想到 AlphaGo 和 AlphaGo Zero 的区别。AlphaGo 使用了 100 万盘人类高手的棋局作为训练数据,而 AlphaGo Zero 则完全摒弃了人类棋局,仅基于围棋的基本规则,通过两个程序互相训练,就像金庸小说里面的左右互搏,最终成为绝世围棋高手。

未来,AI 训练可能会进入类似的阶段。当 AI 对物理世界的理解达到 一定水平后,我们或许不再需要采集任何真实数据,而是可以直接根据物理世界的原理或规则生成所需的训练数据。当然,这可能在一两年内还难以实现。目前,所有真实数据加在一起,可能也只能 训练出 5 万亿参数的模型。但如果 GPT-5 达到 10 万亿参数,按我的推测,那肯定已经用了很多合成数据。

最终,数据的使用量可能会越来越少。DeepSeek 已经表明,强化学习是一个非常强大的工具。未来,结合强化学习和对物理世界规律的理解,或许可以解决数据需求的问题。当然,这可能意味着人类的作用会进一步减弱,因为过去人类还可以通过产生真实数据来参与和帮助 AI 训练,而未来甚至连真实数据都不再需要了。这听起来可能有点悲观,但这种可能性确实存在。

精选留言

  • Geek_1ed796

    2025-07-14 16:22:39

    AlphaGo Zero在游戏这种虚拟环境中可以基于规则模拟生成和真实世界分布相同的数据,但在很多需要大量人工进行模拟或操作才能产生真实数据的领域,是否有相关技术解决?
  • xdcrazyboy

    2025-07-19 22:06:34

    难点还是 如何让AI对物理(现实)世界规律的理解更准确更广泛。 这个做不好,那产生的数据就可能是脏数据,幻觉不断循环,问题就更大了。更多的时候是只对部分规律有了认知,一知半解情况下,还是需要去实践获取反馈。 但是那需要让AI去感知物理世界,影响物理世界。

    比如AI推测出一种药物组合可以治疗癌症,给了各种理论,这个领域是没有模拟器的,只能去实际造出来,然后做各种动物实验,人体实验等等。 这个范围和领域会不断拓展,不过现在这种大模型,还是基于概率,是否能在不断喂数据喂知识的模式下达到瓶颈。