作者介绍:窦德景教授,复旦大学计算机学院特聘教授、清华大学电子工程系兼职教授、国家级人才计划入选者
Q:有学者指出高质量语料库将在 2027 年面临枯竭。对于 AI 技术和产业应用领域的不同企业而言,如何应对数据危机?合成数据训练或联邦学习是否会成为下一代技术底座?
窦德景:如果数据都是合成的,隐私问题自然就不存在了。不过,就合成数据本身而言,目前大家都在使用 AI 生成合成数据来训练 AI 模型,这已经成为一种常见的做法。
我的预期是,在未来的某个阶段,我们可能不再需要依赖大量的真实训练数据。这让我联想到 AlphaGo 和 AlphaGo Zero 的区别。AlphaGo 使用了 100 万盘人类高手的棋局作为训练数据,而 AlphaGo Zero 则完全摒弃了人类棋局,仅基于围棋的基本规则,通过两个程序互相训练,就像金庸小说里面的左右互搏,最终成为绝世围棋高手。
未来,AI 训练可能会进入类似的阶段。当 AI 对物理世界的理解达到 一定水平后,我们或许不再需要采集任何真实数据,而是可以直接根据物理世界的原理或规则生成所需的训练数据。当然,这可能在一两年内还难以实现。目前,所有真实数据加在一起,可能也只能 训练出 5 万亿参数的模型。但如果 GPT-5 达到 10 万亿参数,按我的推测,那肯定已经用了很多合成数据。
最终,数据的使用量可能会越来越少。DeepSeek 已经表明,强化学习是一个非常强大的工具。未来,结合强化学习和对物理世界规律的理解,或许可以解决数据需求的问题。当然,这可能意味着人类的作用会进一步减弱,因为过去人类还可以通过产生真实数据来参与和帮助 AI 训练,而未来甚至连真实数据都不再需要了。这听起来可能有点悲观,但这种可能性确实存在。
精选留言
2025-07-14 16:22:39
2025-07-19 22:06:34
比如AI推测出一种药物组合可以治疗癌症,给了各种理论,这个领域是没有模拟器的,只能去实际造出来,然后做各种动物实验,人体实验等等。 这个范围和领域会不断拓展,不过现在这种大模型,还是基于概率,是否能在不断喂数据喂知识的模式下达到瓶颈。