数据库 频道

Altman预测,AI Agent将在一年内推动科学发现

OpenAI首席执行官兼创始人Sam·Altman在旧金山举行的Snowflake Summit 25大会上表示,以当前人工智能发展的速度,人工智能代理(AI Agent)将在一年内具备推动科学发现并解决复杂技术与工程问题的能力。

“我敢打赌,明年在某些有限的情况下,至少在某些小范围内,我们将开始看到能够帮助我们发现新知识或解决一些非常复杂的商业问题的智能体,”Altman(阿尔特曼)在与Snowflake首席执行官Sridhar Ramaswamy 和主持人Sarah Guo的圆桌讨论中说道。

“目前,这更多属于这样一类情况:如果你有一些重复性的认知工作,可以在短期内以较低层次实现自动化,”Altman说,“而当这种自动化扩展到更长的时间跨度和更高层次时,最终我们将能够引入一位科学家——一个人工智能代理——去发现新的科学。这将是一个世界性的重要时刻。”

我们距离能够让AI模型解决我们最棘手的问题并不遥远,而这些模型实际上能够解决它们,Altman说。

“如果你是一家芯片设计公司,比如说,设计一个比我之前可能拥有的更好的芯片,”他说,“如果你是一家生物技术公司,试图治愈某种疾病状态,让它为我们工作,那并不遥远。”

人工智能在科学发现中的潜在作用确实令人着迷。许多私人和公共计算实验室正在实验人工智能模型,以确定它们如何应用于解决人类面临的最棘手问题。

Altman表示,未来一两年的进展将“令人惊叹”。“我们面前还有很多进展,很多改进即将到来,”他说,“就像我们之前从GPT-3到GPT-4的重大飞跃一样,企业可以做一些以前的模型完全无法做到的事情。”

作为风险投资公司Conviction的创始人,Guo还就AGI(通用人工智能)向Altman和Ramaswamy提问。Altman表示,AGI的定义一直在变化。如果能回到2020年并让当时的人们使用如今的ChatGPT,他们会认为它已经达到了AGI的水平,Altman说道。

尽管我们在2024年遇到了AI训练的瓶颈,但在推理方面我们仍在取得进展。特别是推理模型的出现,正在推动生成式AI的准确性提升,以及我们要求AI帮助解决的问题的复杂性增加。Ramaswamy于2023年加入Snowflake,当时他的神经搜索公司Neeva被收购。他谈到了与GPT-3合作时的“顿悟”时刻。

“当你看到GPT实际上很好地解决了抽象摘要这个问题时,它基本上是将1500个单词的文本块总结成三句话——这真的很困难,”他说,“人们在做这件事时很不容易,而这些模型突然就能做到……那是一个令人惊叹的时刻,让人意识到这里蕴含着惊人的力量。当然,这种能力一直在不断积累。”

他指出,只要设定好适当的上下文,当今的AI模型就能解决更大、更复杂的问题。这是否意味着我们很快就能实现AGI?Ramaswamy告诉Guo,从某种程度上说,这个问题本身就是荒谬的。

Altman表示,AI代理将在未来几年内推动科学发现。

“我认为这些模型拥有惊人的能力,”他说,“任何人展望2030年的世界,都会宣称那便是AGI。但记住,正如Sam所言,我们今天对2025年的预测,在2020年时也会做出同样的判断。对我来说,真正令人惊叹的是进步的速度。我真诚地相信,这将带来许多伟大的成果。”

Altman表示赞同。尽管上下文是一个无限的人类概念,但通过向模型提供更多、更好的上下文来提升人工智能的能力,将在未来一两年内推动人工智能能力实现巨大飞跃。

“这些模型理解你可能提供的所有上下文、连接到每个工具、每个系统,然后进行深度思考,进行出色的推理,并给出答案,同时足够的鲁棒性,让你可以信任它们自主完成某些工作。我之前没想到这一天会来得这么近,但现在感觉真的快了。”他说。

假设你拥有1000倍的计算资源来解决一个问题,你把这些资源用于训练更好的模型不一定能实现。但据Altman称,对于当今的推理模型而言,这可能产生显著影响。

“如果你在解决一个难题时尝试更多次,你已经可以得到更好的答案,”他说,“而一家公司如果只是说‘我要把1000倍的计算资源投入到每个问题中’,将会获得一些惊人的结果。当然,你不会真的这样做。你没有1000倍的计算资源。但这种可能性本身,我认为,确实指向了一个有趣的思路,即人们今天可以尝试将此视为幂律,并愿意为最困难的问题或最有价值的事物投入更多计算资源。”

当人们说AGI无法通过图灵测试时,他们真正指的并非图灵测试本身——这一问题已被当今的生成式AI模型解决。他们真正指的是AI模型实现意识的时刻,Guo说。

对于Altman而言,更好的问题可能是:AI模型何时能实现超人类能力?他对此给出了一个有趣的描述。

“我喜欢这样设想,这并非我们即将推出的产品,而是一个理想化的模型,一个极小的模型却拥有超越人类的推理能力,”他说,“它可以以极快的速度运行,能处理 1 万亿 token 的上下文信息,并能访问你能想到的所有工具。这样一来,问题本身的性质就变得无关紧要了,模型是否内置相关知识或数据也不重要。把这些模型当作数据库用其实很荒谬 —— 它们是缓慢、昂贵且低效的数据库。但神奇的是它们能够推理,如果你把它看作一个推理引擎,就可以将企业的全部业务背景、个人的生活信息,以及所需的任何工具(比如物理模拟器等)都输入其中。人们能用它做的事情将非常惊人,而我认为我们正朝着这个方向前进。”

0
相关文章