AI发展卡关 业者摸索新模式

2024-11-12 03:00来源:未知

随著用来训练人工智慧(AI)的大型语言模型(LLM)进步速度变慢,OpenAI和其他AI业者正透过开发新的训练方法,寻求克服AI模型发展瓶颈的方式,这可能重塑AI硬体的竞争版图。

路透报导,ChatGPT问世后,科技业者不断对外宣称,透过更多数据和算力来「扩大」现有模型,定能持续改善模型。如今一些最杰出的AI科学家却说,这个「大就是好」的观点有其限制。

LLM每一轮的训练都可能耗费数百万美元,也较容易出现由硬体造成的故障,且研究人员要在可能长达数个月的训练期结束后,才知道模型的最终效能。

另外,LLM需要大量数据,而目前的AI模型已用尽世上所有容易取得的数据。再者,训练模型需要大量能源,各地电力短缺的情况,也使训练受阻。

为克服这些困难,研究人员正探索一个能在推论阶段,提升现有AI模型的方法,称为「测试时运算」(test-time compute)。此方法让AI模型能将更多力气用在特定的困难任务上。

OpenAI已在其最新发表的模型「o1」中使用此方法。o1能用类似人类推理的方式,多步骤「思考」问题。知情人士表示,其他AI业者如Anthropic、xAI和Google DeepMind,也都开始发展这种方法的自家版本。

最新内容




《TNT新闻网》带您走进信息爆炸的时代!投稿邮箱:[email protected] 广告投放:[email protected]

Copyright © 2012-2024 TNT新闻网 版权所有

技术支持:TNT新闻网