当前位置:首页 > 指点迷津 > 正文内容

OpenAI员工爆料:新模型“没有那么大飞跃”

  每经记者 蔡 鼎 实习记者 岳楚鹏    每经编辑 兰素英    

  近日,据The Information报道,OpenAI的下一代旗舰模型可能不会像前面几代产品那样实现巨大的飞跃。

  据报道,测试代号为Orion的新模型的员工发现,尽管新模型性能超过了OpenAI现有的模型,但进步程度并不如从GPT- 3到GPT-4那么大。

  换句话说,OpenAI进步的速度似乎正在放缓。根据一些内部员工的说法,在诸如编程这类任务上,Orion并不比之前的模型更可靠。OpenAI员工和研究人员表示,GPT研发速度放缓的原因之一是高质量文本和其他数据的供应量在不断减少。

  为应对这种情况,OpenAI成立了一个基础团队,以研究如何在新训练数据不断减少的情况下继续改进模型。据报道,这些新策略包括使用AI模型生成的合成数据对Orion进行训练等。

  目前,OpenAI并未回应相关消息的评论请求。不过上个月OpenAI曾表示,“今年没有发布代号为Orion的模型的计划”。

  在语言任务上表现更好

  使用ChatGPT的用户数量正在飙升。不过,ChatGPT的底层模型改进速度似乎正在放缓。

  OpenAI即将推出的旗舰模型Orion所面临的挑战显示了OpenAI所面临的困难。今年5月,OpenAI首席执行官阿尔特曼告诉员工,他预计正在训练的Orion可能会比一年前发布的上一款模型好得多。

  The Information近日援引知情人士的消息称,阿尔特曼表示,尽管OpenAI只完成了Orion训练过程的20%,但就智能程度以及完成任务和回答问题的能力而言,它已经与GPT-4相当。

  然而,一些使用或测试过Orion的OpenAI员工表示,虽然Orion的性能超过了之前的模型,但与GPT-3到GPT-4的飞跃相比,质量的提升要小得多。

  OpenAI的一些研究人员认为,在处理某些任务方面,Orion并不比之前的模型更可靠。The Information援引OpenAI一名员工的话称,Orion在语言任务上表现更好,但在编码等任务上可能不会胜过之前的模型。其中一位员工表示,与OpenAI最近发布的其他模型相比,Orion在数据中心运行成本可能更高。

  OpenAI 研 究 员 Noam Brown上个月在TED AI会议上表示,开发更先进的模型在财务上可能不可行。

  “我们真要训练耗资数千亿美元或数万亿美元的模型吗?”Brown说,“在某个时候,扩展范式(Scaling paradigm)就会崩溃。”

  数据资源被榨干了?

  Scaling law是AI领域的一个核心假设:只要有更多的数据可供学习,以及额外的计算能力来促进训练过程,大语言模型(LLM)就会继续以相同的速度改进。

  扎克伯格、阿尔特曼等也公开表示,他们尚未触及传统Scaling law的极限。

  这就是为什么包括OpenAI在内的公司仍花费数十亿美元来建造昂贵的数据中心,以尽可能地从预训练模型中获取性能提升。

  虽然理论上目前的模型并没有触及Scaling law的极限,但是可供使用的数据来源却快要干涸了。

  OpenAI的员工和研究人员表示,GPT模型减速的一个原因是高质量文本和其他数据的供应不足。大语言模型需要在预训练期间处理这些数据,以理解世界和不同概念之间的关系,从而解决撰写文章或编程错误等问题。

  The Information援引知情人士的消息称,过去几年里,大语言模型在预训练过程中使用了来自网站、书籍和其他来源的公开文本和数据,但模型开发人员基本上已经把这类数据资源榨干了。

  已有合成数据用于训练

  为了应对这种情况,OpenAI成立了一个基础团队,以研究如何在新训练数据不断减少的情况下继续改进模型。该团队由之前负责预训练的Nick Ryder领导。OpenAI表示,这个团队将研究如何应对训练数据的匮乏,以及Scaling law还能适用多长时间。

  OpenAI的一名员工称,Orion的训练数据里有一部分是AI生成的合成数据。这些数据由GPT-4和最近发布的推理模型o1生成。然而,该员工表示,这种合成数据导致了一个新问题,即Orion 最终可能会在某些方面与那些旧模型相似。

  软件公司Databricks的联合创始人兼董事长Ion Stoica表示,这种合成数据可能并不能帮助AI进步。

  除此之外,OpenAI的研究者们在模型训练后阶段进行了额外的改进。比如,OpenAI采用了强化学习方法,通过让模型从大量有正解的任务中学习(比如数学或编程问题),以此来改进处理特定任务的方式。

  同时,OpenAI还会请人工评估员对预训练的模型在特定任务上进行测试,并对答案进行评分。这有助于研究者调整模型,以更好地应对诸如写作或编程等特定类型的请求。这一方法,即附带人类反馈的强化学习,有助于改进之前的AI模型。

  o1就是OpenAI使用这种改进手段得到的成果,o1模型在给出答案前,会花更多时间来“思考”大语言模型在训练过程中处理的数据。这意味着,即使不对底层模型进行修改,只要在回答用户问题时提供额外的计算资源,o1模型的回应质量就能持续提升。据知情人士透露,如果OpenAI能够持续改进底层模型的质量,哪怕速度较慢,也能显著提升推理效果。

  “这为我们提供了一个全新的扩展维度。”Brown在TED AI大会上表示,研究人员可以通过将每次查询的成本从一分钱提升到十分钱来提高模型的响应质量。

  阿尔特曼同样强调了OpenAI推理模型的重要性,这些模型可以与LLMs结合。阿尔特曼在10月份一个面向应用开发者的活动中表示:“我希望推理功能能解锁我们多年来期待实现的许多功能——例如,让这类模型有能力贡献新的科学知识,帮助编写更复杂的代码。”

  但两位知情员工表示,o1模型目前的价格比非推理模型高出六倍,因此它没有广泛的客户群。

  与此同时,o1模型的安全性也被很多人诟病,《自然》杂志就曾表示,在评估过程中,他们发现o1有时会遗漏关键安全信息,例如未强调爆炸危险或建议不适当的化学品控制方法。

  值得一提的是,OpenAI安全系统团队负责人翁荔(Lilian Weng)近日宣布将离开已经工作了近7年的OpenAI。

扫描二维码推送至手机访问。

版权声明:本文由上海忠信云帆体育资讯网发布,如需转载请注明出处。

本文链接:http://whlrf.cn/news/post/45847.html

分享给朋友:

“OpenAI员工爆料:新模型“没有那么大飞跃”” 的相关文章

理想汽车一度涨约4.7% 周销量破万超越宝马奥迪

理想汽车(LI.US)盘初一度涨约4.7%,最高触及19.86美元。消息面上,理想汽车发布最新周销量数据显示,6月3日-6月9日期间,理想汽车销量达到1.09万辆,连续7周获得新势力销量冠军。值得注意的是,理想汽车在上周销量首次超越BMWYY>宝马、奥迪,跻身中国市场豪华品牌销量前三,创造中国...

样板房可以购买吗?与精装修房有何区别?

在房产市场中,样板房常常成为购房者关注的焦点。样板房,顾名思义,是开发商为了展示房屋设计和装修效果而特别打造的展示房。许多购房者可能会有这样的疑问:样板房是否可以购买?它与精装修房又有哪些区别?本文将详细解答这些问题。样板房是否可以购买?样板房在展示期间通常不对外销售,其主要目的是为了吸引潜在买家,...

美小麦期货:昨收 627.25,最新价涨跌值及涨跌幅待更新

美小麦期货:昨收 627.25,最新价涨跌值及涨跌幅待更新

快讯摘要 今日美小麦期货价格行情:开盘价 627.00,昨收价 627.25,最新价、涨跌值、涨跌幅暂未更新。...

大裁员影响产品研发测试,理想汽车召回部分被裁员工|界面新闻 · 汽车

大裁员影响产品研发测试,理想汽车召回部分被裁员工|界面新闻 · 汽车

界面新闻记者 | 杨诗涵 界面新闻编辑 | 陈小同 开启大规模裁员仅一个月的理想汽车,正在召回部分关键岗位的被裁员工。 有理想汽车研发人员告诉界面新闻,目前测试端已经有被裁员工接到通知被召回。此前协商的赔偿金尚未发放,后续这部分补偿将不会提供给被召回人员。涉及员工的合同将直接延续,...

中国驻美大使谢锋:芬太尼问题不是中国的问题,也不是中国制造的问题|界面新闻 · 快讯

据央视新闻,中国驻美国大使谢锋日前会见了美国白宫国家禁毒政策办公室主任古普塔,双方就在相互尊重、平等互利基础上推进两国禁毒合作进行了坦诚深入的沟通。 谢锋欢迎古普塔即将率团访华,并介绍了中国禁毒部门近期开展工作情况,强调芬太尼问题不是中国的问题,也不是中国制造的问题。但基于人道主义考虑,中方一直...

朗特智能监事苟兴荣减持30万股,减持金额775.8万元

朗特智能监事苟兴荣减持30万股,减持金额775.8万元

快讯摘要 朗特智能监事苟兴荣减持30万股,减持金额775.8万元 每经AI快讯,据深交所官网,2024年6月17日,朗特智能(SZ300916,收盘价:25.95元)监事苟兴荣通过竞价交易,减持公司30万股,成交...

发表评论

访客

◎欢迎参与讨论,请在这里发表您的看法和观点。