AI圈暗流涌动:Llama4来了,DeepSeekR2和GPT-5也不远

Meta发布Llama 4系列,强调多模态和超长上下文窗口,部分模型将开源。OpenAI确认O3和O4-mini即将上线,GPT-5推迟发布但将免费。DeepSeek与清华发布新论文,提出SPCT方法和元奖励模型,显著提升推理扩展性能。
本周全球被关税议题占据头条,但科技界的目光却聚焦在AI领域的密集动作上。
周末,Meta深夜突袭发布Llama 4系列,号称“原生多模态+千万级上下文窗口”,并首次披露单卡H100可运行的轻量化版本。此前OpenAI则宣布O3和O4-mini模型即将在几周内上线,同时确认GPT-5因技术整合和算力部署问题推迟数月。
DeepSeek则与清华大学的研究团队本周联合发布了一篇关于推理时Scaling的新论文,提出了一种名为自我原则点评调优的学习方法,并构建了DeepSeek-GRM系列模型。结合元奖励模型实现推理时扩展,性能接近671B大模型,暗示DeepSeek R2临近。
Meta强势推出Llama 4
多模态与超长上下文成亮点
周六,Meta正式发布了Llama 4系列模型,Llama 4全系采用混合专家架构,并实现了原生多模态训练,彻底告别了Llama 3纯文本模型的时代。此次发布的模型包括:
Llama 4 Scout;
Llama 4 Maverick;
以及强大的 Llama 4 Behemoth 预览。
此次公布的Llama 4 Maverick 和 Llama 4 Scout 将是开源软件。然而,Llama 4 的新许可证对使用有一定限制,例如月活用户超 7 亿的公司需申请特殊许可,且使用时需遵守多项品牌和归属要求。
前kaggle总裁,fast AI 创始人Jeremy Howard表示,虽然感谢开源,但Llama 4 Scout 和 Maverick 都是大型 MoE 模型,即使量化后也无法在消费级 GPU 上运行,这对开源社区的可及性来说是个不小的损失
Meta强调,Llama 4 Scout 和 Llama 4 Maverick 是其“迄今为止最 先进的型号”,也是“同类产品中多模态性最 好的版本”。
Scout亮点
:速度极快,原生支持多模态,拥有业界领 先的 1000 万+ Token 多模态上下文窗口,并且能在单张 H100 GPU 上运行(Int4 量化后)
Maverick性能
:在多个主流基准测试中击败了 GPT-4o 和 Gemini 2.0 Flash,推理和编码能力与新发布的 DeepSeek v3 相当,但激活参数量不到后者一半
X网友也对Scout模型的性能感到震惊,尤其是其在单GPU上运行并支持超长上下文窗口的能力。
最令人瞩目的是Llama 4 Behemoth。目前Behemoth仍处训练中,不过Meta将其定位为“世界上最智能的 LLM 之一”。这个拥有288B激活参数和2万亿总参数量的“巨兽”,在32000块GPU上训练了30万亿多模态Token,展现了Meta在AI领域的雄厚实力。
有X网友指出了Behemoth训练的性能潜力,强调了它在阶段就已经表现出超越多个最 高 级模型的能力,例如Claude 3.7 和Gemini 2.0 Pro。
还有X网友调侃了 Meta 的“烧钱”策略,同时对 Llama 4 的参数规模表示惊讶。
此前《The Information》周五报道称,在投资者向大型科技公司施压,要求其展示投资回报的情况下,Meta 计划今年投入高达650 亿美元来扩展其 AI 基础设施。
Open AI确认O3和O4-mini即将上线
GPT-5免费策略引轰动
在Llama 4发布的同时,OpenAI首席执行官Sam Altman则在社交媒体上确认,O3和O4-mini将在未来几周内发布,而GPT-5则将在未来几个月与公众见面。
尽管没有更多关于o3和o4mini的细节内容,但是Altman表示,OpenAI在很多方面真正改进了o3模型,一定会让用户大为满意。
实际上GPT-5的功能和发布时间才是市场关注的重点。据Altman透露,GPT-5将整合语音、Canvas、搜索、Deep Research等多项功能,成为OpenAI统一模型战略的核心。
这意味着GPT-5将不再是一个单一的模型,而是一个集成了多种工具和功能的综合系统。通过这种整合,GPT-5将能够自主使用工具,判断何时需要深入思考、何时可以快速响应,从而胜任各类复杂任务。OpenAI的这一举措旨在简化内部模型和产品体系,让AI真正实现随开随用的便捷性。
更令人兴奋的是,GPT-5将对免费用户开放无限使用权限,而付费用户则能体验到更高智力水平的版本。此前,奥特曼在和硅谷知名分析师Ben Thompson的深度对谈中,表示因为DeepSeek 的影响, GPT-5将考虑让用户免费使用。
不过对于GPT-5的发布时间反复推迟,有网友做出了下面这个时间表来调侃。
DeepSeek携手清华发布新论文
DeepSeek与清华大学的研究团队本周联合发布了一篇关于推理时Scaling的新论文,提出了一种名为自我原则点评调优的学习方法,并构建了DeepSeek-GRM系列模型。这一方法通过在线强化学习(RL)动态生成评判原则和点评内容,显著提升了通用奖励建模(RM)在推理阶段的可扩展性,并引入元奖励模型(meta RM)进一步优化扩展性能。

SPCT方法的核心在于将“原则”从传统的理解过程转变为奖励生成的一部分,使模型能够根据输入问题及其回答内容动态生成高质量的原则和点评。这种方法包括两个阶段:
拒绝式微调作为冷启动阶段,帮助模型适应不同输入类型;
基于规则的在线强化学习则进一步优化生成内容,提升奖励质量和推理扩展性。
为了优化投票过程,研究团队引入了元奖励模型。该模型通过判断生成原则和评论的正确性,过滤掉低质量样本,从而提升最终输出的准确性和可靠性。
实验结果显示,DeepSeek-GRM-27B在多个RM基准测试中显著优于现有方法和模型,尤其是在推理时扩展性方面表现出色。通过增加推理计算资源,DeepSeek-GRM-27B展现了强大的性能提升潜力,证明了推理阶段扩展策略的优势。
这一成果不仅推动了通用奖励建模的发展,也为AI模型在复杂任务中的应用提供了新的技术路径,甚至可能在DeepSeek R2上能看到该成果的展示。
有海外论坛网友调侃道,DeepSeek一贯是“论文后发模型”的节奏,竞争对手Llama-4可能因此受压。
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。
热点精选
- 泰胜风能300129.SZ:公司海外业务中美2025-04-08 04:21:57
- 新北洋业绩快报:2024年归母净利润同比增长2025-04-08 01:43:59
- 上海金山与默林娱乐就乐高乐园项目展开座谈:愿2025-04-07 23:21:30
- 广西北部湾港首条滚装航线开通2025-04-07 21:02:36
- 兰州西固区2025年DeepSeek创业创新2025-04-07 18:13:20
- 碧桂园旗下8只境内债券兑付调整方案获通过涉本2025-04-07 15:29:58
- 行道树木遮挡店招“街事会”共商共治“剪除”商2025-04-07 11:49:09
- 映山红智慧检测正式上线 助力质量强国建设2025-04-07 11:10:06
- 17.49万起购二代哈弗H9,越野舒适一步到2025-04-07 10:45:04
- 2月中国车企欧洲销量猛增64%,格局分化下前2025-04-07 10:08:59
