
4月17日凌晨,OpenAI正式推出两款新一代AI模型——o3和o4-mini,并称其为“迄今为止最智能的模型”。此次发布标志着AI推理能力的重大飞跃,首次实现图像深度思考与全工具自主调用的结合,为复杂问题解决提供了全新范式。
划重点,OpenAI o3/o4 mini的亮点如下:
o系列迄今最智能的模型,推理能力大幅提升,思考时间越长,效果越好。
首次将图像直接融入思维链,用图片“思考”,能直接调用工具处理图片。
首次全面支持网页搜索、文件分析、Python代码执行、视觉输入深度推理和图像生成等功能。
成本效率上优于前代,o3在相同延迟和成本下性能更强。
核心升级:从“工具使用”到“智能决策”
多模态推理革命
o3和o4-mini首次突破传统文本推理局限,可“用图像思考”。例如,用户上传倒置的手写笔记图片时,模型能自动旋转、缩放并识别内容,将视觉信息融入思维链。在电池技术对电动汽车影响的分析案例中,o3通过多次搜索并生成图文结合的结论,而前代o1仅能输出文字和代码。
工具组合调用能力
新模型可自主判断何时调用ChatGPT的工具库,包括网页搜索、Python数据分析、图像生成等,并动态组合工具链完成任务。例如,在科研场景中,模型可先搜索最新论文,再用Python处理实验数据,最终生成可视化图表。
性能碾压前代
数学与编程:o3在AIME 2024数学竞赛中准确率达91.6%,o4-mini更达93.4%,远超o1的74.3%;Codeforces编程评分中,o3以2706分领先o1近40%。
现实任务:外部评估显示,o3在编程、商业咨询等领域的重大错误率比o1降低20%。

图片来源于IT之家
用户触达:即日开放,成本优化
企业及付费用户:ChatGPT Plus、Pro和Team用户即日可切换至o3和o4-mini,Enterprise用户一周内开放。
免费用户体验:用户可通过编辑器选择“Think”选项试用o4-mini。
API降价:o3输入/输出费用全面低于o1,o4-mini性价比进一步提升,支持更高吞吐量。
结语
尽管开发节奏紧迫,OpenAI强调已对o3/o4-mini进行“最严格安全测试”。CEO山姆·奥特曼表示,未来模型将融合o系列的推理能力与GPT系列的对话优势,实现“自然交互+主动工具调用”的无缝体验。
OpenAI此次发布不仅重新定义了AI推理的边界,更揭示了AGI发展的关键路径——多模态感知、自主工具调用与超大规模计算的结合。正如免疫学专家Derya Unutmaz的评价:“o3近乎天才水准,它正在重塑科研的协作方式。”
END