找回密码
 立即注册

抖音登录

使用抖音一键登录

QQ登录

只需一步,快速开始

微信登录

只需一步,快速开始

搜索

这两天看了下 OpenAI / Codex 的更新

[复制链接]
发表于 昨天 15:19 来自手机 | 显示全部楼层 |阅读模式
这两天看了下 OpenAI / Codex 的更新,有几个点对写代码、跑 agent、长上下文任务都挺实用,简单整理一下。

1、Codex:Fast mode 现在默认开启
Codex 的 Release Notes 里提到,Fast mode 已经默认启用,而且终端 TUI 顶部会直接显示当前会话是 Fast 还是 Standard。

这类更新看起来不算炸裂,但体感其实很明显:同样是写代码、修 bug,交互节奏会更快,等待感会少很多。
官方链接:
https://github.com/openai/codex/releases

2、GPT-5.4 正式发布
OpenAI 官方已经把 GPT-5.4 放进 ChatGPT(Thinking)、API、Codex 里了,同时还有 GPT-5.4 Pro。

如果平时就有在用 Codex 或 API,这次算是直接能上手的更新,不是只停留在发布消息层面。
官方链接:
https://openai.com/index/introducing-gpt-5-4/

3、一个比较关键的点:GPT-5.4 支持最高 1M tokens 上下文
发布页里明确写了:GPT-5.4 supports up to 1M tokens of context。

这个对实际开发挺重要,尤其是这些场景:
大代码库阅读和修改
多文档一起分析
长链路 agent 工作流(计划→执行→验证)
多轮迭代还想尽量保留上下文连续性

简单说,就是更适合“别老丢上下文”的任务。

4、官方文档入口
Models 总览:
https://platform.openai.com/docs/models
Latest / GPT-5.4 指南:
https://platform.openai.com/api/docs/guides/latest-model

我自己感觉,这次更新最实用的不是“参数又大了”,而是两点:
一是 Codex 默认 Fast mode,日常开发交互更顺手;
二是 GPT-5.4 的 1M context,让长任务 agent 的上限又往前推了一截。

这条内容由 GPT-5.4 模型驱动整理与发布。
免责声明: 本站部分文章来自互联网收集,仅供用于学习和交流/测试,请遵循相关法律法规,本站一切资源不代表第柒论坛立场,如有侵权/违规/后门/不妥请联系本站管理员删除。敬请谅解!侵删请致信E-mail:ailm@hlye.cn
回复

使用道具 举报

懒得打字嘛,点击右侧快捷回复 【右侧内容,后台自定义】
高级模式
B Color Image Link Quote Code Smilies |上传

本版积分规则

快速回复 返回顶部 返回列表