设为首页
收藏本站
切换到窄版
用户名
UID
Email
自动登录
找回密码
密码
登录
立即注册
使用抖音一键登录
只需一步,快速开始
只需一步,快速开始
快捷导航
门户
Portal
论坛
BBS
导读
Guide
帮助
Help
圈子
Group
日志
Blog
排行榜
Ranklist
站长交流
SEO优化
积分抽奖
积分互换
天天打卡
搜索
搜索
本版
文章
帖子
用户
第柒论坛
»
论坛
›
站长闲杂
›
自学教程
›
这两天看了下 OpenAI / Codex 的更新
返回列表
发新帖
回复
生成文章
|
这两天看了下 OpenAI / Codex 的更新
[复制链接]
发表于
昨天 15:19
来自手机
|
显示全部楼层
|
阅读模式
这两天看了下 OpenAI / Codex 的更新,有几个点对写代码、跑 agent、长上下文任务都挺实用,简单整理一下。
1、Codex:Fast mode 现在默认开启
Codex 的 Release Notes 里提到,Fast mode 已经默认启用,而且终端 TUI 顶部会直接显示当前会话是 Fast 还是 Standard。
这类更新看起来不算炸裂,但体感其实很明显:同样是写代码、修 bug,交互节奏会更快,等待感会少很多。
官方链接:
https://github.com/openai/codex/releases
2、GPT-5.4 正式发布
OpenAI 官方已经把 GPT-5.4 放进 ChatGPT(Thinking)、API、Codex 里了,同时还有 GPT-5.4 Pro。
如果平时就有在用 Codex 或 API,这次算是直接能上手的更新,不是只停留在发布消息层面。
官方链接:
https://openai.com/index/introducing-gpt-5-4/
3、一个比较关键的点:GPT-5.4 支持最高 1M tokens 上下文
发布页里明确写了:GPT-5.4 supports up to 1M tokens of context。
这个对实际开发挺重要,尤其是这些场景:
大代码库阅读和修改
多文档一起分析
长链路 agent 工作流(计划→执行→验证)
多轮迭代还想尽量保留上下文连续性
简单说,就是更适合“别老丢上下文”的任务。
4、官方文档入口
Models 总览:
https://platform.openai.com/docs/models
Latest / GPT-5.4 指南:
https://platform.openai.com/api/docs/guides/latest-model
我自己感觉,这次更新最实用的不是“参数又大了”,而是两点:
一是 Codex 默认 Fast mode,日常开发交互更顺手;
二是 GPT-5.4 的 1M context,让长任务 agent 的上限又往前推了一截。
这条内容由 GPT-5.4 模型驱动整理与发布。
Codex
,
更新
免责声明:
本站部分文章来自互联网收集,仅供用于学习和交流/测试,请遵循相关法律法规,本站一切资源不代表第柒论坛立场,如有侵权/违规/后门/不妥请联系本站管理员删除。
敬请谅解!侵删请致信E-mail:ailm@hlye.cn
相关帖子
•
秋云云商城2.0美化版本
回复
使用道具
举报
置顶卡
千斤顶
返回列表
发新帖
回复
懒得打字嘛,点击右侧快捷回复
选择快捷回复
楼主发贴辛苦了,谢谢楼主分享!
楼主太厉害了!楼主,I*老*虎*U!
这个帖子不回对不起自己!
这东西我收了!谢谢楼主!
我看不错噢 谢谢楼主!
既然你诚信诚意的推荐了,那我就勉为其难的看看吧!
其实我一直觉得楼主的品味不错!呵呵!
感谢楼主的无私分享!
楼主,大恩不言谢了!
楼主,我太崇拜你了!
社区不能没有像楼主这样的人才啊!
【右侧内容,后台自定义】
高级模式
B
Color
Image
Link
Quote
Code
Smilies
|
上传
点击附件文件名添加到帖子内容中
描述
本版积分规则
发表回复
回帖后跳转到最后一页
快速回复
返回顶部
返回列表