hai-er LV
发表于 2025-4-8 11:03:45
终于发布啦,这回连名字都改了,不是大家想象中的gpt5,而是GPT-4的迭代版本,GPT-4o。在未来几周内,用户将会陆续自动更新到GPT-4o。
ChatGPT 不光能说,能听,还能看,这已经不是什么新鲜事了,但「船新版本」的 ChatGPT 还是惊艳到我了。
给大家普及一下
GPT-4o,这个o就是"Omni"
Omni是拉丁语词根,意为 "全体"、"所有" 或 "全面的"。在英语中,"omni" 常被用作前缀,表示 "所有的" 或 "全体的"。
例如:
"omniscient" 意味着 "无所不知的",
"omnipotent" 意味着 "全能的",
"omnipresent" 意味着 "无所不在的"。
究竟有哪些亮点
门槛也太低了吧
这回的新一代旗舰模型,使用门槛降到了更低的程度,人人都可使用ai,这回失业的人更多了
1、速度也太快了吧
不仅比上一代速度快两倍,能实现无延迟实时对话,而且用户不用注册,功能全部免费
2、带来了新的承载产品,——桌面版本
再也不用在网页间互相切换了,新的桌面版GPT可以融入任何工作流,随时和用户用图像文字语音进行交流
虽然还没用上,但可以想像这种工作体验有多快乐。
3、新的 GPT-4o 模型:打通任何文本、音频和图像的输入,相互之间可以直接生成,无需中间转换
4、GPT-4o 语音延迟大幅降低,能在 232 毫秒内回应音频输入,平均为 320 毫秒,这与对话中人类的响应时间相似。
5、GPT-4o 向所有用户免费开放
6、GPT-4o API,比 GPT 4-Turbo 快 2 倍,价格便宜 50%,这个是真香
7、惊艳的实时语音助手演示:对话更像人、能实时翻译,识别表情,可以通过摄像头识别画面写代码分析图表
8、ChatGPT 新 UI,方面的不要不要滴
chaGpt-4o到底能干啥?
4.0有的功能它都有,没有的功能它照样有
1、比如又或者,在发布会现场,让其演示如何给线性方程 3X+1=4 的求解提供帮助,它能够一步步贴心地引导并给出正确答案。
同时模型可以听懂你的情绪、甚至人的喘息呼吸,而且模型自己的情绪,几乎无敌,跟真人一模一样。
视频对话
你可以像朋友一样的对待
4o可以直接视频对话,模型可以看到你所有的表情和情绪变化,知道你是悲伤、高兴还是愤怒!
3、在文本、代码、能力方面,则和GPT-4不分伯仲,甚至部分略微领先。
文本部分:
音频能力:
多语言的考试能力:
4、GPT-4o API:更快、更便宜、更强
最后但并非最不重要的,是GPT-4o的API。它比4-turbo快两倍,价格减半,访问限制增加五倍。输入和输出的成本也大幅降低,为您提供更高效的服务。
- 输入:$5.00 / 1M tokens
- 输出:$15.00 / 1M tokens
与4-turbo相比,性价比简直爆表!
- 4-turbo 输入:$10.00 / 1M tokens
- 4-turbo 输出:$30.00 / 1M tokens
而且,GPT-4o API的能力远不止于此,它甚至能够生成3D GIF!查看3D GIF示例
有人说gpt4O这么强大,我们是不是或者还不如机器?对于我们普通人而言,追随AI浪潮是必然趋势!只要你稍微懂点编程基础,就可以集成该模型来学习正好,知乎知学堂开设的「大模型与人工智能课程」,0元去学习,帮助大家梳理大模型的原理,使用,集成,环境的搭建,手把手带你打造自己的AI模型。另外还有免费的AI大模型资料包,供你学习。点击下面的卡片就可以免费领,大佬能在线答疑,趁着现在还免费,建议IT人都去看看↓↓↓
对于GPT-4o目前我们可以体验的功
体验 GPT-4 级别的智能
从模型和网络获取响应
分析数据并创建图表
聊一聊你拍的照片
上传文件以获取摘要、写作或分析帮助
使用 GPTs 和 GPT Store
现在,进入ChatGPT页面,Plus用户可以抢先体验「最新、最先进的模型」GPT-4o。
通过 Memory 构建更加有帮助的体验
从今天之后,人机交互彻底进入新的时代!
因此,它被人称作ChatGPT 版「贾维斯」,人人都有! |
|