OpenAI推出新一代AI模型GPT-4o-openai官网进入

据外媒报道,在今日凌晨1点开始的春季更新中,OpenAI宣布了他们新一代的旗舰模型GPT-4o,可以利用语音、视频和文本信息进行实时推理。

从OpenAI在官网上公布的信息来看,GPT-4o中的“o”源自“omni”,也就是全面、全能的意思,朝着更自然的人机交互又迈出了关键一步。而GPT-4o也的确如名字中“omni”的全能一样,是一款能力更全面的大语言模型,打通了文本、音频和图像,接受任何文本、音频和视频的组合输入,并生成文本、音频和视频的组合输出。

OpenAI在官网上披露,GPT-4o在英文文本和代码中的表现与GPT-4 Turbo相当,但在非英文文本上的能力大幅提升,在视频和音频的理解上,GPT-4o要明显强于当前的其他模型。

在官网上,OpenAI提到,在GPT-4o之前,通过语音模式同ChatGPT对话时,有较长时间的延迟,GPT-3.5平均为2.8秒,GPT-4平均为5.4秒。而由三个独立模式组成的语音模式,也丢失了大量信息,无法直接识别音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。

但在GPT-4o中,OpenAI训练一个跨文本、音频和视频的端到端新模型,所有的输入和输出都是由同一神经网络处理,GPT-4o也是他们首个整合了个文本、音频和视频模式的模型,能力更全面的GPT-4o,响应速度也更快,最快232毫秒响应音频输入,平均响应时间为320毫秒,与人类在对话中的响应速度相当。

除了更强、更全面的能力,OpenAI也在推动GPT-4o更广泛的应用。GPT-4o的文本和图片功能自推出之日起就向ChatGPT推送,ChatGPT用户可免费使用,ChatGPT Plus用户的数据量上限将是免费用户的5倍,新版本的音频模式将在未来几周向ChatGPT Plus用户推送。

免责声明:

1、本号不对发布的任何信息的可用性、准确性、时效性、有效性或完整性作出声明或保证,并在此声明不承担信息可能产生的任何责任、任何后果。

2、 本号非商业、非营利性,转载的内容并不代表赞同其观点和对其真实性负责,也无意构成任何其他引导。本号不对转载或发布的任何信息存在的不准确或错误,负任何直接或间接责任。

3、本号部分资料、素材、文字、图片等来源于互联网,所有转载都已经注明来源出处。如果您发现有侵犯您的知识产权以及个人合法权益的作品,请与我们取得联系,我们会及时修改或删除。

OpenAI推出新一代AI模型GPT-4o-openai官网进入返回搜狐,查看更多

责任编辑:

免责声明:文章内容来自互联网,版权归原作者所有,本站仅提供信息存储空间服务,真实性请自行鉴别,本站不承担任何责任,如有侵权等情况,请与本站联系删除。
转载请注明出处:OpenAI推出新一代AI模型GPT-4o-openai官网进入 https://www.7ca.cn/zsbk/zt/33131.html

OpenAI推出新模型-openmodaldialog
上一篇 2024年6月28日 18:18:00
总房价2.4亿元佣金9700万元,浙江一房企遭小股东举报涉嫌偷逃税-浙江房企销售额
下一篇 2024年6月28日 18:26:48

联系我们

在线咨询: QQ交谈

邮件:362039258#qq.com(把#换成@)

工作时间:周一至周五,10:30-16:30,节假日休息。