行情分析
当前位置:主页 > 行情分析 >

OpenAI发布全新GPT-4o:一体化文本、视觉和语音的智能模型,颠覆人机交互体验

日期:2024-05-14阅读:260

周一,OpenAI发布了一款名为GPT-4o的新旗舰生成式人工智能模型,并计划在未来几周内逐步在其各种产品中推出。OpenAI的首席技术官Muri Murati介绍说,GPT-4o在保持GPT-4级别的智能的同时,对文本、视觉和音频功能进行了改进,所有用户均可免费使用,而付费用户的容量限制是免费用户的五倍。

Murati在OpenAI办公室的一次主题演讲中提到,GPT-4o跨越了语音、文本和视觉的多个领域。OpenAI将推出桌面版ChatGPT及全新用户界面。GPT-4是OpenAI之前的领先模型,它集成了图像和文本功能,能够分析图像和文本,完成从提取图像中的文本到描述图像内容等任务。而GPT-4o在此基础上增加了语音功能。

GPT-4o显著提升了ChatGPT的使用体验—ChatGPT是OpenAI的人工智能聊天机器人。虽然ChatGPT长期支持语音模式,将ChatGPT 的文本转为语音,但GPT-4o在此基础上进行了优化,使用户能够更像与助手互动一样自然地使用ChatGPT。

例如,用户现在可以在ChatGPT回答问题时中断它,而OpenAI表示,新模型能够提供“实时”响应,甚至能够捕捉到用户声音中的情感,并以不同的情感风格生成语音。GPT-4o还增强了ChatGPT的视觉功能。通过照片或屏幕截图,ChatGPT现在可以迅速回答相关问题,从“这段代码是做什么用的”到“这个人穿的是什么品牌的衬衫”。

从即日起,GPT-4o将在ChatGPT的免费版本中提供,而OpenAI的高级版本ChatGPT Plus和Team用户则可享有“五倍消息限制”的优势,企业选项也将“即将推出”(当用户达到使用阈值时,系统将自动转为使用 GPT-3.5)。OpenAI表示,计划在下月左右为Plus用户推出改良后的GPT-4o语音体验。

OpenAI还表示,GPT-4o的多语言功能得到了增强,在50种不同的语言中表现更佳。在OpenAI的API中,GPT-4o的处理速度是GPT-4(特别是 GPT-4 Turbo)的两倍,价格则是GPT-4 Turbo的一半,同时拥有更高的速率限制。

用户只需发出简单的“嘿,ChatGPT”语音提示,即可获得代理的口语回应。然后,用户可以用口语提交查询,并在必要时附上文字、音频或视觉效果——后者可包括照片、手机摄像头的实时画面或代理能“看到”的任何其他内容。

在音频输入方面,人工智能的平均响应时间为320毫秒,与人类的对话响应时间类似。目前,GPT-4o的应用程序接口中尚未为所有客户提供语音功能。鉴于滥用风险,OpenAI计划在未来几周内首先向“一小部分可信赖的合作伙伴”推出对GPT-4o新音频功能的支持。

其他方面,OpenAI将在网络上发布全新的ChatGPT UI,新的主屏幕和消息布局“更具对话性”,同时还将发布桌面版的ChatGPT for Mac,用户可以通过键盘快捷键向ChatGPT提问,也可以通过打字或说话截图并进行讨论(从今天开始,Plus用户将首先获得访问权限,Windows版本的应用程序将于今年晚些时候推出)。此外,ChatGPT的免费用户现在还可以访问GPT Store(OpenAI 基于其人工智能模型构建的第三方聊天机器人库)。

GPT-4o的文本和图像功能已经开始向付费的ChatGPT Plus和Team用户推出,企业用户也即将推出。免费用户也将开始使用,但有使用限制。语音版GPT-4o将“在未来几周内”开始提供。开发人员将能够使用GPT-4o的文本和视觉模式,并在未来几周内向“一小部分值得信赖的合作伙伴”提供音频和视频功能。

在线客服系统