OpenAI最近推出了新一代的旗舰模型GPT-4o,这是一款具备实时处理音频、视觉和文本能力的人工智能模型。GPT-4o在性能、速度、成本效益和技术能力方面均较GPT-4有显著提升。它不仅在文本处理、推理和编程智能方面展示了与GPT-4 Turbo相当的性能,还在多语言、音频和视觉能力上设定了新的高标准。
GPT-4o的主要改进
- 性能提升:GPT-4o在文本、推理和编程智能方面达到了GPT-4 Turbo的水平,同时在处理多语言、音频和视觉任务上也有所提高。
- 速度提升:GPT-4o生成令牌的速度是GPT-4 Turbo的两倍。
- 成本降低:在输入和输出令牌的成本上,GPT-4o比GPT-4 Turbo便宜50%。
- 更高的速率限制:GPT-4o的速率限制是GPT-4 Turbo的五倍,最高可达每分钟1000万令牌。
- 视觉能力改进:GPT-4o在大多数视觉任务上具有改进的视觉能力。
- 非英语语言能力的提升:GPT-4o在处理非英语语言方面有所提升,并采用了更高效的非英语文本分词器。
API支持和应用
- GPT-4o目前支持通过视觉能力理解视频(无音频),视频需转换为每秒2-4帧的图片输入至模型。
- 目前,GPT-4o的API尚不支持音频处理,但计划在未来几周内向一组受信任的测试者提供此功能。
- GPT-4o的API也暂不支持生成图像,建议使用DALL-E 3 API进行图像生成。
代码中使用
复制from openai import OpenAI import os os.environ["OPENAI_API_KEY"] = "sk-" client = OpenAI() completion = client.chat.completions.create( model="gpt-4o", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": "Hello!"} ] ) print(completion.choices[0].message.content)
from openai import OpenAI import os os.environ[“OPENAI_API_KEY”] = “sk-” client = OpenAI() completion = client.chat.completions.create( model=”gpt-4o”, messages=[ {“role”: “system”, “content”: “You are a helpful assistant.”}, {“role”: “user”, “content”: “Hello!”} ] ) print(completion.choices[0].message.content)
总的来说,GPT-4o是一个在多模态人工智能领域具有革命性进步的模型,适用于需要高性能、多语言处理及视觉输入的开发者和企业。如果您目前正在使用GPT-4或GPT-4 Turbo,建议评估是否切换到GPT-4o。
阅读全文
温馨提示: