Ultra 1.0发布仅一周,谷歌就推出了Gemini Pro 1.5,称其“在使用更少计算的同时,实现了与1.0 Ultra相当的质量”。谷歌声称,Gemini 1.5代表了新一代LLM,“在长期上下文理解方面取得了突破”,它可以处理多达100万token,“实现了迄今为止任何大型基础模型中最长的上下文窗口。”据报道,OpenAI的GPT-4 Turbo在某些情况下可以处理12.8万token,100万则要多得多——大约70万字。谷歌表示,开发者现在可以通过AI Studio和Vertex AI获得1.5 Pro的有限预览,其中有12.8万token上下文窗口,稍后可扩展到100万token。
来源:金融界AI电报