谷歌杀回来了!新版Gemini跑分超o1登顶第一,CEO:这才哪到哪儿

网友:说好的碰墙呢

鲨疯了!谷歌新版Gemini超越o1,强势登顶竞技场总榜第一!

在经6000+网友匿名投票后,不仅数学成绩和学霸o1相当,还拿下其它5个单项第一。

e9f9c7d88867be0d62d6ddc46c2e139f-1

新模型名为Gemini(Exp 1114),成绩一公布,连CEO皮猜也亲自飞奔来站台。

384543a7f8ff7be78599cb1d233c956e-1

而竞技场官方也在第一时间公布喜讯,并祝贺谷歌:

恭喜达到这一非凡里程碑!

60f9c29da68f54e7e1efe3e74a0ab881-1

这下尴尬了!说好的谷歌正在遭遇瓶颈呢?没想到人家反手就是一个王炸。

怕了怕了,或许,只有OpenAI立即发布满血版o1才能与之一战了?

5145b13690c1d07a01f43ed14045616c-1

目前新模型可在谷歌AI Studio体验,官方后续也计划提供API。

9625dc5e219a12f77177a2acce17168b-1

网友们也纷纷猜测,难道这就是传说中的Gemini 2——

拿下7项第一,数学也和o1不分伯仲

一夜之间,竞技场Imsys排名再被刷新:

从总榜来看,谷歌新模型Gemini(Exp 1114)分数直涨40+,挤下了之前一直霸榜的OpenAI模型(包括o1-preview、GPT-4o)。

99c18f0eaf849789a273d552dc6f1a1f-1

而且假如正面1v1遇敌,新Gemini貌似都有一半及以上概率取胜。

整体胜率热图显示,Gemini(Exp 1114)对战4o-latest胜率为50%,对战o1-preview胜率为56%,对战Claude-3.5-Sonnet胜率为62%。

39ac6234c441e761f709a1f50205e018-1

同时,Gemini(Exp 1114)在单项上也很能打,一举拿下6个第一,包括:

  • 复杂提示(Hard Prompts):模型处理复杂或困难提示的能力;
  • 数学;
  • 创意写作;
  • 指令遵循:评估模型遵循给定指令的能力;
  • 长查询处理(Longer Query):衡量模型处理较长查询的能力;
  • 多轮对话(Multi-Turn):模型在多轮对话中保持上下文连贯性的能力;
fd2b557e43f419010f5bdd2ca1c96c02-1

要说最大看点,还是Gemini(Exp 1114)竟能与o1模型在数学能力上不分伯仲

要知道,据OpenAI官方说法,o1不需要专门训练,就能直接拿下数学奥赛金牌,甚至可以在博士级别的科学问答环节上超越人类专家。

32d57cd15e264c6a8c18e1e6b29534ba-1

不过比较遗憾的是,对于写代码这项重磅功能,Gemini(Exp 1114)虽说相较于谷歌上一版本有所改进,但仍然未能挤进前三。(o1-mini/preview仍处于领先地位)

3f23da761981995abe026551056d1f25-1

另外,在风格控制下,Gemini-Exp-1114也和前三无缘,甚至不及自家的Gemini-1.5-pro。(排在o1、4o-latest和Sonnet之后)

解释一下,风格控制(Style Control)是竞技场今年新推出的功能,确保分数反映模型真正解决问题的能力,而不是用漂亮的格式、增加回答长度。

4ce1271268683c6e9fd9e7c07930dcdc-1

不过也有意外之喜,Gemini-Exp-1114这一次在视觉能力上拿下第一,超越了GPT-4o。

b3365612c94b9da83a5223a7093de30d-1

整体看下来,对于谷歌这次的反超,大家也感到十分意外。

90112e1c77c4281be83be5bd85fda651-1
5e82a2aa9a7057949906745f97a26790-1
18f81c032ef2604c42a4f4de694d6dba-1

目前,Gemini-Exp-1114已经可以在谷歌AI Studio体验,且官方计划后续提供API。

f4b22a9e9c720ebd8dfa6a2f34905afe-1
57f2df2b1ce74c6421c9747e26a2d284-1

这不,有很多网友已经上手测试了,但好像争议蛮多——

网友反应不一

先总结一下,通过网友测试,目前可知Gemini-Exp-1114的以下信息:

  • 拥有32k上下文窗口
  • 模型回答知识截止日期为2023年4月,但回答结果会不一样
  • 加上了思维链

其中,32k上下文被大家狠狠吐槽。有人直言相比200万上下文窗口的Gemini 1.5,搁这儿不升反降呢!

01e000625ce2ea8460a0d47d85111317-1

兴许是感受到大家的怨怼了,谷歌AI Studio负责人赶紧出来打圆场:马上更!马上更!

04bfa228f05e1ed6b361218f457e356b-1

安抚好众人情绪后,大家终于乐颠颠晒起了使用反馈。

透过其中一位小哥的观察,Gemini-Exp-1114这次也是用上了思维链,在回答时也能像人类一样一步步思考了。

2d4052ed7ad7acc667dc71a78a4c3bf3-1

而且,在数学能力上确实不错?

Gemini-Exp-1114正确回答了2024美国数学奥林匹克预选赛II 1-8题。

9d0a58e5e0c9b0432163f5d923d07a07-1

甚至相对弱项的编码,也有人第一次尝试就成功了。

fc3224899568bfbbeeb1522044e274f7-1

然而,翻车总是难免的。

有人问了基准测试中的物理问题,结果Gemini-Exp-1114虽然有思维链加持,却仍然回答错误。

95b43d35331c75399e1c2f4fbd34bb84-1

甚至老生常谈的数字比大小和数草莓中的“r”,竟还是失败。

6dd723ff78a0a42d5fe50685fde22d99-1

更搞笑的是,有人问Gemini-Exp-1114“你叫什么?”

结果回答了claude(doge)。

b97acdb88cfdf6f0dd1df296cec2c852-1

实际上,大家一直在猜测Gemini-Exp-1114会不会是传说中谷歌计划更新的Gemini 2。

c6bb756beaaffb830f17131a7b0d762e-1
d1857ef8fc0a68ce82f2132be770d59e-1

但根据实测,相当一部分网友出来表示否定

毕竟,它好像连旧版1.5 Pro会的问题也无法解决。

26264fa498d2a31d87e180fbadb13289-1

更有人声称,这是谷歌推迟发布更大模型(即Gemini 2)的策略,先弄一个残血版让大家玩玩,这样就别急着催更了。

c936941b1d909cf3eda36fcb8dbe257c-1

结合CEO皮猜顺势放烟雾弹的做法,好像又有点道理(doge)!

© 版权声明

相关文章

暂无评论

none
暂无评论...