一次10万token,gpt4最强对手史诗升级,百页资料一分钟总结完毕-pg电子官方网站试玩网
当前位置: 苏州资讯网 >热点 >

一次10万token,gpt4最强对手史诗升级,百页资料一分钟总结完毕-pg电子官方网站试玩网

时间:2023-05-12 13:55   阅读量:9308   

号称 chatgpt“最强竞争对手”的 claude,今天迎来史诗级更新 ——

模型记忆力原地起飞,现在 1 分钟看完一本数万字的小说,已经不在话下。

消息一出,评论区直接炸了,网友们蜂拥而至,“woc 连连”:

疯了疯了!

事情进展得太快了,又是为人类担心的一天!

原来,这次更新,将模型的上下文窗口 token 数提到了足足 10 万,相当于 7.5 万个单词!

这意味着,大模型“记性”不好的缺陷现在得到补强,我们可以直接丢给它上百页上万字的材料,比如财报、技术文档甚至是一本书。

而它都能在一分钟之内帮你分析总结完毕!

要知道,之前市面上几乎所有 ai 聊天机器一次都只能读取有限数量的文本,理解长资料里的上下文关系非常灾难。

而我们人类自己去处理大篇幅的文本又太慢了,比如光是要读完 10 万 token 的材料,就需要大约 5 个多小时,更别提还要花更多的时间去理解去消化才能进行总结。

现在,claude 直接一把搞定。

这波,简直是“五雷轰顶”、“反向开卷”gpt-4,因为,刚刚后者也不过才做到 3.2 万 token。

所以,一次性比 gpt-4 多出 3 倍的处理量,claude 效果提升究竟如何?

claude 重磅更新:一次记忆 10 万 token

据 anthropic 官方介绍,升级后的 claude-100k 版本,对话和任务处理能力双双得到极大提升。

一方面,是“一次性可处理文本量”的增加,直接拓宽了 claude 的可从事岗位类型。

之前,大模型最多用来处理个几十页的文档。

现在,claude 已经能速读公司财报年报、技术开发文档、识别法律文件中的风险、阅读上百页研究论文、乃至于处理整个代码库中的数据。

最关键的是,它不仅能通读全文总结其中的要点,还能进一步完成具体任务,如写代码、整理表格等。

例如,快速理解几百页的开发文档,并根据文档开发应用程序 demo。

以 claude 之前没见过的一项新技术 langchain 作为示例:

当交给它一个 240 页的 langchain api 报告后,要求它快速给出一个 langchain 的 demo 演示:

几乎没用多少时间,claude 就快速给出了一个基于 langchain 开发的应用程序 demo:

又例如,甩给它一个漫长但又不得不听的 5 小时知识播客:

它不仅能将重点转成文字提取出来,还能快速整理表格,对观点进行分析:

难度增大一点,30 页的研究论文也能很好地处理,甚至能准确指定它整理某一章节的某一段落:

除此之外,还能帮导演处理剧本选址一类的问题。如给出《沙丘》的电影脚本,问 claude 最适合拍摄的地点,它很快就能给出几个对应的参考地址:

最后,官方还给出了一个《了不起的盖茨比》案例,虽然没有 demo 演示。

他们将这篇喂给 claude 后,替换了其中一个角色 mr. carraway,把他的角色变成“anthropic 里的一位工程师”,再交给 claude 阅读,让它找不同。

几乎只用 22 秒钟,claude 就读完这本书,并发现了 mr. carraway 的“不同身份”。

另一方面则是“记忆力”的增加,带来了对话题掌控度的提升、以及聊天能力的提升。

此前大模型经常会出现“聊着聊着忘了话题”的情况,对话窗口总字数超过几千字后,开始胡言乱语。

举个栗子????,如果你用大量提示词设置了一个 chatgpt 版猫娘,那么它开始聊天后,可能几个小时就忘记了自己和你说过的话,开始表现出一些“出轨”的迹象

但现在,拥有一次 10 万 个 token 记忆力的 claude,则不太可能出现这种情况,反而能牢牢记住和你聊过的话题,连续交谈上好几天。

那么,目前我们能通过什么方式用上最新版 claude 呢?

api 和网页版均已上线

anthropic 先是宣布推出了 claude-100k 的 api 版本,之后又火速上线了网页端。

anthropic 工程师

所以无论你是用网页端还是用 api,目前都已经可以直接体验这个拥有“超长记忆力”的 claude 版本。

很快啊,已经有网友迫不及待玩上了。

像 othersideai 的 ceo matt shumer,就试用了一下网页端的 claude-100k 总结技术报告的效果。

他先测了波 claude-9k 的效果,发现它面对长达上百页的 gpt-4 技术报告,还是会出现“幻觉”;随后测试新版 claude-100k,发现它给出了有理有据的估计:

gpt-4 的参数量级大约在 5000 亿左右!

这是它的推测过程:

不知道这波 openai 的奥特曼会不会出来辟谣。

还有一位 assembly ai 的老哥,测试了一下 claude-100k 的 api 版本。

在视频演示中,他用 claude-100k 总结了一下 lex friedman 的 5 小时长播客,效果看起来也非常不错:

但无论是网页版还是 api,都还不是我们能免注册直接试玩的版本。

之前我们说的不用注册、不用申请、不用“骚操作”就能玩、体验也很不错的是 slack 端,它的添加方法我们在之前的文章中介绍过,非常简单。

遗憾的是,目前它还是 claude-9k“体验版”。

所以,总结一下就是,这个 claude-100k 的版本:

  • 可以用 api 的方式体验,不过不是免费的;

  • 网页版也行,但需要你有试用资格,没有就去申请,等一等;

  • slack 端还不行,只是个体验版。

反向开卷 gpt-4,网友:卷对了方向

昨天,谷歌刚刚在 i / o 大会上宣布了数项重大更新,包括:

  • 重构谷歌搜索、开启 ai 对话

  • 发布大模型 palm 2

  • 全面开放 bard,不用排队直接玩

……

这被视作针对微软和 openai 的一系列反击。

现在,来自 anthropic 的 claude 紧随其后,发布如此重大更新,直接反向开卷 gpt-4——

有网友评价:

claude 卷对了方向。

确实,目前大部分语言模型普遍都只能处理 2-8k 的 token 量,大家都在苦苦追寻提高模型记忆力的办法。

比如上个月那篇可将 transformer token 上限扩展到 100 万甚至 200 万的论文就引起了非常大的关注,不过网友测试效果似乎不太理想。

现在,claude 直接“业内第一人”宣布做到了 100k,并拿出来给大家用,很难不让人称赞。

除此之外,还有网友“站得更高”,称:

资本主义之间的竞争果然很美妙。

言外之意,卷得好啊卷得妙。没有巨头和各垂直企业之间的你争我抢,我们哪能在短短两天之间又目睹了如此多和重大的进展呢?

诶,不过话说回来,鉴于 anthropic 是由当初不满意 openai 与微软走得太近的几位前员工创立,而谷歌也斥资 3 亿美元投资了这家公司。

大胆猜测:

这次两人前后脚的“一唱一和”,是不是提前商量好的?

参考链接:

来源: it之家 编辑: 苏婉蓉

郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。

  • 苏州
  • 江苏
  • 财经
  • 资讯
  • 旅游
  • 文化
周庄 今晚亮灯“灯”你,共度佳节
周庄 今晚亮灯“灯”你,共度佳节
第十四届全国运动会开幕 目前已决出多枚金牌
第十四届全国运动会开幕 目前已决
亿联银行同业交流会开幕,全国各地近66家金融机构125名代表出席会议
亿联银行同业交流会开幕,全国各地
【传承民族经典 弘扬中华武术】苏州市青少年武术锦标赛开赛
【传承民族经典 弘扬中华武术】苏
“鹭岛”为家:苍鹭的东北安家之旅
“鹭岛”为家:苍鹭的东北安家之旅
国家大剧院周末音乐会迎来600场
国家大剧院周末音乐会迎来600场
网站地图