GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

 夕小瑶科技说 原创
 作者 | 小戏、ZenMoore

要说现在 GPT-4 最大的问题是什么?可能除了一时拿他没有办法的机器幻觉,就是卡死的输入长度了吧。尽管在一般的对话、搜索的场景里目前普通版本 GPT-4 的 8000 左右的上下文长度或许绰绰有余,但是在诸如内容生成、智能阅读等方面当下基础版的 GPT-4 还是有些捉襟见肘。

然而在 GPT-4 的发布会里也谈到,事实上 GPT-4 是支持 32768 个 token 长度的,只是暂时还没有被完全释放,而是会陆续自动更新。而这两天,32k GPT-4 的曙光似乎马上就要来了!不少 GPT-4 的用户已经可以在自己的 PlayGround 上看到 GPT-4 32k 的选项。

GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

在 API 里,也可以通过指定 GPT-4-32K 的 Model 来对升级版进行调用

GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

但是,这应该仍然是 GPT-4 对部分用户的内测,并且应该不是按申请 waitlist 的时间来发布内测名额,收到 32k 版本内测的用户是在 3 月 16 日加入的 waitlist,但也有同样时间加入的用户没有解锁 32k 的版本。一个可能的原因是收到内测版本的用户曾经在注册时强调了对 32k GPT-4 极大的兴趣。

GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

当然,不管怎样,32k 的 GPT-4 看起来确实是离我们越来越近了,那么 32k 的 GPT-4 会带来什么样的想象力的改变呢?毕竟它的价格比 8k 版本的 GPT-4 贵了两倍,并且有可能会有更慢的响应时间……

GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

一个例子是对话机器人,当上下文长度扩展到 50 页以后,那么就可以极大的避免比如因为滑出了 8k 窗口而带来的复杂的嵌入问题。又如对如论文、研报等大量复杂信息的提取与解读,目前必须通过结构化的方法对资料进行拆分再逐步进行提取,而 32k 的上下文长度则可以一举省去这些麻烦。再比如推特博主 Matt Shumer 做的一个小测试,通过提供给 GPT-4 32k 一份代码样例,几秒钟内它就完成了一套完整的测试案例,这对工程而言也非常具有颠覆性。

GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

在 OpenAI 之外,也有开源模型开放了甚至更大上下文长度的大规模语言模型。这个名为 MPT-7B (也称做 Llongboi) 在这个月 5 号发布,这个花费了 20 万美元训练的 Llongboi 最大的亮点在于支持 64k 的上下文,可以服务于内容生成、聊天等多种场景。

GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

博客地址:https://www.mosaicml.com/blog/mpt-7b

项目链接:https://github.com/mosaicml/llm-foundry

当然,开源项目的性能及稳定性肯定无法比肩 GPT-4,既然已经陆陆续续开始有人收到了 32k 的 GPT-4 的邀请,相信它必然很快就会和我们见面,那就让我们“Hopefully it picks up the pace”吧!

GPT-4 开始内测 32000 输入长度的版本了!你收到邀请了吗?

文章版权声明

 1 原创文章作者:Liar.,如若转载,请注明出处: https://www.52hwl.com/74461.html

 2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈

 3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)

 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023年7月17日 下午4:35
下一篇 2023年7月17日 下午4:35