1.76万亿「八头蛇」?
他特别强调,OpenAI做了8个混合专家模型,任何人可以花8倍资金都能训练出来。 也就是说,人们能够训练更小模型更长时间,微调后,就能找到这些技巧。 OpenAI曾经发表类似关于让计算量不变的情况下,让训练更好的算法,比较像BatchNorm和NoBatchNorm。 一起看看George Hotz具体的介绍视频:GPT-4每个head都有2200亿参数,是一个8路的混合模型。所以,混合模型是当你想不出办法的时候才会做的。OpenAI训练了相同模型8次,他们有一些小技巧。他们实际上进行了16次推断。
网友热评
就像George所说,这是8个较小的模型,如果有足够资金训练8个混合模型,这是一个微不足道的解决方案。 所以,GPT-4是GPT-3的10倍,而1月份的所有小圈圈大圈圈的meme实际上是......真的?! 网友得知秘诀后,打算自己也要训练一个LLaMA集合体与GPT-4竞争。 还有网友称,这有点像LLM-Blender。 我早就听到了稍微可信的传言,说GPT-4将是MoE,但从未得到证实。MoE和大约1万亿个参数不会让我感到惊讶,这听起来极为合理。 还有网友进行深度分析: 老实说,我预计这将是人工智能架构的下一阶段。我们已经看到特定任务模型在任务中的表现比一般模型好得多。 因此,将许多特定任务模型组合在一起将是下一个合乎逻辑的步骤。这几乎使升级系统变得容易得多,一次只能处理一个模型。 话虽如此,OpenAI以一种未来可能会,也可能不会的方式做到了这一点。显然,组合系统可能会有更多的小模型,而不是几个更大的模型。 如果这是真的,这是否意味着每个220B模型也有32K的上下文长度?本文发布于:2024-01-28 10:15:25,感谢您对本站的认可!
本文链接:https://www.4u4v.net/it/17064081336705.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |