网友:比投入元宇宙靠谱多了
金磊 发自 凹非寺
非常AI | 公众号 QbitAI
ChatGPT的火爆,终究是让Meta坐不住了。
这不,小扎(扎克伯格)连夜对外宣布了公司的大动作:
成立顶级产品团队,专注AIGC。
这个团队可以说是整合了全公司搞AIGC的人才,并且小扎称要把相关技术注入到Meta所有的产品中。
例如要把AIGC中的文本生成、对话能力,用到自家的WhatsApp、Messenger等;图像生成能力要用到Instagram;以及还要探索视频和多模态的玩法。
小扎还为这个大动作设定了2个目标:
- 短期目标:打造具有创造性和表现力的工具。
- 长期目标:开发能够用各种方式帮助人们的AI角色。
而就在前几天,Meta还刚刚发布了自家的大语言模型LLaMA;技术、产品团队均已就绪,Meta这波俨然一副All in AIGC的节奏。
对此,也有网友表示“比投入元宇宙靠谱多了”:
新建的团队有多“顶级”?
“顶级产品团队”,这无疑成为了Meta最新动作中的最大亮点之一。
据外媒AXIOS称,Meta新团队将由人工智能和机器学习副总裁Ahmad Al-Dahle领导。
Ahmad Al-Dahle于2020年4月加入Meta,主要负责AI、机器感知和XR等方面的领导工作。
而在此之前近17年的时间里,Ahmad Al-Dahle则是一直在苹果的特殊项目小组(Special Project Group)就职。
至于“顶级产品团队”其它成员的信息,目前Meta官方还未做更多的透露。
但根据小扎“将多个生成式AI团队整合到一个小组”的说法,其背后大语言模型LLaMA团队很有可能会加入进来。
而Meta AI的首席科学家、图灵奖得主Yann LeCun在社交平台上表示,几乎所有LLaMA的研究人员都是来自FAIR在巴黎的分支。
若是这个“顶级产品团队”真将LLaMA核心骨干吸纳进来,那么Meta这次的团队整合将跨全球的一次大动作。
一口发布四种规模大语言模型
最后,我们再来看下小扎All in AIGC背后的技术实力。
在此前的发布中,Meta的开源大语言模型LLaMA包含四个size:
7B(小杯)、13B(中杯)、33B(大杯)和65B(超大杯)。
并且官方还声称效果要好过GPT,甚至13B的LLaMA在单个GPU上就能运行。
其主要原理和以往的大模型类似,都是将一系列单词作为输入,并预测下一个单词以递归生成文本。
至于为何要发布不同尺寸的大模型,Meta对此的解释是:
近来的研究表明,对于给定的计算预算,最佳性能不是由最大的模型实现的,而是由基于更多数据训练的更小的模型实现的。
也就是说,较小的模型规模加上比较大的数据集,获得的性能可能会比更大规模模型的要好很多。
一方面,小规模模型需要的计算能力和资源相对来说都会少很多,另一方面,它还能基于更多数据集训练更多token,更容易针对特定的潜在产品用例进行重新训练和微调。
在效果方面,小扎更是在放出豪言,这是AI大语言模型里的新SOTA:
生成文本、进行对话、总结书面材料以及解决数学定理或预测蛋白质结构等它都能干。
而相较于有1750亿参数的GPT-3,最多只有650亿参数LLaMA在大多数基准上都要优于GPT-3。比如说常识推理:
……
不过有一说一,相比其他科技巨头来说,Meta这波All in的时间节点是相对滞后了一些。
那么你觉得Meta这张迟来的船票,能否坐稳AIGC的巨轮呢?
参考链接:
[1] https://www.facebook.com/zuck/posts/pfbid02zHwANqWrZLMimhq7U97i3xaHkMEHu8CLsa9TGRj1QeejwDxRFChxSK1zY6yPak5Kl
[2] https://www.theverge.com/2023/2/27/23617477/mark-zuckerberg-meta-ai-tools-personas
[3] https://www.cnbc.com/2023/02/27/mark-zuckerberg-announces-new-team-at-meta-working-on-ai-products.html
[4] https://www.linkedin.com/in/ahmad-al-dahle-63a963a0/