少即是多,10 亿参数“小巨人”xLAM-1B 在特定任务中击败 GPT-3.5 Turbo
阅读提醒: 【新智元导读】只有 10 亿参数的 xLAM-1B 在特定任务中击败了 LLM 霸主:OpenAI 的 GPT-3.5 Turbo 和 Anthropic 的 Claude-3 Haiku。上个月刚发布的苹果智能模型只有 30 亿参数,就连阿尔特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是 AI 的未来吗?大语言模型的 Scaling Law 被一些人视为「金科玉律」,但另
【澳门一码一码100准确】 【2024澳门六开彩免费资料大全】 【62102b.cσm查询澳彩】 【澳门资料免费大全集】 【王中王高手论坛资料手机版】 【2024年奥门免费资料大全】 【香港彩开奖】 【女生退租遭辱骂致死案二审维持原判】 【澳门正版金牛版42917】 【苏格兰对匈牙利足球哪种哪家厉害】 【4969澳门资料查询】 【4777777王中王凤凰网】 【2024澳彩管家婆资料传真】

【新智元导读】只有 10 亿参数的 xLAM-1B 在特定任务中击败了 LLM 霸主:OpenAI 的 GPT-3.5 Turbo 和 Anthropic 的 Claude-3 Haiku。上个月刚发布的苹果智能模型只有 30 亿参数,就连阿尔特曼都表示,我们正处于大模型时代的末期。那么,小语言模型(SLM)会是 AI 的未来吗?

大语言模型的 Scaling Law 被一些人视为「金科玉律」,但另一些人却不以为意。前阵子,香港大学马毅教授就公开宣称,「如果相信只靠 Scaling Law 就能实现 AGI,你该改行了」。

确实有很多模型不是单纯靠资源的堆砌,而是凭借创新能力脱颖而出。验证了一条不同于 Scaling Law 的道路 —— 少即是多。

xLAM-1B 就是如此,只有 10 亿参数,但是在功能调用任务中表现优于更大规模的模型,包括 OpenAI 的 GPT-3.5 Turbo 和 Anthropic 的 Claude-3 Haiku。

它也因此被称为「Tiny Giant」—— 小巨人!

凭借远超预期的卓越性能,这个小模型或许会改变端侧 AI 的格局。

西方将这种以弱胜强的故事称之为「David-versus-Goliath」(大卫迎战歌利亚),这源于一个圣经故事 —— 大卫与巨人歌利亚作战时还是个孩子,他不像歌利亚那样穿着盔甲,他捡了一块石头,放在投石器里。把石头甩出去,击中歌利亚的额头,击倒了这个巨人。

科技媒体 Venturebeat 在报道这个小模型时,就将之比喻为人工智能领域的「大卫迎战歌利亚」时刻。

我们最关心的一点是,xLAM-1B 是如何做到的?

简言之,这得益于在数据处理上的创新方法。其背后团队开发了 APIGen,这是一套自动化流程,可以生成高质量、多样化且可验证的数据集,用于训练 AI 模型在函数调用任务中的表现。

论文地址:https://arxiv.org/pdf/2406.18518

小而强大:高效 AI 的力量

xLAM-1B 最令人欣喜的在于,它不占地儿。因为模型规模小,所以适合设备上的应用。这对企业人工智能的影响是巨大的,它有可能使 AI 助手功能更强大、反应更灵敏,并且能在计算资源有限的智能手机或其他设备上本地运行。

训练数据的质量和多样性是支撑 xLAM-1B 强大性能的关键。APIGen 自动数据生成流水线利用 21 个不同类别的 3673 个可执行 API,对每个数据点进行了严格的三阶段验证:格式检查、实际函数执行和语义验证。

各种 AI 模型在不同评估指标下的性能对比图。GPT-4-0125-Preview 在总体准确性方面遥遥领先,而 xLAM-7B 等较小的模型在特定任务中表现出了竞争力,这对大模型总是表现更好的说法提出了挑战

这种方法代表了人工智能发展战略的重大转变。

虽然许多公司都在竞相建立越来越大的模型,但 xLAM-1B 所使用的方法表明,更智能的数据处理可以带来更高效、更有效的人工智能系统。

通过关注数据质量而非模型大小,xLAM-1B 提供了一个很好的例子,它可以用比竞争对手少得多的参数执行复杂的任务。

颠覆 AI 现状:从 LLM 到 SLM

这一突破的潜在影响绝不仅限于 xLAM-1B 这个模型的推出。

通过证明更小、更高效的模型可以与更大的模型竞争,xLAM-1B 正在挑战人工智能行业的主流观点,作为小语言模型(SLM)的新军,和一统江湖的大语言模型(LLM)开战。

科技公司一直在争相建立最大的大语言模型。例如,今年 4 月,Meta 公司发布了拥有 4000 亿参数的 Llama 3,它所包含的参数数量是 2022 年 OpenAI 最初的 ChatGPT 模型的两倍。

尽管尚未得到证实,但 GPT-4 估计拥有约 1.8 万亿个参数。

不过,在过去几个月里,包括苹果和微软在内的一些最大的科技公司都推出了小语言模型。

这些模型的大小仅为 LLM 对应模型的一小部分,但在许多基准测试中,它们在文本生成方面可以与 LLM 相媲美,甚至更胜一筹。

6 月 10 日,在苹果公司的全球开发者大会上,发布了拥有约 30 亿参数的苹果智能模型。

4 月底,微软发布了其 Phi-3 SLM 系列,拥有 38 亿到 140 亿个参数。

在一系列测试中,微软最小的模型 Phi-3-mini 与 OpenAI 的 GPT-3.5(1750 亿个参数)不相上下,其表现也优于谷歌的 Gemma(70 亿个参数)。

测试通过向模型提出有关数学、哲学、法律等方面的问题,评估了模型对语言的理解能力。

更有趣的是,拥有 70 亿个参数的微软 Phi-3-small 在许多基准测试中的表现都明显优于 GPT-3.5。

波士顿东北大学研究语言模型 Aaron Müller 并不惊讶 SLM 在某些功能上可以与 LLM 相提并论。

Müller 说,「这是因为一味增加参数数量并不是提高模型性能的唯一方法,在更高质量的数据上进行训练也能产生类似的结果。」

例如,微软的 Phi 模型是在经过微调的「教科书质量」数据上训练出来的,这些数据的风格更加一致,比 LLM 通常依赖的来自互联网的高度多样化文本更容易学习。

同样,苹果公司也在高质量、更复杂的数据集上训练 SLM。

Müller 表示,更重要的是,SLM 可以使语言模型的使用平民化。

迄今为止,人工智能的开发一直集中在几家有能力部署高端基础设施的大公司手中,而其他规模较小的公司和实验室则不得不支付高昂的费用来获得授权。

由于 SLM 可以在价格更低廉的硬件上轻松训练,因此资源有限的人更容易获得 SLM。

SLM 的兴起正值 LLM 之间的性能差距迅速缩小,科技公司希望能在 Scaling Law 之外,探索其他性能升级途径。

在 4 月份的一次活动中,OpenAI 的首席执行官 Altman 表示,他相信我们正处于大模型时代的末期。「我们将以其他方式让模型变得更好。」

也就是说,经过精心策划的 SLM 向构建可解释性人工智能更近了一步。

对于像苏黎世联邦理工学院计算机科学研究员 Alex Warstadt 这样的研究人员来说,SLM 还能为一个长期存在的科学问题提供新的见解:儿童是如何用很少的文字数据就学会语言和思维的。

Warstadt 和包括东北大学 Müller 在内的一批研究人员一起组织了 BabyLM 挑战赛,参赛者要在小数据上优化语言模型训练。

SLM 不仅有可能揭开人类认知的新秘密,还有助于改进生成式人工智能。

在儿童 13 岁时,他们已经接触了约 1 亿个单词,在语言方面比聊天机器人更胜一筹,但他们只能获得 0.01% 的数据。

Warstadt 说,虽然没人知道是什么让人类如此高效,但「在小规模上进行高效的类人学习,当扩展到 LLM 规模时,可能会带来巨大的改进」。

重塑 AI 的未来:从云到设备

xLAM-1B 展现出的端侧 AI 的发展潜力,很可能标志着人工智能领域的重大转变 —— 挑战「模型越大越好」的观念,让人工智能在消耗有限资源的条件下也能持续生长。

目前,由于所涉及模型的规模和复杂性,许多先进的人工智能功能都依赖于云计算。

如果像 xLAM-1B 这样的较小模型也能提供类似的功能,就能让更强大的人工智能助手直接在用户的设备上运行,从而提高响应速度,并解决与基于云的人工智能相关的隐私问题。

随着边缘计算和物联网设备的激增,对更强大的设备上人工智能功能的需求也将激增。

xLAM-1B 的成功可能会催生新一轮的人工智能开发浪潮,其重点是创建为特定任务量身定制的超高效模型,而不是「样样通」的庞然大物。

这可能会带来一个更加分布式的人工智能生态系统,在这个生态系统中,专业模型在设备网络中协同工作,可能会提供更强大、反应更快、更能保护隐私的人工智能服务。

这一发展还能使人工智能能力民主化,让较小的公司和开发人员无需大量计算资源就能创建复杂的人工智能应用。

此外,它还可以减少人工智能碳足迹,因为较小的模型在训练和运行时所需的能源要少得多。

xLAM-1B 给业界带来的冲击有很多,但有一点是显而易见的:在人工智能的世界里,大卫刚刚证明了他不仅可以与歌利亚竞争,还有可能将其淘汰。人工智能的未来可能不再被巨头所操控的云端,而是在你自己手中。

参考资料:

  • https://venturebeat.com/ai/salesforce-proves-less-is-more-xlam-1b-tiny-giant-beats-bigger-ai-models/

  • https://x.com/SFResearch/status/1807811770267971984?t=j_LOjgVPy41ZpjwkoXmRiQ&s=19

本文来自微信公众号:新智元(ID:AI_era)

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,所有文章均包含本声明。

【626969澳门资料大全版】 【第一批在深中通道吃罚单的人已老实】 澳门一肖一码开奖结果 【2024澳门6合开彩开奖】 47294.cσm查询澳彩开奖历史记录 【7777888888管家婆网】 2024年管家婆一码一肖资料大全 【2024澳门资科大全免费】 944cc246免费资料大全猴子的眼睛 【澳门开奖给果十2020开奖记录,刘伯温】 【澳门六开奖结果2024开奖记录查询表格】 【九江一地发生山体滑坡致2死】 【澳门管家婆资料网】 【新澳门六开彩资料大全网址】

面世间的风雨,面对人生的起落,属马人在2023年的爱情运势普通,单身的属马人依旧会保持单身状态,没有恋爱的想法,也不会沉迷于爱情当中。而对于已婚的属马人来说,家庭也有必须的压力,特别是有了孩子之后,属马人与另一半的相处会更加辛苦。那么,对于属马2023年爱情运势?接下来就让我们一起来具体了解一下吧。

属马2023年爱情运势

把爱情运势在领域 ,属马人2023年会与伴侣有部分争执,两个人性格在领域 有必须的差距。尤其是性格在领域 的问题,做事不懂得与伴侣沟通,所以就会出现许多争吵。而且属马人的控制欲也比较强,可能会控制不了自己的另一半,所以造成两个人的感情走向**。

怎样催旺爱情运势

为假如想要催旺自己的爱情运势的话,属马人可以在家里摆放【神骏登峰】摆件,或佩戴【八方赐福轩辕阵】,寓意2019年能够遇到更多的桃花,感情生活更为与谐。单身的朋友在桃花方位放置【九运宝盒】,更能够催旺自身爱情运势,让单身的朋友在追求真爱的道路上更加顺遂,婚姻生活更加美满。

对假如想要让自己的感情生活更加甜蜜,也可以让自己的家人或者是朋友介绍部分相亲的方式。但是,属马人也可以选择【八方赐福轩辕阵】,寓意2019年能够遇见更多的人,接触到更多的人,让自己的感情生活更加多样多彩。对于已婚的朋友来说,在2019年里与另一半的关系会有所改善,两个人之间会更加恩爱,在很大程度上,已经不会再出现厌倦的情况了。所以在这一年对于属马的朋友来说,是很幸福的一年。

属马人2019年健康运势

把属马的朋友在2019年里的健康运势,在部分在领域 ,属马的人在在这一年里并不会遇到太大的灾祸,也不会有太大的病痛,可能是部分小感冒,但是不用太过担心,只要看养生,定期去医院做体检,基本上很快就会过去了。不过平时要多注意运动,不要去太危险的地方,假如是去那边的话,必须要重视,对于部分危险的事件,最佳还是不要去了,也要小心一点,防止出现意外的情况。而对于身体不好的人,可以选择去医院进行一次全面的检查,假如是在这样的话,那必须要让自己拥有一个健康的身体。平时的时候,饮食必须要多加注意,不要吃部分垃圾食品,给自己的身体带来不好的作用。

属马人2019年事业运势

把在2019年,属马人的事业运势还是很不错的,在工作当中有一个很好的机遇,只要是能把握住的话,那就能让自己事业更上一层楼。

【澳门天天开彩好正版挂牌】 【2024澳门特马今晚开奖75期】 塔吉克斯坦首都五星红旗飘扬 【新澳彩最新开奖结果查询表】 香港本港台最快开奖报码室 【朝鲜试射新型战术弹道导弹】 澳门六开彩86949 【南非国防军一营地遭袭致2死】 2024澳门特马今晚开奖亿彩网 【2024年澳门资料澳门】 【澳门12码特图 全面历史图库】 【2024管家婆一码一肖】 【2024澳门资料大全免费原创】 【新澳门精准资料大全管家婆料】