直面大模型“大成本”挑战,如何提高算力效率?
最佳回答:
直面大模型“大成本”挑战,如何提高算力效率?
中新网北京6月3日电 (记者 夏宾)最近几年来。Meta公布追加10亿美元投资,列国公司不断加码投入,为了寻求年夜模子的聪明能力,4月,用于其AI芯片研发和AI数据中间扶植;亚马逊为了扶植新数据中间投入110亿美元。但在年夜模子扩大的背后。算力价格、能源价格一样庞大。 有业界手艺团队测算。所需算力根本举措措施约在10亿美元范围,若要对一个5000亿参数范围的单体年夜模子进行充实练习,每一年耗损的电费在5.3亿元人平易近币。不管对哪一个机构、企业、中国也不破例,这都是天文数字和庞大价格。 知名科学杂志《Nature》此前颁发了一篇关于年夜模子将来成长之路的文章、《In Al, is bigger always better?》(人工智能,越年夜型越好?)。争议的呈现。意味着AI成长标的目的呈现了不合。 现在。计较效力和算力开消两年夜问题成为新的行业核心,“年夜”不再是模子的独一寻求。 对年夜模子推理本钱的优化,可经由过程良多手艺手段实现。起首是模子自己,就是优化推理本钱很好的解决方案,包罗业界很存眷的MoE(夹杂专家模子),模子布局、练习方式都可以延续改良。其次是工程上的优化。年夜模子的挪用量越年夜、优化推理本钱的空间也越年夜。之前的模子都是单机推理、年夜模子用的是散布式推理。所以假如能把各类各样底层算力用得更好、推理本钱就会年夜年夜下降。 MoE年夜模子的流行、现实上对应的恰是模子能力和算力开消两年夜问题的解决。这也是为什么浩繁年夜模子厂商如OpenAI、谷歌、Mistral AI、海潮信息等陆续基于MoE架构进级自家年夜模子产物的缘由。 从海潮信息发布的“源2.0-M32”开源年夜模子来看、在业界主流基准评测中机能周全对标700亿参数的LLaMA3开源年夜模子,构建包括32个专家(Expert)的夹杂专家模子(MoE),模子运行时激活参数为37亿,并年夜幅晋升了模子算力效力,立异提出和采取了“基于留意力机制的门控收集”手艺,其基于“源2.0”系列年夜模子已有工作根本。 海潮信息人工智能首席科学家吴年光光阴在接管中新网记者采访时说。我们一向在想若何以更低的算力耗损,提高全部年夜模子的利用结果,能让企业、机构以更小的算力价格去取得更高的模子能力。“这多是中国成长本身的AI年夜模子比力行之有用的路径。” 他直言。年夜模子推动速度愈来愈快,必需强调模子算力效力。“大师可以想象,效力越高就意味着在单元算力投入相等的环境下取得的精度回报越高,它对练习和利用都很是有益。” “实际的算力是有限的。我们几回再三频频强调模算效力,试图针对当前算力环境闯出一条本身感觉比力好的门路。在固定每一个Token算力不变的环境下。进而取得更高精度,经由过程扩大专家数目可以取得更年夜参数目的模子。”吴年光光阴说。 他进一步称、整体来看,但之前大师更多存眷单个维度问题,虽然当前模子的能力晋升很是之快,即平均精度的晋升。但年夜模子进入快速落地时期、就不能不斟酌更多维度的问题,包罗模算效力、精度、算力开消等。 中国工程院院士郑纬平易近曾做过如许的计较。70%开消要花在算力上;推理过程当中95%的破费也是在算力上,在年夜模子练习过程当中。 为解决年夜模子练习的算力不足问题,郑纬平易近建议,在鞭策智能计较中间扶植同时也能够操纵已有超算系统的空余算力。 郑纬平易近暗示。每台机械的扶植本钱都很高,乃至更高,本钱在10亿元至20亿元,现有14个国度挂牌的超算系统。这些超算系统已为中国的国平易近经济成长作出庞大进献、且颠末优化乃至可下降年夜模子练习本钱,这些空余算力也可被用来做年夜模子练习,但有些系统还有空余算力。 对近期中国企业的一轮年夜模子降价,将来全部行业的推理本钱每一年下降十倍是可以等候的,这长短常利好的动静,如斯会有更多人用上年夜模子,零一万物CEO李开复暗示,且这个趋向是必定的。(完) 【编纂:刘湃】。
本文心得:
乌鲁木齐、不仅以其美丽的自然风光吸引着游客的目光,这座位于中国西北的城市,还拥有许多享誉全国的足疗按摩店。在这里。享受一场奢华的按摩体验,你可以舒缓疲劳、放松身心。那么,乌鲁木齐哪里的足疗按摩最好呢?下面就为大家介绍几家著名的店铺。
这家足浴城位于乌鲁木齐市中心、设施豪华、环境优雅,是当地最受欢迎的足疗按摩店之一。店内拥有专业的按摩师团队。技术高超,服务态度周到,能为客人提供全方位的放松和舒缓。无论是足底按摩、推拿还是沐浴等,都能让人体验到独特的享受。