首页 > 资讯

国产大模型第一梯队玩家,为什么pick了CPU?

时间:2024-07-11来源:网络作者:小白

AI一天,人间一年。

现在不论是大模型本身,亦或是AI应用的更新速度简直令人直呼跟不上——

Sora、Suno、Udio、Luma……重磅应用一个接一个问世。

也正如来自InfoQ的调查数据显示的那般,虽然AIGC目前还处于起步阶段,但市场规模已初具雏形:

国产大模型第一梯队玩家,为什么pick了CPU?

行业整体迅速发展固然是好事,但具体到每个的应用或者大模型的落地来说,面临的竞争也越发激烈了

例如前不久各个大模型厂商之间展开的非常激烈的“价格战”,主打一个比谁更便宜,甚至直接把大模型价格推向“厘时代”

加上最近OpenAI的“断供”事件,更是让国内厂商们在打出“轻松搬家”计划的同时,再加码Tokens送送送的力度。

究其原因,也是与当下应用为王,尤其是以尽量低的成本把业务快速落地的这一大趋势紧密相关。

那么问题来了,大模型玩家们何以在又快又好又省之间做到平衡?

这就回到了那个避不开,同时又是成本里占绝对大头的因素——算力。

国产大模型第一梯队玩家,为什么pick了CPU?

现在提及大模型的训练和推理,很多人的第一反应或许就是想到了GPU。

诚然GPU在高性能上占据着一定的优势,但它所存在“硬伤”也是比较明显,那便是供应不足价格昂贵

何以破局?国产大模型第一梯队玩家百度智能云千帆大模型平台,就给出了自己的一个更具“效价比”的解法:

国产大模型第一梯队玩家,为什么pick了CPU?

具体到算力的部署上,百度智能云AI与大模型平台总经理忻舟认为:

国产大模型第一梯队玩家,为什么pick了CPU?

一言蔽之,在大模型时代,CPU甚至比以往更加重要了,而且是能让大模型和应用做到“快好省”落地的关键因素之一。

那么具体“上岗”效果又是如何,我们继续往下看。

国产头部大模型玩家,pick了CPU

国内AIGC应用爆发,这其中,百度智能云千帆大模型平台功不可没。

作为企业使用大模型的”一站式”服务平台,千帆大模型平台自去年3月发布以来已有超12万客户使用,累计调优模型2万个,孵化应用4.2万个。

这些应用覆盖教育、金融、办公、医疗等众多场景,为行业数字化转型提供了有力支撑。

教育领域,千帆大模型平台赋能了试题生成、在线批改、题目解析等应用,大大提升了教学和备考效率。

例如用户可以提供参考材料,设定题型和难度,平台就能自动生成高质量的试题。而交互式的题目解析,则可以针对每位学生的薄弱环节,提供个性化的学习指导。

办公场景,千帆大模型平台与业内头部企业合作,共同打造了智能写作助手等创新应用,能够根据用户输入的关键词,快速生成招聘文案、营销方案、数据报告等专业文档。

还可以专注于各类写作场景,可以智能生成论文大纲、项目汇报、品牌宣传稿等,大大提升了行政和营销人员的工作效率。

医疗健康是千帆大模型平台的另一大应用赛道。基于医疗知识库训练的模型,可以自动生成体检报告解读,用通俗易懂的语言向用户解释各项指标,并给出个性化的健康指导。

这让普通大众也能更好地了解自己的身体状况,实现”健康自主管理”。

可以看到,千帆大模型平台在多个领域实现了AI模型的”最后一公里”落地。

那么千帆大模型平台是怎么支撑如此多AI应用的呢?

答案是:让CPU成为客户的选择之一,让“效价比”的红利普惠千行百业

国产大模型第一梯队玩家,为什么pick了CPU?

之所以如此,百度智能云所给出的解释是:

国产大模型第一梯队玩家,为什么pick了CPU?

国产大模型第一梯队玩家,为什么pick了CPU?

至于效果,以Llama-2-7B为例,在第四代英特尔® 至强® 可扩展处理器上输出 Token 吞吐可达 100 TPS 以上,相比第三代提升了60%。

国产大模型第一梯队玩家,为什么pick了CPU?

Llama-2-7b模型输出Token吞吐

在低延迟的场景,同等并发下,第四代至强® 可扩展处理器的首Token时延比第三代至强® 可降低50%以上。

在将处理器升级为第五代至强® 可扩展处理器之后,较上代的吞吐可提升45%左右,首 Token 时延下降50%左右。

国产大模型第一梯队玩家,为什么pick了CPU?

Llama-2-7b模型首Token时延

并且千帆大模型平台团队根据实践经验还表示:

国产大模型第一梯队玩家,为什么pick了CPU?

不仅如此,利用充足的CPU资源,降低对于AI加速卡的需求,从而降低 LLM 推理服务的总体拥有成本 (TCO),特别是在离线的 LLM 推理场景中表现出色。

而且在千帆大模型平台上,可不止是有自家的ERNIE,还有很多主流的大模型都集成于此。

这也在一定程度上从侧面印证了第五代英特尔® 至强® 可扩展处理器在性能上的过关。

国产大模型第一梯队玩家,为什么pick了CPU?

英特尔第五代至强,如何让性能和效率变得Pro Max?

百度智能云千帆大模型平台,不止需要大模型推理一种工作负载,它其实是一个覆盖大模型全生命周期的平台。

具体来说,千帆大模型平台提供数据标注,模型训练与评估,推理服务与应用集成的全面功能服务,以及快速应用编排与插件集成,助力大模型多场景落地应用。这样一来,比起专为大模型推理部署专用加速器,充分利用平台已广泛部署的CPU资源,就是更划算的选择了。

对于千帆大模型平台上存在的大量离线大模型应用需求来说,如生成文章总结、摘要、评估多个模型的效果等,这类需求对推理的时延要求其实不高,但内存容易成为瓶颈。

采用CPU来做,扩展内存更方便,还可以利用起平台闲时的算力资源,进一步提高资源利用率,起到降低总拥有成本的作用。

在这个大背景下,第五代英特尔® 至强® 可扩展处理器中的性能密集型通用计算应用负载(类似P Core性能核)的设计就尤为关键了。

与E Core(能效核)相比,P Core采用了追求性能最大化的设计,能承载非常重的负载,同时还兼顾了AI推理加速。

采用此设计的第五代至强® 可扩展处理器,在兼顾AI推理加速这一点上可不是说说而已,而是软硬件协同优化,各方面都考虑到位了。

硬件方面,英特尔® AMX(高级矩阵扩展)技术,正是为大模型推理重深度学习中大量的矩阵乘法运算专门优化的,可以理解成”CPU 里的 Tensor Core”。

有了英特尔® AMX,处理器每个时钟周期可完成高达2048个INT8运算,比上一代AVX512_VNNI指令提升8倍之多。

更重要的是,英特尔® AMX加速器是内置在CPU核心里的,让矩阵存储和运算更近,这一特性应用在大模型推理上,能够降低处理下一个Token的时延,让终端用户的体验更好。

国产大模型第一梯队玩家,为什么pick了CPU?

英特尔® AMX 可以更高效的实现 AI 加速

软件方面,百度智能云千帆大模型平台已经引入了针对英特尔® 至强® 可扩展平台深度优化的大模型推理软件解决方案xFasterTransformer (xFT),并将其作为后端推理引擎。主要优化策略如下:

充分利用 AMX/AVX512 等指令集,高效实现核心算子如 Flash Attention 等

采用低精度量化,降低数据访存量,发挥 INT8/BF16 运算的优势

支持超大规模模型的多机多卡并行推理

国产大模型第一梯队玩家,为什么pick了CPU?

英特尔® 至强® 可扩展处理器 LLM 推理软件解决方案

最后还要补充的一点是,要知道选择一种硬件平台,不止关乎于设备本身的采购价格,还会影响到后续的维护成本,甚至人才储备成本。

所以正如百度智能云所言,高性价比的算力基础设施,与先进的大模型算法和平台软件相辅相成,让上层的开发者们能够更加平滑地应用,构建他们的业务,才能最大化云计算平台的商业价值。

大模型时代,CPU大有可为

纵观当下,大模型正从实验室走向产业,从少数人的“玩具”变为大众可用的“工具”。

这意味着,大模型服务不仅要有优秀的性能表现,还要做到价格亲民、部署便捷。一言以蔽之,“快好省”成了大模型商业化的关键一环。

而要实现“快好省”,算力基础设施的选择至关重要

传统观点认为,专用加速器才是AI的“标配”。但在供应紧张、成本高企的背景下,专用加速器的优势正在减弱。

相比之下,优化良好的高端 CPU 不仅能提供足够应对大模型推理的算力,而且具有更广泛的部署基础和更成熟的软件生态、以及更好的安全保障,开始受到越来越多业界玩家的青睐。

以英特尔® 至强® 系列为代表的x86架构CPU,拥有成熟完善的软件生态和广泛的应用基础。数以百万计的开发者可以利用现有工具和框架,快速构建和优化AI应用,而无需额外学习专门的加速器软件栈,大大降低了开发难度和迁移成本。

同时,企业级用户还可以利用CPU内置的多层次安全技术,实现从硬件到软件的全栈保护,充分保障数据安全和隐私。这些优势,是当前专用加速器难以比拟的。

由此可见,充分利用CPU进行推理,让AI从“烧钱游戏”变为“普惠科技”,正是AIGC产业应对算力门槛,推动规模化应用落地的关键一招。未来,随着技术创新和生态完善,这一模式还将为更多企业创造价值,为产业发展注入新的动力。

除了直接加速推理任务外,CPU在完整的端到端AI管线中还能高效完成数据预处理、特征工程等AI全流程中的关键步骤。而支持机器学习和图分析的各类数据库,也主要是构建在CPU之上的。以至强® 可扩展处理器为例,除了英特尔® AMX之外,还有诸如英特尔® 数据保护与压缩加速技术(英特尔® QAT)、英特尔® 存内分析加速器(英特尔® IAA)等一系列数据分析引擎内置于处理器中,通过卸载特定任务使CPU得到更好的利用,从而提升工作负载整体性能,实现数据分析加速。

由此可见,构建“快、准、稳”的 AI 应用,既要靠专用加速器强大的算力,也离不开CPU超强的通用计算能力去释放整个系统的潜力

为了科普CPU在AI推理新时代的玩法,量子位开设了《最“in”AI》专栏,将从技术科普、行业案例、实战优化等多个角度全面解读。

我们希望通过这个专栏,让更多的人了解CPU在AI推理加速,甚至是整个AI平台或全流程加速上的实践成果,重点就是如何更好地利用CPU来提升大模型应用的性能和效率。(量子位)

2345热点资讯怎么卸载(2345开机新闻弹窗怎么删除?)

2345热点资讯怎么卸载(2345开机新闻弹窗怎么删除?)最近在家玩植物大战僵尸,好嘛下载一安全,自动给我装了5个软件,瞬间回到10年前,那时无论百度还是腾讯或者360,都喜欢这种病毒式的推广。一看安装的软件,原来都是2345这家公司出品,好像还挺出名,这里顺便给2345的管理层提个醒,现在你还在用这种下三滥的手段,恐怕会适得其反。反正问了几个朋友,一听2345就骂,不过朋友也不知道该怎么处理。今天就给大家讲一讲“今日热点”弹窗。这个弹窗是2345看图王自带的,开机新闻弹窗。的确开机新闻弹窗十分隐蔽,不太好清除,用过腾讯管家、360扫描了半天都没结果,因为这个东西是一个绿色版,很难查找到他在何处。一、 进入任务管理器:CTRL+ALT+DEL键三键一按,然后选择任务管理。二、定位软件在硬盘中的位置看窗口中的进程名为“看图王”的或者包含有2345几个字的,在上面点击鼠标右键,选择“打开文件所在位置”,就会定位到该流氓软件在硬件中的位置。三、删除流氓软件删除的方法有两种直接将定位所在的目录用WINDOWS文件管器删除。具体方法是在相应目录上点击鼠标右键,然后点删除。如果第1种方法删除不掉,说明该目录有保护,可以用腾讯管家自带的文件粉碎功能删除,360应该也有此功能。点击“文件粉碎”进入后按提示操作即可。总结:对于此类流氓软件的通用处理办法。1、如果知道该弹窗来自于什么软件,卸载该软件就可一同卸载。2、如果还是存在,则采用上文的内容进行处理,方法大同小异。

SHOPLINE助力DTC品牌出海 赋能首单转化

据数据统计,在过去90天内,共计1601家商家从其他电子商务平台转移至SHOPLINE。尤为瞩目的是,2023年中国DTC品牌出海TOP 5中,有3家品牌选择与SHOPLINE同行,踏上全新出海航程。对于商家,顾客首次访问即完成下单是衡量营销成功、客户满意度和网站体验的关键标准,更是商家即时收益的直接来源。同时,相关数据还能为商家提供洞察,帮助优化产品、定价、营销策略和用户体验,构建长期的竞争优势。SHOPLINE 深知中国跨境商家在一次转化中面临的转化洞察、广告投放、营销获客等核心痛点,提供了更易用、强大且独特的解决方案。(一)7层转化漏斗深度洞察:锚定优化策略通常来讲,一次转化沉淀的数据是未来销售策略的“重要资产”。然而,海外商家由于流量属性的不同,对流量转化的细节关注度不及中国跨境卖家。因此,在电商最关键的转化率分析上,他们的数据粒度相对粗放,而 SHOPLINE 为客户提供更细致的转化漏斗,以更精细化的方式指导运营。SHOPLINE 提供了 7 层转化漏斗,为商家提供更加全面的转化分析看板,帮助商家深度透视顾客消费旅程,配合转化摘要与各阶段数据,可深度洞察到流失风险机会点,让运营优化动作更具针对性,极大提升运营效率。同时,SHOPLINE提供桑基图展示7 个节点的转化表现,直观地揭示顾客在购物旅程中的每一步转化情况。商家能一目了然地看到流量如何在不同的营销触点之间流动,从而更精准地评估每个环节对整体销售的贡献,使得商家能够更好地平衡连带销售和转化率,优化营销策略,实现最佳的投资回报率(ROI)。(二)独家全链路数据归因:精准触达目标在独立站的经营中,广告投放可以说是最重要的环节之一,尤其在前期缺乏自然流量的情况下,广告的付费流量是为店铺带来订单的绝对主力军。SHOPLINE 重磅推出全链路数据归因,结合自研的广告数据上报助手,为广告投放提供更实时、更精准的数据回传和运营成效。全链路数据归因是一种先进的营销分析技术,它通过追踪和分析消费者在购买过程中与品牌接触的所有触点,来确定每个触点对最终转化的贡献。 目前,跨境 SaaS 行业中,普遍提供较为常见的首次归因、末次归因或线性归因。而SHOPLINE 为跨境独立站商家提供额外的选择,「全链路数据归因」,在底层针对每个访客进行标记,记录每个访客30天内的行为,把转化归因到每个流量渠道。在此基础上,SHOPLINE 开发的「广告数据上报助手」,不仅依托了全链路归因逻辑,以广告投放 URL 访问后产生的会话为起点,全面追踪接下来30天内顾客的关键行为——从商品浏览到加购,再到结算,深度分析洞察广告真实影响力。同时针对数据漏报问题,即时回传店铺成效订单数据到 Facebook 广告后台,帮助投手精准评估广告效果。通过服务器端数据回传,有效解决了流量媒介和 iOS 等隐私政策带来的广告数据丢失问题。这使得线下店铺的 POS 业务能够通过 Offline Conversion API 将线下交易数据上传至 meta 平台,以更准确地定位目标人群画像,并实现广告的精准推送,优化广告效果。在线下,SHOPLINE 也始终与 meta 保持高频的沟通,相比同行,meta 提供了额外的12个上报字段,在 iOS 隐私政策的条件下,能够帮助投放算法更好的识别人群标签。meta 官方团队到访 SHOPLINE 广州研发中心对于布局多个渠道的商家,涉及到店铺引流、社交媒体、红人营销等触点,商家可以实时评估不同渠道的贡献度,从而及时调整资源分配,找到最有效的广告策略和内容。尤其在旺季高峰,全链路数据归因是帮助商家更好地应对激烈的市场竞争,充分利用广告投放提升转化,最大化旺季销售业绩的关键利器。(三)营销活动 All in One:轻松打开流量之门在引流阶段,商家为了实现多样化的营销活动,往往需要安装多个插件,不仅增加了管理的复杂性,还可能影响网站性能和用户体验。因此, SHOPLINE 自主研发了多合一营销工具:「Marketing-All in One」,不仅整合了所有独立站常见的营销活动,聚焦转化率提升、利润增长、客户运营和裂变营销四大场景,展示了每类场景的核心店铺数据、预期增长以及配置前后的对比数据。商家可以轻松选择预设的解决方案,仅需安装一个插件,就可以轻松完成多样化营销活动的配置。以提升转化为例,商家可以为折扣活动设计自定义样式,提高在商品详情页、购物车等页面的活动曝光;利用免运费、限时促销等活动,鼓励客户快速下单;打造店铺内购物氛围,设置购物动态、倒计时等,营造购物紧迫感;重要的大促期间,在店铺增加氛围感,提升旺季高峰的店铺转化。如果想要提升利润、增强客户深度运营、或增加裂变营销玩法,也可以在插件内轻松定位需要的营销目标,找到对应的营销玩法轻松配置。更Marketing-All in One 还结合了 AI,能够根据站点数据,预测需要提升的部分。插件由SHOPLINE 自主研发,更好地确保了功能的一致性和网站的快速加载。商家无需再花时间比较和测试多个插件,也不必担心售后问题,从而可以更专注于业务发展。
标签:热点资讯
>推荐阅读 >特别推荐 >火热推荐