asp服务器软件-百度首个自研万卡集群点亮,上架DeepSeek直降3折全网最低!降低AI算力门槛

【新智元导读】国内首个自研万卡集群,刚刚成功点亮!国产AI的高价门槛直接被打下来了。在百度智能云渠道上,DeepSeek R1和V3的官方价格直接低至五折和三折,基本完成全网最低。
在全世界都在加码AI研制之际,国内传来了一个振奋人心的消息——
百度智能云成功点亮了首个自研万卡集群。
这台由昆仑芯三代组成的「超级巨兽」,正式宣告我国在AI算力上迈出的重要一步。
这也成为DeepSeek后,本土化AI的又一重磅发布!
更令人等待的是,百度智能云宣告将进一步扩展规划,方案点亮3万卡集群。
这不仅仅是一个数字的跃升,更是我国科技实力的又一次证明。
万卡集群为什么重要?
asp服务器软件,跟着o1、R1等「推理模型」的兴起,测验时核算、强化学习等过程,让模型的功用完成了持续性的提高。
与之相伴的,则是对算力更大的需求。
图片
为了让自己的模型不在AI争霸中落后,全世界的AI公司都在竞相抢购GPU并争夺数据中心资源。
OpenAI曾与微软达成了约140亿美元的战略协作,其间就包含了很多的算力配额。还有「星际之门」项目,4年5000亿美元,要在全美建造20座超算。
Anthropic也获得了亚马逊80亿美元的出资,其间包含了一个配备超10万枚专用AI芯片的全新算力集群的使用权。
xAI具有配备了超10万块GPU的全球最大超算——Colossus。并且,依照CEO马斯克的设想,这一规划还将扩展到惊人的100万块。
图片
前段时刻,纳德拉曾在采访中称,今年微软方案在AI基础设施中出资800亿美元。
还有小扎公开表示,Meta将在今年加码650亿美元,全部用于人工智能基础设施的建造中。
昨天,谷歌公布的2024Q4财报中,透露了方案今年在AI比赛中斥资约750亿美元,较上一年323亿美元,大幅飙升。
图片
不难看出,在人工智能scaling law进程中,亘古不变的是对算力的出资。
从这一点来说,万卡集群的建成无疑意义严重。
首要,超大规划并行核算才能,可以完成练习功率的跃升。
这样,万卡集群就能将千亿参数模型的练习周期大幅下降,让AI原生使用快速迭代。
第二,它还能支持更大模型与杂乱使命和多模态数据,支撑Sora类使用的开发。
第三,它还能支持多使命并发才能。经过动态资源切分,单集群就能一起练习多个轻量化模型,经过通讯优化与容错机制减少算力浪费,完成练习本钱指数级下降。
而百度万卡集群,就全面覆盖了以上长处。
它就像一只练习有素的「天团」,经过智能调度和资源优化,让练习本钱呈指数级下降。
百舸4.0开路
然而,组建这样一支「天团」并非易事。
多芯混训、激增的故障率等难题,成为万卡集群布置过程中面临的巨大应战。
可以说,从硬件到软件,技能应战是全方位的。
百度的秘密武器在于——百舸AI异构核算渠道4.0(百舸渠道),专为十万卡集群布置而规划。
它在2024年9月得到了全新晋级,环绕落地LLM全旅程的算力需求,在集群创立、开发试验、模型练习、模型推理四大方面,能为企业供给「多、快、稳、省」的AI基础设施。
图片
首要,它突破了硬件的扩展性瓶颈,比如卡间互联的拓扑限制,这样,就避免了通讯带宽成为瓶颈。
一起,它还解决了万卡集群的超高功耗与散热问题。
可以说,百舸4.0就像是一位神通广大的总指挥,因为选用立异散热方案,让集群不会因太热停工。
第三,它完善了模型的分布式练习优化。
经过选用高效并行化的使命切分战略,它直接将集群的MFU提高至58%,让每一分算力物尽其用。
第四,它大大提高了安稳性。
在这方面,百舸供给的容错和安稳性机制,完成了98%的有用练习功率。
百度自研的BCCL(百度调集通讯库)可以快速定位故障,并供给自动化容错才能,将小时级故障恢复时刻下降至分钟级。
终究,百舸4.0针对机间通讯带宽需求,构建了十万卡级的超大规划HPN高功用网络,优化拓扑结构,终究完成了覆盖几十公里的超大规划网络,让带宽有用性到达90%以上。
在通讯功率方面,经过领先了拥塞控制算法和调集通讯算法,万卡集群彻底无堵塞,并经过10ms等级超高精度网络监控,确保了网络的安稳性。
针对多芯混训,百舸4.0更是展示出强壮的资源整合才能。
不同地点、不同规划的异构算力,它都能进行统一管理,构建起「多芯资源池」。
当事务提交工作负载时,百舸能智能匹配最优芯片,根据集群的实时剩余资源,动态选择性价比最高的芯片执行使命。
这样一来,可以最大化利用剩余核算资源,完成高达95%的万卡多芯混合练习效能。
在这个国产中,百度自研的AI芯片昆仑芯,也证实了自己独特的技能优势。
可以说,在百舸4.0才能的加持下,昆仑芯展示出了自己的生成式AI年代强壮的竞争力。
这种突破性的立异,让花旗银行都为之惊叹。
在其最新研报中,它将百度与DeepSeek并排,以为我国AI企业具有了高效低本钱优势,这将加快全球AI技能立异,推进2025年迎来AI使用的重要拐点。
2025,AI使用拐点将至

目前,根据百舸4.0,我国石化、中海石油、上交大、生数科技等职业龙头企业和机构在自身事务场景中,为用户供给了愈加安稳智能的体验。
AI视频
以生数科技为例,最新Vidu1.5大模型,仅需30秒,就能让一句话变成视频。
提示:小男孩对着镜头笑,眨眼睛,手里握着金色戒指
要知道,视频大模型对算力、模型和数据的要求非常之高,这往往是困扰企业的中心难题。
而Vidu之所以可以生成如此丝滑的视频,背后便依靠的是百舸高效、安稳、混合多芯的才能。
在此过程中,百度百舸·AI异构核算渠道为生数科技Vidu大模型供给了系统性、端到端的多模态大模型练习支持。
得益于百舸在LLM练习方面的硬核实力,Vidu练习功率大幅提高,其资料烘托加速效率提高3倍,数据拉取功率提高51倍。
在短时刻内,生数科技得以完成了Vidu的上线和敞开API。
并且,无论是Vidu的文生视频和图生视频,都确保了高动态性、高逼真度和高一致性效果。
而与生数科技的协作,仅仅百舸多模态才能的一个缩影。在未来,它还将为千行百业供给强壮、牢靠的多模态才能。
科研
在与高校上交大协作中,以百度智能云中心才能,「全家桶」解决方案构建了AI for Science科学数据开源敞开渠道,率先在国内完成GenAI与科研场景的深度融合。
可以说,AI for Science科学数据开源敞开渠道是百度智能云归纳才能的体现。
在算力层,经过百舸端到端优化的异构算力底座,为上交大科研人员供给练习、推理网络的算力优化配置,完成练习和推理加快,大幅提高了研讨功率。
教育
另外,百度智能云还为好未来自研的「九章大模型(MathGPT)」供给了关键支撑,推进大模型深入教育场景。
因而,好未来才能快速、方便地创立千卡等级的训推使命集群。
具体来说,百度百舸·AI异构核算渠道能完成单集群总量超越500TB,可为练习使命的模型、数据加载供给高功用的数据读取与传输确保,大大提高使命的时效。
面临不同的大模型练习场景,渠道还能在运转结构和实践中,从核算效能、显存战略、分布式并行战略等方面进行优化,提高模型练习功用。
LLaMA2系列、GLM系列等多尺寸模型都到达了练习指标,千卡使命加快比保持在90%,模型算力利用率(MFU)60%—70%,在有限的算力条件下,大幅下降了练习时刻。
现在,经过功用丰厚、功用卓越的百度百舸·AI异构核算渠道,「九章大模型(MathGPT)」现已广泛使用于学而思旗舰学习机及多个事务场景中。
不久,我们将会看到更多根据百舸4.0加持万卡集群的AI智能使用锋芒毕露。
万卡集群点亮,国产AI迎来新年代
前有DeepSeek贱价震撼全球,今有百度昆仑芯三代万卡集群点亮。
从此,国产AI价格高、无法安稳使用等难题将逐个破除,企业开发使用和工业立异的门槛,再一次被打下来了。
不仅如此,DeepSeek两款最强模型R1和V3一起在千帆ModelBuilder渠道上线,R1API价格打骨折,V3调用打3折,堪称全网最低。
并且,百度还供给了2周限时免费服务。
这一极具性价比的优势,正是得益于百度智能云万卡集群的搭建。
图片
在AI开展战略上,百度有着清晰的定位,即聚焦基础设施建造。
他们期望协助更多用户打造归于自己的Sora,创造出无数个超级有用的多模态使用。
这条道路,也获得了市场的认可。
上一年1-8月,大模型中标项目数量现已到达2023年全年的5倍,不仅职业覆盖广泛,并且央企国企客户占比超一半。
作为我国自豪,百度以强壮的算力优势和本钱效益,为国产AI的开展再次注入新的活力。
我国AI,就是这样拿手花小钱办大事!
从此,不仅是AI职业,整个我国科技界和互联网职业都将迎来全新的开展机遇。