外贸网店系统,字节跳动与科大讯飞:大模型之战的AB面
走过近两年的竞速赛后,我国大模型赛道正加快迎来分解。
分解首要体现在大模型草创公司的途径挑选上。2024年,一度招引了更多公众关注的“大模型六小虎”,开始走向不同的方向。
百川智能转向了职业大模型;月之暗面和MiniMax的战略优先级是C端产品和使用;零一万物采取了“大厂+小虎”的协作范式,它将超大模型交给阿里练习,自己负责小参数、适中的职业模型;智谱AI和阶跃星辰,则仍然聚集AGI大模型。
从这个旁边面看我国大模型产业,一个越来越清楚的事实是,“百模大战”正加快落潮,从草创企业到大公司,简直所有的玩家都在思考:在大模型和AI的浪潮中,自己应该承当怎样的人物,技能该怎么更好落地、该聚集国内商场仍是出海,以及怎么创造出差异化价值。
而无论是To C仍是To B,面向2025年,业界现已达成了新的一致——接下来,大模型将继续走出同质化,进入到既拼技能实力、也拼落地发展、还拼商业化的阶段。
根据2024年的商场体现来看,字节跳动和科大讯飞,是两个值得要点讨论的样本。
字节跳动曩昔一年在C端体现抢眼,出现出后来者居上的姿势。现在,全球范围内,从月活规划看,豆包App现已成为仅次于OpenAI的ChatGPT的AI使用。
另一边,外贸网店系统,科大讯飞在To B赛道出现出了领跑之姿。
第三方组织智能超参数发布的《我国大模型中标项目监测陈述(2024)》指出,2024年,在通用大模型厂商中标排行榜中,科大讯飞以91个中标项目、披露中标金额84780.8万元,排名榜首,成为2024年度标王——从披露的中标金额来看,它是百度的两倍、智谱AI的八倍。
图片
图源智能超参数
在这背面,作为我国大模型产业现在分别在C端和B端的领头羊,他们走过的路都不轻松,但都具有必定的启示含义。
大模型的两条赛道上,
科大讯飞、字节跳动各自领跑
在大模型赛道上,字节跳动入局不算早,但发展速度很快。
据DataEye研究院不彻底计算,2024年8月至今,字节跳动在AI范畴一共推出了包括豆包大模型宗族在内的17款大模型、2个智能体开发渠道。
字节旗下更多的C端AI使用也在加快推出。2024年以来,字节跳动在国内外现已推出了包括豆包在内的20余款App,覆盖了AI聊天帮手、AI视频工具、AI文娱使用、工作等多个范畴。
图片
图源浙商证券
这对应的是,字节跳动沿用了曩昔“大力出奇观”的战略打法。浙商证券计算,2024年字节跳动在AI上的本钱开支达到了800亿元,乃至挨近百度、阿里、腾讯的总和(约1000亿元)。
商场研究组织Omdia的研究也显现,字节2024年收购了约23万张英伟达芯片,成为仅次于微软的英伟达全球第二大买家。
在更大力度的投入、更广泛的布局下,字节跳动在这一年里灵敏完成了在C端使用上的赶超。
到11月,豆包App的月活泼用户数现已挨近6000万,MAU增速达到了16.92%。
另一个视角里,在较难被普通用户感知到的大模型To B商场,科大讯飞则步步为营,堆集起了抢先优势。
与字节跳动的“后发先至”不同的是,大模型浪潮袭来今后,科大讯飞某种程度上归于“先发先至”。
2022年底OpenAI发布ChatGPT今后,科大讯飞在大模型布局上快速跟进,并在接下来两年时间里,快速确定了技能思路和技能道路,并完成了多轮技能迭代。
OpenAI发布ChatGPT仅仅半个月后,科大讯飞就现已决定,要把资源压上去做大模型,一起其还提出,做大模型要做“1+N”,“1”是指通用认知智能大模型,“N”是指在教育、工作、轿车、人机交互等各个范畴落地。
其时,科大迅飞快速拉通了中心研发渠道15个方向的团队,专门成立了大模型专项组,内部又分红四个项目组,分别专注于“算力和练习结构”“数据构建”“推理结构和服务”“算法研发及大模型研制”,科大讯飞研究院院长胡国平后来回想,“这么大规划的‘会战’在讯飞研究院历史上也是少有的。”
在那之后,科大讯飞的讯飞星火大模型加快迭代。
1月15日,科大讯飞正式发布了星火深度推理模型x1,一起首发了星火语音同传大模型。此外,讯飞星火4.0Turbo的底座才能和职业才能也完成了再次晋级。
图片
稍早一些,科大讯飞发布了讯飞星火4.0Turbo,七大中心才能全面超过了GPT-4Turbo,数学和代码才能超越了GPT-4o,国内外中英文14项干流测验会集完成了9项榜首。
从大模型的落地发展来看,科大讯飞也走在了职业前列。
一方面,如咱们上文所述,2024年,科大讯飞是通用大模型厂商中的“标王”;
另一方面,同样在2024年里,科大讯飞的星火大模型还斩获了六项“榜首”:央国企中标榜首、教育医疗商场榜首、智能轿车商场榜首、大模型开发者生态榜首、智能硬件商场榜首、赋能科研使用榜首。
由此不难发现,经过两年的跑马圈地后,在To C和To B这两条道路上,职业格式已然清楚——字节跳动和科大讯飞,率先跑在了前列。
“中标”背面,
科大讯飞和字节跳动怎么解题?
客观来看,无论是字节跳动在大模型C端使用上的“逆袭”式反超,仍是科大讯飞在B端的落地探究,都不轻松。
对To C的大模型使用而言,首要是推理本钱高,紧接着厂商在考虑产品商场匹配度时,要考虑到技能需求、技能难度和本钱等因素,还需求把握时间窗口,此外在探究商业化途径时,比较国外,国内用户的付费志愿也相对较弱。
也便是说,想要做出一款好用的、用户爱用的大模型使用,意味着更高的投入本钱,以及不确定的回报周期,这也是为什么,这两年许多大模型创业公司都将视角转向了海外。
怎么继续招引到新用户,并提高用户留存率,则是另一重挑战。
从字节跳动在大模型范畴的积极布局来看,它显然期望自己能成为做出更多爆款使用的先行者,潜在机会也更大。
一来,字节跳动不缺资金、不缺技能、不缺人才、也不缺投入的决心;
二来,字节跳动早些年在移动互联网年代成功To C的经验,现在也成了它的差异化优势。比方比起比赛对手们,字节有更充足的流量可以支撑使用的快速起量。
最后,现在的字节对用户需求也在变得愈加敏锐,反应速度也变得愈加灵敏了。
12月11日,据媒体报道,字节提高了即梦的产品优先级,尝试用新的途径打造AI年代的“抖音”——即梦AI隶归于字节跳动旗下剪映事务,定位是AI内容渠道,支持经过自然言语及图片输入,生成高质量图画及视频。
据悉,字节方案后续把更多资源向更多模态的产品形态搬运,即梦会承当更大的期望。
再来看B端。现在大模型的比赛已陆续进化为体系之战——要构建起一个企业真正能用的大模型,需求具有构建算力、数据治理、模型练习、场景执行、使用搭建、继续运营、安全合规整套才能,还要会打造各种规范化软件产品,比方数字人、客服帮手、代码帮手等,以及场景落地中的软硬结合产品。
简略来说,大模型在B端的落地,难就难在“交付”,需求大模型厂商首要成为一个“六边形兵士”。
从企业的视角来看,现阶段咱们对大模型的诉求也在变得愈加务实,不只关注模型技能的抢先性,也要看怎么交融到事务场景,怎么降本增效处理实践问题。
图片
图源《2024我国职业大模型商场陈述》
科大讯飞的解题途径,为咱们供给了一个透视大模型落地B端的观察窗口。
“为什么咱们中标数量榜首,并且中标份额越来越高?因为许多企业只能做到第三步即练习模型,后面的几步与咱们差距很大,即使能做到,他们实践上整理数据和练习模型的才能,与咱们差距也很大。”科大讯飞创始人刘庆峰此前如此表明。
这对应的是,科大讯飞为企业大模型构建供给了顶层规划到执行落地的全套处理方案:“建算力、理数据、训模型、落场景、保安全、精运营”。
在算力层面,2023年时,科大讯飞和华为联合做了我国榜首个万卡算力集群“飞星一号”,在昇 腾 910B的根底上,攻克了许多疑难杂症,处理了500多次根底软硬件问题、模型适配问题等,使得大模型练习从对标A100/A800的20%-30%提高到了90%以上。
2024年10月,科大讯飞联合华为、合肥市大数据资产运营有限公司打造的国产超大规划智算渠道“飞星二号”,也正式启动,将带来新模型新算法的继续适配,以及智算集群规划的再次跃迁。
刚刚发布的深度推理模型X1,正是根据“飞星一号”打造了彻底适配华为昇腾算力的深度推理模型练习结构,突破了树查找加快、异步推理调度等技能难题,用更少算力完成了业界一流作用,多项目标国内榜首,是国产算力集群对标英伟达集群的又一关键里程碑。
在“理数据、训模型”层面,科大讯飞完好的工具链也大幅提高了功率——数据清洗功率提高了24倍、数据构建功率提高了90%、场景优化的均匀作用提高了30%、常识采编功率提高了5倍。
再到更关键的职业场景落地中,到2024年10月,科大讯飞现已与各头部企业共建了20多个职业大模型,覆盖了超300个使用场景。
刘庆峰还说到,这些现已落地的实践使用案例,现已形成彼此学习和复用的规划效应,“每个企业搭建后,咱们都会找到许多可复用的给其他企业。许多央国企头部企业在这个职业做完后,可推行给全职业,也可以在不同职业彼此学习。”
由此可以预见,讯飞星火大模型在B端的落地,某种程度上像是星星之火,从长远视角来看,或将为科大讯飞带来更充足的幻想空间。
商业化大考在即,
领跑者加快迈向“正向循环”
大模型竞速赛走到现在,另一个越来越清楚的事实是,淘汰赛已然陆续演出。
这一布景下,无论是To C商场仍是To B商场,在日益白热化的商场比赛中,抢先者继续保持比赛优势、追逐者抹平分差奋起直追的途径,根本只要一条:
保持在技能侧的敏锐度,在迭代和晋级速度上打“持久战”,做好大模型技能与使用、场景的交融。
这也正是科大讯飞和字节跳动正在做的事情。
前段时间的科大讯飞全球1024开发者节期间,除了发布讯飞星火4.0Turbo外,科大讯飞还首发了10项根据讯飞星火底座才能的产品与创新使用:
包括界说了多模AIUI规范,发布超拟人数字人,发布星火多言语大模型、讯飞星火医学影像大模型、轿车端侧星火大模型,等等。
再到1月15日,科大讯飞又迎来了多项新的技能晋级。
它发布了星火深度推理模型X1,是当时业界全国产算力渠道上仅有的深度推理模型。此前X1参加了小初高(含比赛)、大学(含比赛)、AIME、MATH500多多项考试,交出了亮眼的成绩单:用更少的算力,达到业界一流作用,多项目标国内榜首。
此外,科大讯飞也发布了国内首个具有端到端语音同传才能的大模型——星火语音同传大模型。
星火语音同传大模型支持不一起延的翻译形式,在长达5H的音视频测验中,8s时延形式在内容完好度、信息准确度等评价维度超过了谷歌的Gemini2.0、OpenAI的GPT-4o等国外干流大模型。
根据不同职业龙头企业的落地诉求、C端2亿多用户的实在反应,讯飞星火4.0Turbo也进行了新一轮晋级,在七大中心才能上完成了全面提高。
图片
其中,讯飞星火4.0Turbo晋级版的文本生成才能提高了3.2%、言语理解才能提高了4.5%、常识问答才能提高了4.7%、逻辑推理才能提高了2.6%、数学才能提高了10.5%、代码才能提高了3.5%、多模态才能提高了1.6%。
此外,在长文本才能和图文才能上,讯飞星火也进行了晋级,还首发了混域常识查找技能——无论个人常识、企业常识、事务体系数据、精品职业数据,仍是互联网信息,一次发问,可以拿到归纳查找后的结果,信息查找的功率完成了极大提高。
可以看到,根据底座才能的继续晋级,科大讯飞在B端不同职业不同场景的落地广度还在拓展,深度还在延展,价值也在继续释放。
在医疗职业,根据讯飞星火医学影像大模型打造的智能医学影像帮手,在智能质控环节能协助影像技师快速评估图画质量,及时纠正问题;在智能确诊环节,能协助影像医生快速生成确诊陈述;在智能读片环节,也能经过相关问答,协助临床医生制定诊疗方案。
在司法场景里,法律大模型能赋能庭审笔录制作、裁判文书编写、法条类案检索等司法场景,和星火通用大模型比较,功率提高从61.7%提高到了87.9%。
这一过程中,科大讯飞对大模型落地途径的长远规划,也想得更清楚了。
比方在让大模型的才能更好落地上,刘庆峰此前表明,“今天是一个通用模型和专用模型相结合、端侧模型和云端模型相结合、软件和硬件相结合的、全新的大模型落地年代。”
比方它不只仅是期望自己可以成为大模型浪潮中走得走快的一家,也期望协助更多企业走的更快。首个同传大模型助力我国企业出海,便是一个鲜明的比如。
字节跳动当下正加快构建的,某种程度上也是这样一条“正向循环”的未来途径——
经过更大规划、更大决心的投入,推动大模型技能的快速迭代与晋级,进而赋能到C端用户、B端客户,哪怕C端用户的回报周期相对较长,但用耐心交换未来,再用商业化反哺技能投入。
而在技能这一基石之上,字节跳动做C端使用的逻辑,与科大讯飞深化B端的逻辑,本质上是类似的——科大讯飞在尽力离客户更近、字节跳动在尽力离用户更近。
这种做产品和服务的姿势,是字节跳动简直只用半年时间就后发先至的本源,也是科大讯飞“抢先一步,超前一路”的本源。