北京电信通-北京新网互联-字节“扣子”正式加AI战场!2024年的大模型能否实现弯道超车?
2月1日,一直在AI领域坚持静默状况的字节跳动忽然出现了大动作,正式推出AI谈天机器人构建途径Coze的国内版——纽扣。
图片
与过往谈天机器人的形式不同,“纽扣”更像是2023年11月Open AI发布的GPTs,能够让用户通过谈天,调用插件等方法,创立个人定制版Bot,完成“0代码”开发。这意味着无论用户是否具有编程经验,都能够在“纽扣”上快速创立各类谈天机器人,并一键发布到不同社交媒体与音讯使用傍边,比如飞书,微信公众号,豆包等途径都是支撑的。
如此来看,“百模大战”并没有因为2024年的到来而消声匿迹,反而还不断涌现出新的选手。咱们不禁猎奇,在2024年大搞大模型,还能否有时机完成弯道超车?
纽扣主打4大中心优势,未来将聚集AI使用层拓展。
依据官方介绍,纽扣主要具有4大中心优势。
首先,它具有无限拓展的才能集。现在,纽扣已集成超越60款不同类型的插件,且支撑用户自行塑造自定义插件。用户能够通过参数配置的方法,用已有的API才能快速打造插件,以此让Bot调用。其次,纽扣覆盖了丰厚而易操作的数据源,能够充任简便的知识库,协助用户管理数据与存储数据。无论是庞大的本地文件,(北京电信通)抑或来自某些网站的实时信息,都能够上传到知识库。而且,纽扣具有持久化的回忆才能。能够供给便捷的AI交互数据库回忆功用,能够持续回忆用户对话的关键参数或内容。最终,纽扣的灵敏工作流设计也值得一提。他不仅能处理逻辑杂乱,对稳定性要求较高的任务流,还能够供给多种灵敏可组合的节点,包含大语言模型LLM,自定义代码,判别逻辑等。不论你是否有编程基础,都能通过简略的拖拉拽方法快速搭建一个工作流。
到现在,纽扣Bot商铺现已具有了30多款不同的使用,包含东西,娱乐,咨询,构思等类目,能够供给卡通头像生成,简历确诊,案牍输出等才能。也正因而,纽扣还被外界称为是“平替版GPTs商铺”。
图片
纽扣是字节跳动旗下新部门Flow的著作。
自上一年11月,字节跳动忽然成立了专注于AI立异事务的新部门Flow,并相继发布了豆包和Cici,现在再次强势上线纽扣,Flow可谓动作一再,实绩不断。
据悉,Flow由字节跳动技能副总裁洪定坤担任技能负责人,字节大模型团队负责人朱文佳担任事务负责人。他曾在百度查找部担任主任架构师,是当时百度网页查找部技能副总监杨震的得力助手。外界遍及猜测,朱文佳之所以被选为Flow部门的事务负责人,便是为了协助字节跳动完成聚集AI使用层的意图。值得一提的是,纽扣现已成功进入了美国商场,而字节的其他几款产品尚未进入美国和欧洲商场。
大厂纷繁涌入,2024年的大模型赛道依然拥堵…
除了字节下场以外,其他大厂也在摩拳擦掌,摩拳擦掌。
1月21日,猎豹移动CEO傅盛创立的猎户星空发布了自己的大模型Orion-14B。傅盛着重,在企业使用场景中,猎户星空大模型在结合企业私有数据和使用时,即可完成千亿参数级别的模型效果。
而早在2023年,科大讯飞,360等企业就开端抢滩大模型赛道,并在2024年打开快速迭代。科大讯飞在近来发布了星火大模型V3.5,360则上线了大模型查找App“360AI查找”。(北京新网互联)无独有偶,手机厂商也纷繁涌入了大模型赛道。1月10日,荣耀发布了自研的70亿参数端侧AI大模型“魔法大模型”。自此,华为,小米,OPPO,vivo,荣耀5家国产干流手机厂商在大模型领域齐聚。
2024年AI工业预判:不是大模型玩不起,仅仅使用更具性价比。
不论现在大模型赛道的竞赛有多剧烈,说到底,咱们都更垂青未来,都要为大模型的尽头找条出路。2024年,关于大模型开展方针的认定,咱们几乎达成了共识:开展出杀手级别的使用。
百度创始人李彦宏就曾表明,“人类进入AI时代的标志,不是发生许多的大模型,而是发生许多的AI原生使用”。360创始人周鸿祎也在本年年初谈及大模型开展趋势时断言,2024年将成为大模型使用场景之年,会出现“杀手级使用”。
从某种程度上说,这也意味着,大模型与C端用户的间隔会越来越近。
仍是说回李彦宏,他曾在多个重要的公共场所表达了自己对AI使用开展的垂青。
2023年12月,在极客公园立异大会2024上,百度李彦宏给出了他关于AI职业的思考,“卷AI原生使用才有价值,大模型的发展对绝大多数人都不是时机”。
11月,在深圳西丽湖论坛上,李彦宏表明,“AI原生时代,咱们需求100万量级的AI原生使用,但是不需求100个大模型”。
为什么李彦宏要一再着重AI原生使用才是时机地点?
在大模型领域,OpenAI,Meta,微团等早早入局,抢占先机,所以,现在现已不是“最好的时分”。除此之外,苛刻的芯片控制和和昂扬的练习成本也是摆在各大厂面前一道不可逾越的鸿沟。
据悉,在芯片层,美国更新出口控制,英伟达A100/800、H100/800等AI芯片被约束销售。退一万步讲,即便芯片不受约束,大模型练习的天量投入,相同令人望而却步。硬件方面,一颗A100(80GB)芯片的售价高达1.5万美元,H100的单价更是炒到了4万美元,而练习一个千亿级参数的大模型,通常需求上万颗A100的算力。
而与昂扬投入相对应的,是充溢不确定的变现之路。以OpenAI为例,开发 ChatGPT和GPT-4亏损了约5.4亿美元,仅维持运行ChatGPT,每天就要投入大约70万美元。但在商业化方面,本年2月,Open AI推出AI谈天机器人订阅服务,每月收费20美元;8月又发布了企业版ChatGPT,面向B端和G端用户。尽管OpenAI创始人宣称公司均匀每月收入超越一亿美元,但实际盈余才能怎么,并没有切当答案。
头部AI公司尚且如此,国内这些还在暗自发力,尽力向上爬的大厂自不待言。
“做出怎么凶猛的大模型”并不是大厂们开展AI的终极寻求,怎么将技能实际落地,面向C端,打造出现象级使用才是要紧事。