dns设置-为什么缩小大语言模型是生成式人工智能的未来?

本文概要:
1. 大型言语模型(LLM)在企业运用中存在显着应战,而较小的言语模型则能够更好地习惯企业需求。
2. 较小的言语模型能够在现有的安全环境中进行操作和练习,速度更快、精确性更高。
3. 较小的言语模型能够根据企业的敏感数据进行定制,与其他数据集结合运用,为企业供给更有价值的洞察力。
站长之家(ChinaZ.com) 8月15日 音讯:很多企业热衷于接入生成式人工智能,但像 ChatGPT 这样的大型言语模型 给企业运用带来了显着的应战。本月的一项 研究 发现,75% 的安排正在考虑或已经施行生成式人工智能使用的禁令,理由是安全、隐私和其他问题。练习大言语模型的昂扬本钱也 被视为采用的重大妨碍。
机器人写作AI写作AI记者
据报道,像 ChatGPT 这样的法学硕士 接受了超过1000亿个“参数”或决定模型行为的值的练习。这使得它们的制作和运营本钱极其贵重——练习 ChatGPT的估量本钱 为400万美元。
为了从生成式人工智能中获得价值,未来的发展方向在于更小的言语模型,它们仅需求更少的时间和资源来保护,而且能够在企业的安全云环境中进行操作。较小的言语模型能够针对更窄的任务集进行优化,从而实现更快速和更精确的结果。
与公共 LLM 不同,较小的言语模型能够经过练习企业最敏感的数据进行定制,而无需将数据输入到公共 LLM 中,因而安全和隐私风险较低。这些较小的模型还能够结合第三方数据源,如经济数据、商品价格、天气等,为企业供给更全面的洞察力。
未来,可能会呈现只有少量几个被广泛运用的基础 LLM,由 Meta、Google 和百度等技能巨头运营。较小的言语模型有着广阔的使用前景,能够在公司或部门级别供给有价值的洞察力,是释放生成式人工智能真正力量的关键。