互易中国-Google 扩展其漏洞奖励计划以增强生成式人工智能系统的安全性
Google 宣告,将扩展其漏洞奖励计划(VRP),以奖励研讨人员寻觅针对生成式人工智能(AI)体系的进犯计划,以增强 AI 的安全性和安全性。
谷歌,google
Google 的 Laurie Richardson 和 Royal Hansen 标明:「生成式 AI 带来了与传统数字安全不同的新问题,例如或许存在的不公平成见、模型操作或数据误解(幻觉)。」
互易中国,适用范围内的一些类别包含提示注入、训练数据会集敏感数据的走漏、模型操纵、触发误分类的对抗性扰动进犯和模型盗窃。
值得注意的是,Google 在本年 7 月早些时候成立了一个 AI 红队,以协助解决 AI 体系的要挟,作为其安全 AI 结构(SAIF)的一部分。
同时,作为致力于保证 AI 的许诺的一部分,Google 还宣告了经过现有的开源安全建议,如软件的供应链等级(SLSA)和 Sigstore 来加强 AI 供应链的努力。
Google 标明:「数字签名,如来自 Sigstore 的签名,容许用户验证软件是否被篡改或替换。」
「比如 SLSA Provenance 之类的元数据告知咱们软件中有什么以及它是怎么构建的,容许消费者确保容许兼容性,辨认已知的漏洞,并检测更高级的要挟。」
此项展开是在 OpenAI 开幕了一个新的内部准备团队,以「盯梢、评价、猜测和维护」针对跨过网络安全、化学、生物、放射性和核(CBRN)要挟的生成式 AI 的灾难性危险之际发生的。
两家公司,连同 Anthropic 和微软,还宣告了创立一个 1000 万美元的 AI 安全基金,专心于推动 AI 安全领域的研讨。