Le 人工智能系统安全开发指南 它们旨在指导开发人员专门完成人工智能系统的设计、开发、实施和操作,并确保安全性仍然是整个生命周期的关键组成部分。 然而,人工智能项目的其他利益相关者也应该发现这些信息很有用。
世界领导人在 XNUMX 月初的人工智能安全峰会上承诺安全、负责任地发展人工智能后不久就发布了这些指南。
《开发安全人工智能系统指南》提出了建议,以确保人工智能模型(无论是从头开始构建还是基于其他公司的现有模型或 API)“按预期工作,在需要时可用,并且在不向未经授权的方泄露敏感数据的情况下工作” 。 “
其中的关键是 NCSC、CISA、美国国家标准与技术研究所以及其他各种国际网络安全机构在现有框架中倡导的“默认安全”方法。 这些框架的原则包括:
据NCSC称,共有来自21个国家的18个机构和部委已确认将批准并共同签署新指南。 这包括美国国家安全局和联邦调查局,以及加拿大网络安全中心、法国网络安全局、德国联邦网络安全办公室、新加坡网络安全办公室网络安全局和日本国家事件中心。 网络安全准备和策略。
NCSC 首席执行官林迪·卡梅伦 (Lindy Cameron) 表示 新闻稿 :“我们知道人工智能正在以惊人的速度发展,政府和行业之间需要采取协调一致的国际行动才能跟上步伐。 ”。
人工智能系统安全开发指南分为四个部分,分别对应人工智能系统开发生命周期的不同阶段:安全设计、安全开发、安全实施、安全运维。
该指南适用于所有类型的人工智能系统,而不仅仅是 1 年 2 月 2023 日至 XNUMX 日在英国举办的人工智能安全峰会上广泛讨论的“前沿”模型。该指南也适用于在人工智能领域工作的所有专业人员。围绕人工智能,包括开发人员、数据科学家、管理者、决策者和其他人工智能“风险所有者”。
“我们的指南主要针对使用组织托管的模型(或使用外部 API)的人工智能系统供应商,但我们鼓励所有感兴趣的各方……阅读这些指南,以帮助他们做出明智的设计决策、开发、实施和运营。人工智能系统”, 说: 国家网络安全中心。
在英国白金汉郡布莱奇利公园古迹举行的人工智能安全峰会期间,来自 28 个国家的代表签署了 布莱切利关于人工智能安全的声明 ,这凸显了设计和实施系统的重要性 人工智能 安全、负责,强调协作。 和透明度。
该声明承认需要解决与尖端人工智能模型相关的风险,特别是在以下领域: 计算机安全 和生物技术,并支持加强国际合作,以确保安全、合乎道德和有益的使用IA.
英国科学技术大臣米歇尔·多尼兰表示,新发布的指导方针“将把网络安全置于科技发展的核心位置”。人工智能”从开始到部署。
Darktrace 威胁分析全球主管托比·刘易斯 (Toby Lewis) defi完成了系统指南“一个受欢迎的项目” 人工智能 安全可靠。
刘易斯通过电子邮件发表评论说:“我很高兴看到该指南强调了 人工智能 保护他们的数据和模型免受攻击,并确保人工智能用户应用正确的数据和模型 聪明 人造 为了正确的任务。 那些开发人工智能的人应该走得更远,通过引导用户完成人工智能如何得出答案的过程来建立信任。 有了信心和信任,我们将更快地为更多人带来人工智能的好处。”
Informatica 南欧副总裁 Georges Anidjar 表示,该指南的发布标志着“朝着解决这个快速发展的领域固有的网络安全挑战迈出了重要一步。”
BlogInnovazione.it