グッズ

NCSC、CISA、その他の国際機関が発行した AI セキュリティに関する新しいガイダンス

安全な AI システム開発のガイドラインは、開発者が新しい AI モデルの中心にセキュリティを確実に組み込めるように作成されました。

英国の国家サイバーセキュリティセンター、米国サイバーセキュリティ・インフラストラクチャセキュリティ庁、およびその他16か国の国際機関は、人工知能システムのセキュリティに関する新しいガイダンスを発表しました。

Le 人工知能システムの安全な開発のためのガイドライン これらは、特に AI システムの設計、開発、実装、運用を通じて開発者をガイドし、ライフサイクル全体を通じてセキュリティが重要な要素であり続けることを保証するように設計されています。 ただし、AI プロジェクトの他の関係者にとっても、この情報は役立つはずです。

これらのガイドラインは、世界のリーダーがXNUMX月初旬のAI安全サミットで人工知能の安全で責任ある開発に取り組むことを約束した直後に発表されました。

要約: 安全な AI システムを開発するためのガイドライン

安全な AI システム開発のガイドラインでは、AI モデルが、ゼロから構築されたか、既存のモデルや他社の API に基づいていたかにかかわらず、「意図したとおりに機能し、必要なときに利用可能で、機密データを権限のない者に漏らすことなく機能する」ことを保証するための推奨事項が定められています。 。 「

その鍵となるのは、NCSC、CISA、国立標準技術研究所、およびその他のさまざまな国際的なサイバーセキュリティ機関が既存の枠組みで提唱している「デフォルトで安全」アプローチです。 これらのフレームワークの原則には次のものが含まれます。

  • 顧客の安全に関する結果に責任を持ちます。
  • 徹底した透明性と説明責任を重視します。
  • 「設計上の安全性」がビジネスの最優先事項となるように、組織構造とリーダーシップを構築します。

NCSC によると、合計 21 か国の合計 18 の政府機関と省庁が、新しいガイドラインを承認し、共同で封印することを確認しました。 これには、米国の国家安全保障局および連邦捜査局のほか、カナダサイバーセキュリティセンター、フランスサイバーセキュリティ庁、ドイツ連邦サイバーセキュリティ局、シンガポール政府が含まれます。サイバーセキュリティ庁と国立インシデントセンター。 サイバーセキュリティの準備と戦略。

NCSCのリンディ・キャメロン最高経営責任者(CEO)は次のように述べた。 プレスリリース : 「人工知能が驚異的な速度で発展しており、これに遅れをとらないようにするには、政府と業界の間で国際的な協調行動が必要であることを私たちは知っています。 ”。

AI開発ライフサイクルのXNUMXつの主要フェーズを保護する

AI システムの安全な開発のためのガイドラインは XNUMX つのセクションで構成されており、各セクションは AI システムの開発ライフサイクルのさまざまなフェーズ (安全な設計、安全な開発、安全な実装、安全な運用と保守) に対応しています。

  • 安全設計 AI システム開発ライフサイクルの設計段階に関する具体的なガイダンスを提供します。 システムやモデルを設計する際には、リスクを認識して脅威モデリングを実行すること、さらにはさまざまなトピックやトレードオフを考慮することの重要性を強調しています。
  • 安全な開発 AI システムのライフサイクルの開発段階をカバーします。 推奨事項には、サプライチェーンのセキュリティの確保、徹底的な文書の維持、リソースと技術的負債の効果的な管理などが含まれます。
  • 安全な実装 AI システムの実装段階に取り組みます。 この場合のガイドラインは、インフラストラクチャとモデルを侵害、脅威、または損失から保護することに関するものです。 defiインシデント管理のプロセスの確立と責任あるリリース原則の採用。
  • 安全な操作とメンテナンス 人工知能モデルの導入後の運用および保守フェーズに関する兆候が含まれています。 効果的なロギングと監視、更新の管理、責任ある情報共有などの側面をカバーしています。

すべての AI システムのガイドライン

このガイドラインは、1 年 2 月 2023 日と XNUMX 日に英国で開催された AI 安全性サミットで広く議論された「フロンティア」モデルだけでなく、あらゆる種類の AI システムに適用されます。ガイドラインは、業界で働くすべての専門家にも適用されます。 AI の周囲には、開発者、データ サイエンティスト、マネージャー、意思決定者、その他の AI の「リスク オーナー」が含まれます。

「私たちはこのガイドラインを主に、組織がホストするモデルを使用する (または外部 API を使用する) AI システム ベンダーを対象としていますが、すべての関係者にこれらのガイドラインを読んで、情報に基づいた設計上の決定、開発、実装、運用を行うことをお勧めします。人工知能システム」、 前記 NCSC。

AIセーフティサミットの結果

英国バッキンガムシャーのブレッチリー・パーク史跡で開催されたAI安全サミット中に、28カ国の代表が署名した。 AI の安全性に関するブレッチリー声明 、システムの設計と実装の重要性を強調しています。 人工知能 コラボレーションを重視し、安全かつ責任を持って作業します。 そして透明感。

イノベーションニュースレター
イノベーションに関する最も重要なニュースをお見逃しなく。 メールで受け取るにはサインアップしてください。

この声明は、特に次のような分野で、最先端の AI モデルに関連するリスクに対処する必要性を認識しています。 コンピュータセキュリティ とバイオテクノロジーの安全、倫理的、有益な使用を確保するための国際協力の強化を支援します。IA.

英国の科学技術長官ミシェル・ドネラン氏は、新たに発行されたガイドラインは「サイバーセキュリティを開発の中心に置くことになる」と述べた。人工知能」の開始から展開まで。

これらの AI ガイドラインに対するサイバーセキュリティ業界の反応

に関するガイドラインの発行人工知能 専門家やアナリストから歓迎されている サイバーセキュリティー.

Darktrace の脅威分析グローバル責任者である Toby Lewis 氏は次のように述べています。 defiシステム向けガイド「歓迎プロジェクト」を完了しました 人工知能 安全で信頼できる。

ルイス氏は電子メールで次のようにコメントした。 人工知能 データとモデルを攻撃者から保護し、AI ユーザーが適切なものを適用できるようにする インテリジェンス 人為的な 適切なタスクのために。 AI を開発している人は、AI が答えにたどり着く過程をユーザーに説明することで、さらに一歩進んで信頼を築く必要があります。 自信と信頼を持って、私たちは AI のメリットをより多くの人々に、より早く実現していきます。」

インフォマティカの南ヨーロッパ担当バイスプレジデント、ジョルジュ・アニジャル氏は、ガイドラインの発行は「急速に進化するこの分野に内在するサイバーセキュリティの課題に対処するための重要な一歩」を示すものであると述べた。

BlogInnovazione.it

イノベーションニュースレター
イノベーションに関する最も重要なニュースをお見逃しなく。 メールで受け取るにはサインアップしてください。

最近の記事

カターニア総合病院での Apple ビューアによる拡張現実への革新的な介入

Apple Vision Pro 商用ビューアを使用した眼形成手術がカターニア総合病院で行われました。

3月2024

子供のためのぬり絵の利点 - すべての年齢層のための魔法の世界

ぬり絵を通じて細かい運動能力を発達させることで、子供たちは書くなどのより複雑なスキルを習得できるようになります。色…

2月2024

未来はここにあります: 海運業界が世界経済をどのように変革しているか

海軍部門は真の世界経済大国であり、150 億市場に向けて舵を切り続けています...

1月2024

パブリッシャーと OpenAI が人工知能によって処理される情報の流れを規制する契約に署名

先週の月曜日、フィナンシャル・タイムズ紙はOpenAIとの契約を発表した。 FT は世界クラスのジャーナリズムにライセンスを供与しています…

4月30 2024

あなたの言語でイノベーションを読む

イノベーションニュースレター
イノベーションに関する最も重要なニュースをお見逃しなく。 メールで受け取るにはサインアップしてください。

Seguici