Artikelen

Nei Orientatioun iwwer AI Sécherheet publizéiert vun NCSC, CISA an aner international Agenturen

D'Richtlinne fir d'Entwécklung vu séchere AI Systemer goufen geschriwwen fir Entwéckler ze hëllefen ze garantéieren datt d'Sécherheet an d'Häerz vun neien AI Modeller agebaut ass.

De UK National Cyber ​​​​Security Center, d'US Cybersecurity and Infrastructure Security Agency an international Agenturen aus 16 anere Länner hunn nei Richtlinnen iwwer d'Sécherheet vu kënschtlechen Intelligenzsystemer publizéiert.

Le Richtlinnen fir eng sécher Entwécklung vu kënschtlechen Intelligenz Systemer si sinn entwéckelt fir Entwéckler speziell duerch den Design, Entwécklung, Ëmsetzung an Operatioun vun AI Systemer ze guidéieren an ze garantéieren datt d'Sécherheet e kritesche Bestanddeel während hirem Liewenszyklus bleift. Wéi och ëmmer, aner Akteuren an AI Projete sollten dës Informatioun och nëtzlech fannen.

Dës Richtlinne goufe séier verëffentlecht nodeems d'Weltleader sech fir déi sécher a verantwortlech Entwécklung vu kënschtlecher Intelligenz um AI ​​Safety Summit am Ufank November engagéiert hunn.

Zesummefaassend: Richtlinnen fir sécher AI Systemer z'entwéckelen

D'Richtlinne fir d'Entwécklung vu séchere AI Systemer setzen Empfehlungen aus fir sécherzestellen datt AI Modeller - egal ob vun Null gebaut oder op existéierende Modeller oder APIen vun anere Firmen baséiert - "schaffen wéi virgesinn, verfügbar sinn wann néideg, a funktionnéieren ouni sensibel Donnéeën un onerlaabten Parteien ze weisen. . "

De Schlëssel fir dëst ass déi "Séchert Standard" Approche, déi vum NCSC, CISA, dem Nationalen Institut fir Standarden an Technologie a verschiddenen aner international Cybersecurity Agenturen an existente Kaderen agesat gëtt. D'Prinzipien vun dëse Kaderen enthalen:

  • Huelt d'Besëtzer vu Sécherheetsresultater fir Clienten.
  • Radikal Transparenz a Rechenschaftspflicht ëmfaassen.
  • Bauen Organisatiounsstruktur a Leedung sou datt "Sécherheet duerch Design" eng Top Geschäftsprioritéit ass.

Laut dem NCSC hunn insgesamt 21 Agenturen a Ministèren aus insgesamt 18 Länner bestätegt, datt si déi nei Richtlinnen zoustëmmen a co-versiegelen. Dëst beinhalt d'National Security Agency an de Federal Bureau of Investigations an den USA, souwéi de Canadian Center for Cyber ​​​​Security, déi franséisch Cyber ​​​​Security Agency, de Bundesbüro fir Cyber ​​​​Security vun Däitschland, Singapur. Cyber ​​​​Security Agency a Japan National Incident Center. Cybersecurity Virbereedung a Strategie.

Lindy Cameron, Chief Executive of the NCSC, sot an eng Pressematdeelung : „Mir wëssen datt d'kënschtlech Intelligenz mat engem phänomenalen Taux entwéckelt an et muss eng konsequent international Aktioun ginn, tëscht Regierungen an Industrie, fir amgaang ze halen. ".

Séchert déi véier Schlësselphasen vum AI Entwécklung Liewenszyklus

D'Richtlinne fir déi sécher Entwécklung vun AI Systemer sinn a véier Sektiounen strukturéiert, all entspriechend verschiddene Phasen vum Entwécklungsliewenszyklus vun engem AI System: sécheren Design, sécher Entwécklung, sécher Ëmsetzung, a sécher Operatioun an Ënnerhalt.

  • Sécher Design bitt spezifesch Leedung fir d'Designphase vum AI System Entwécklung Liewenszyklus. Et betount d'Wichtegkeet fir Risiken z'erkennen an d'Bedrohungsmodelléierung auszeféieren, souwéi verschidde Themen an Ofdreiwungen ze berücksichtegen wann Dir Systemer a Modeller designt.
  • Sécher Entwécklung deckt d'Entwécklungsphase vum AI System Liewenszyklus. Empfehlungen enthalen d'Sécherheet vun der Versuergungskette ze garantéieren, eng grëndlech Dokumentatioun z'erhalen, an effektiv Ressourcen an technesch Scholden ze managen.
  • Sécher Ëmsetzung adresséiert d'Ëmsetzungsphase vun AI Systemer. D'Richtlinnen an dësem Fall betreffen d'Sécherheet vun der Infrastruktur a Modeller vu Kompromëss, Geforen oder Verloschter, defiNatioun vu Prozesser fir Incidentmanagement an d'Adoptioun vu verantwortleche Verëffentlechungsprinzipien.
  • Sécher Operatioun an Ënnerhalt enthalen Indikatiounen iwwer d'Operatiouns- an d'Ënnerhaltsphase nom Asaz vun de kënschtlechen Intelligenz Modeller. Et deckt Aspekter wéi effektiv Logbicher an Iwwerwaachung, Gestioun vun Updates a verantwortlech Informatiounsdeelen.

Richtlinnen fir all AI Systemer

D'Richtlinne sinn applicabel fir all Typ vun AI Systemer an net nëmmen "Grenzmodeller" déi extensiv diskutéiert goufen um AI ​​Safety Summit, deen am UK op 1 an 2 November 2023 gehost gouf. a ronderëm AI, dorënner Entwéckler, Datewëssenschaftler, Manager, Entscheedungshändler an aner AI "Risikobesëtzer."

"Mir hunn d'Richtlinne virun allem op AI System Ubidder gezielt, déi Modeller benotzen, déi vun enger Organisatioun gehost ginn (oder extern APIs benotzen), awer mir encouragéieren all interesséiert Parteien ... dës Richtlinnen ze liesen fir hinnen ze hëllefen informéiert Design Décisiounen, Entwécklung, Ëmsetzung an Operatioun vun hirem kënschtlech Intelligenz Systemer", sot hien der NCSC.

Resultater vum AI Sécherheet Sommet

Wärend dem AI ​​Safety Summit, deen um historesche Site vum Bletchley Park zu Buckinghamshire, England ofgehale gouf, hunn d'Vertrieder aus 28 Länner de Bletchley Ausso iwwer AI Sécherheet , wat d'Wichtegkeet vum Design an Ëmsetzung vun Systemer beliicht kënschtlech Intelligenz sécher a verantwortlech, mat engem Schwéierpunkt op Zesummenaarbecht. an Transparenz.

Innovatioun Newsletter
Verpasst net déi wichtegst Neiegkeeten iwwer Innovatioun. Registréiert Iech fir se per E-Mail ze kréien.

D'Erklärung erkennt d'Noutwendegkeet fir d'Risiken unzegoen, déi mat modernste AI Modeller verbonne sinn, besonnesch a Beräicher wéi z. IT Sécherheet a Biotechnologie, an ënnerstëtzt gréisser international Zesummenaarbecht fir déi sécher, ethesch a profitabel Notzung ze garantéierenIA.

D'Michelle Donelan, Groussbritannien Wëssenschafts- an Technologiesekretärin, sot déi nei publizéiert Richtlinnen "wäerten d'Cybersécherheet am Häerz vun der Entwécklung vunkënschtlech Intelligenz" vun Ufank bis Asaz.

Reaktiounen op dës AI Richtlinnen aus der Cybersecurity Industrie

D'Publikatioun vun de Richtlinnen opkënschtlech Intelligenz gouf vun Experten an Analysten begréisst cybersecurity.

Toby Lewis, global Chef vun Bedrohung Analyse bei Darktrace, huet defifäerdeg de Guide "e wëllkomm Projet" fir Systemer kënschtlech Intelligenz sécher an zouverlässeg.

Kommentéieren per E-Mail, Lewis sot: "Ech si frou ze gesinn datt d'Richtlinnen d'Noutwennegkeet beliicht kënschtlech Intelligenz schützen hir Donnéeën a Modeller vun Ugräifer an datt AI Benotzer déi richteg applizéieren Intelligenz kënschtlech fir déi richteg Aufgab. Déi, déi AI entwéckelen, solle méi wäit goen a Vertrauen bauen andeems d'Benotzer duerch d'Rees goen wéi hir AI d'Äntwerten erreecht. Mat Vertrauen a Vertrauen wäerte mir d'Virdeeler vun AI méi séier a fir méi Leit realiséieren.

De Georges Anidjar, Vizepräsident fir Südeuropa bei Informatica, sot, datt d'Publikatioun vun de Richtlinnen "e bedeitende Schrëtt markéiert fir d'Cybersecurity Erausfuerderungen unzegoen, déi an dësem séier evoluéierende Feld inherent sinn."

BlogInnovazione.it

Innovatioun Newsletter
Verpasst net déi wichtegst Neiegkeeten iwwer Innovatioun. Registréiert Iech fir se per E-Mail ze kréien.

Recent Artikelen

D'Virdeeler vu Faarwen Säiten fir Kanner - eng Welt vu Magie fir all Alter

D'Entwécklung vu Feinmotorik duerch Faarwen bereet d'Kanner op méi komplex Fäegkeeten wéi Schreiwen vir. Fir ze faarwen ...

2 Mee 2024

D'Zukunft ass hei: Wéi d'Schëfferindustrie d'Weltwirtschaft revolutionéiert

De Marinesecteur ass eng richteg global wirtschaftlech Muecht, déi op e 150 Milliarde Maart navigéiert ass ...

1 Mee 2024

Verëffentlecher an OpenAI ënnerschreiwen Ofkommes fir de Flux vun Informatioun ze regléieren, déi vu Kënschtlech Intelligenz veraarbecht gëtt

De leschte Méindeg huet d'Financial Times en Deal mat OpenAI ugekënnegt. FT lizenzéiert säi Weltklass Journalismus ...

30 Abrëll 2024

Online Bezuelungen: Hei ass wéi Streaming Servicer Iech fir ëmmer bezuelen

Millioune vu Leit bezuelen fir Streaming Servicer, a bezuelen monatlecht Abonnementskäschte. Et ass allgemeng Meenung datt Dir ...

29 Abrëll 2024