Le Richtlinnen fir eng sécher Entwécklung vu kënschtlechen Intelligenz Systemer si sinn entwéckelt fir Entwéckler speziell duerch den Design, Entwécklung, Ëmsetzung an Operatioun vun AI Systemer ze guidéieren an ze garantéieren datt d'Sécherheet e kritesche Bestanddeel während hirem Liewenszyklus bleift. Wéi och ëmmer, aner Akteuren an AI Projete sollten dës Informatioun och nëtzlech fannen.
Dës Richtlinne goufe séier verëffentlecht nodeems d'Weltleader sech fir déi sécher a verantwortlech Entwécklung vu kënschtlecher Intelligenz um AI Safety Summit am Ufank November engagéiert hunn.
D'Richtlinne fir d'Entwécklung vu séchere AI Systemer setzen Empfehlungen aus fir sécherzestellen datt AI Modeller - egal ob vun Null gebaut oder op existéierende Modeller oder APIen vun anere Firmen baséiert - "schaffen wéi virgesinn, verfügbar sinn wann néideg, a funktionnéieren ouni sensibel Donnéeën un onerlaabten Parteien ze weisen. . "
De Schlëssel fir dëst ass déi "Séchert Standard" Approche, déi vum NCSC, CISA, dem Nationalen Institut fir Standarden an Technologie a verschiddenen aner international Cybersecurity Agenturen an existente Kaderen agesat gëtt. D'Prinzipien vun dëse Kaderen enthalen:
Laut dem NCSC hunn insgesamt 21 Agenturen a Ministèren aus insgesamt 18 Länner bestätegt, datt si déi nei Richtlinnen zoustëmmen a co-versiegelen. Dëst beinhalt d'National Security Agency an de Federal Bureau of Investigations an den USA, souwéi de Canadian Center for Cyber Security, déi franséisch Cyber Security Agency, de Bundesbüro fir Cyber Security vun Däitschland, Singapur. Cyber Security Agency a Japan National Incident Center. Cybersecurity Virbereedung a Strategie.
Lindy Cameron, Chief Executive of the NCSC, sot an eng Pressematdeelung : „Mir wëssen datt d'kënschtlech Intelligenz mat engem phänomenalen Taux entwéckelt an et muss eng konsequent international Aktioun ginn, tëscht Regierungen an Industrie, fir amgaang ze halen. ".
D'Richtlinne fir déi sécher Entwécklung vun AI Systemer sinn a véier Sektiounen strukturéiert, all entspriechend verschiddene Phasen vum Entwécklungsliewenszyklus vun engem AI System: sécheren Design, sécher Entwécklung, sécher Ëmsetzung, a sécher Operatioun an Ënnerhalt.
D'Richtlinne sinn applicabel fir all Typ vun AI Systemer an net nëmmen "Grenzmodeller" déi extensiv diskutéiert goufen um AI Safety Summit, deen am UK op 1 an 2 November 2023 gehost gouf. a ronderëm AI, dorënner Entwéckler, Datewëssenschaftler, Manager, Entscheedungshändler an aner AI "Risikobesëtzer."
"Mir hunn d'Richtlinne virun allem op AI System Ubidder gezielt, déi Modeller benotzen, déi vun enger Organisatioun gehost ginn (oder extern APIs benotzen), awer mir encouragéieren all interesséiert Parteien ... dës Richtlinnen ze liesen fir hinnen ze hëllefen informéiert Design Décisiounen, Entwécklung, Ëmsetzung an Operatioun vun hirem kënschtlech Intelligenz Systemer", sot hien der NCSC.
Wärend dem AI Safety Summit, deen um historesche Site vum Bletchley Park zu Buckinghamshire, England ofgehale gouf, hunn d'Vertrieder aus 28 Länner de Bletchley Ausso iwwer AI Sécherheet , wat d'Wichtegkeet vum Design an Ëmsetzung vun Systemer beliicht kënschtlech Intelligenz sécher a verantwortlech, mat engem Schwéierpunkt op Zesummenaarbecht. an Transparenz.
D'Erklärung erkennt d'Noutwendegkeet fir d'Risiken unzegoen, déi mat modernste AI Modeller verbonne sinn, besonnesch a Beräicher wéi z. IT Sécherheet a Biotechnologie, an ënnerstëtzt gréisser international Zesummenaarbecht fir déi sécher, ethesch a profitabel Notzung ze garantéierenIA.
D'Michelle Donelan, Groussbritannien Wëssenschafts- an Technologiesekretärin, sot déi nei publizéiert Richtlinnen "wäerten d'Cybersécherheet am Häerz vun der Entwécklung vunkënschtlech Intelligenz" vun Ufank bis Asaz.
D'Publikatioun vun de Richtlinnen opkënschtlech Intelligenz gouf vun Experten an Analysten begréisst cybersecurity.
Toby Lewis, global Chef vun Bedrohung Analyse bei Darktrace, huet defifäerdeg de Guide "e wëllkomm Projet" fir Systemer kënschtlech Intelligenz sécher an zouverlässeg.
Kommentéieren per E-Mail, Lewis sot: "Ech si frou ze gesinn datt d'Richtlinnen d'Noutwennegkeet beliicht kënschtlech Intelligenz schützen hir Donnéeën a Modeller vun Ugräifer an datt AI Benotzer déi richteg applizéieren Intelligenz kënschtlech fir déi richteg Aufgab. Déi, déi AI entwéckelen, solle méi wäit goen a Vertrauen bauen andeems d'Benotzer duerch d'Rees goen wéi hir AI d'Äntwerten erreecht. Mat Vertrauen a Vertrauen wäerte mir d'Virdeeler vun AI méi séier a fir méi Leit realiséieren.
De Georges Anidjar, Vizepräsident fir Südeuropa bei Informatica, sot, datt d'Publikatioun vun de Richtlinnen "e bedeitende Schrëtt markéiert fir d'Cybersecurity Erausfuerderungen unzegoen, déi an dësem séier evoluéierende Feld inherent sinn."
BlogInnovazione.it
D'Entwécklung vu Feinmotorik duerch Faarwen bereet d'Kanner op méi komplex Fäegkeeten wéi Schreiwen vir. Fir ze faarwen ...
De Marinesecteur ass eng richteg global wirtschaftlech Muecht, déi op e 150 Milliarde Maart navigéiert ass ...
De leschte Méindeg huet d'Financial Times en Deal mat OpenAI ugekënnegt. FT lizenzéiert säi Weltklass Journalismus ...
Millioune vu Leit bezuelen fir Streaming Servicer, a bezuelen monatlecht Abonnementskäschte. Et ass allgemeng Meenung datt Dir ...