Le saugaus dirbtinio intelekto sistemų kūrimo gairės Jie skirti padėti kūrėjams kurti, kurti, diegti ir eksploatuoti dirbtinio intelekto sistemas ir užtikrinti, kad saugumas išliktų esminis komponentas per visą jų gyvavimo ciklą. Tačiau ši informacija turėtų būti naudinga ir kitoms AI projektų suinteresuotosioms šalims.
Šios gairės buvo paskelbtos netrukus po to, kai pasaulio lyderiai lapkričio pradžioje vykusiame AI saugos aukščiausiojo lygio susitikime įsipareigojo saugiai ir atsakingai plėtoti dirbtinį intelektą.
Saugių dirbtinio intelekto sistemų kūrimo gairėse pateikiamos rekomendacijos, kuriomis siekiama užtikrinti, kad dirbtinio intelekto modeliai – sukurti nuo nulio, ar pagrįsti esamais modeliais ar kitų įmonių API – „veiktų taip, kaip numatyta, būtų pasiekiami, kai reikia, ir neatskleis neskelbtinų duomenų neteisėtoms šalims. . “
Svarbiausias dalykas yra „saugus pagal numatytuosius nustatymus“, kurį propaguoja NCSC, CISA, Nacionalinis standartų ir technologijų institutas ir įvairios kitos tarptautinės kibernetinio saugumo agentūros esamose sistemose. Šių rėmų principai apima:
NCSC duomenimis, iš viso 21 agentūra ir ministerija iš 18 šalių patvirtino, kad patvirtins ir kartu patvirtins naujas gaires. Tai apima Nacionalinę saugumo agentūrą ir JAV Federalinį tyrimų biurą, taip pat Kanados kibernetinio saugumo centrą, Prancūzijos kibernetinio saugumo agentūrą, Vokietijos federalinį kibernetinio saugumo biurą, Singapūro Kibernetinio saugumo agentūra ir Japonijos nacionalinis incidentų centras. Kibernetinio saugumo pasirengimas ir strategija.
Lindy Cameron, NCSC generalinė direktorė, sakė pranešimas spaudai : „Mes žinome, kad dirbtinis intelektas vystosi fenomenaliu greičiu, todėl reikia suderintų tarptautinių vyriausybių ir pramonės veiksmų, kad neatsiliktų. “.
Saugaus AI sistemų kūrimo gairės suskirstytos į keturias dalis, kurių kiekviena atitinka skirtingus AI sistemos kūrimo ciklo etapus: saugus projektavimas, saugus kūrimas, saugus diegimas ir saugus veikimas bei priežiūra.
Gairės taikomos visų tipų dirbtinio intelekto sistemoms, o ne tik „ribiniams“ modeliams, kurie buvo plačiai aptarti 1 m. lapkričio 2 ir 2023 d. JK surengtame DI saugos aukščiausiojo lygio susitikime. Gairės Jos taip pat taikomos visiems profesionalams, dirbantiems ir aplink AI, įskaitant kūrėjus, duomenų mokslininkus, vadovus, sprendimų priėmėjus ir kitus AI „rizikos savininkus“.
„Mes orientavomės į gaires visų pirma AI sistemų tiekėjams, kurie naudoja organizacijos priglobtus modelius (arba išorines API), bet raginame visas suinteresuotas šalis perskaityti šias gaires, kad būtų lengviau priimti pagrįstus dizaino sprendimus, kurti, įgyvendinti ir eksploatuoti savo dirbtinio intelekto sistemos“, jis pareiškė NCSC.
Per AI Safety Summit susitikimą, vykusį istorinėje Bletchley parko vietoje Bekingemšyre, Anglijoje, 28 šalių atstovai pasirašė Bletchley pareiškimas apie AI saugą , kuris pabrėžia sistemų kūrimo ir diegimo svarbą dirbtinis intelektas saugiai ir atsakingai, akcentuojant bendradarbiavimą. ir skaidrumas.
Pareiškime pripažįstamas poreikis spręsti su pažangiausiais dirbtinio intelekto modeliais susijusią riziką, ypač tokiose srityse kaip IT saugumas ir biotechnologijas, ir remia glaudesnį tarptautinį bendradarbiavimą, kad būtų užtikrintas saugus, etiškas ir naudingas naudojimasIA.
Michelle Donelan, Didžiosios Britanijos mokslo ir technologijų sekretorė, sakė, kad naujai paskelbtose gairėse „kibernetiniam saugumui bus skiriamas pagrindinis dėmesys kuriantdirbtinis intelektas“ nuo įkūrimo iki diegimo.
Gairių paskelbimasdirbtinis intelektas ekspertai ir analitikai palankiai įvertino Kibernetinė sauga.
Toby Lewis, pasaulinis grėsmių analizės vadovas Darktrace defibaigė sistemoms skirtą vadovą „sveiki projektas“. dirbtinis intelektas saugus ir patikimas.
Komentuodamas elektroniniu paštu, Lewisas sakė: „Džiaugiuosi matydamas, kad gairėse pabrėžiamas poreikis dirbtinis intelektas apsaugoti savo duomenis ir modelius nuo užpuolikų ir kad dirbtinio intelekto naudotojai taikytų tinkamus intelektas dirbtinis už tinkamą užduotį. Kuriantieji dirbtinį intelektą turėtų žengti toliau ir stiprinti pasitikėjimą vesdami naudotojus į kelionę, kaip jų AI pasiekia atsakymus. Su pasitikėjimu ir pasitikėjimu AI naudą suvoksime greičiau ir daugiau žmonių.
Georgesas Anidjaras, „Informatica“ viceprezidentas Pietų Europai, sakė, kad gairių paskelbimas yra „reikšmingas žingsnis sprendžiant kibernetinio saugumo iššūkius, būdingus šiai sparčiai besivystančiai sričiai“.
BlogInnovazione.it
Praėjusį pirmadienį „Financial Times“ paskelbė apie susitarimą su „OpenAI“. FT licencijuoja savo pasaulinio lygio žurnalistiką…
Milijonai žmonių moka už srautinio perdavimo paslaugas, mokėdami mėnesinius abonentinius mokesčius. Paplitusi nuomonė, kad jūs…
„Coveware by Veeam“ ir toliau teiks reagavimo į kibernetinio turto prievartavimo incidentus paslaugas. „Coveware“ pasiūlys teismo ekspertizės ir ištaisymo galimybes…
Nuspėjama priežiūra keičia naftos ir dujų sektorių, taikant naujovišką ir iniciatyvų požiūrį į gamyklų valdymą.…