Artikler

Ny veiledning om AI-sikkerhet utgitt av NCSC, CISA og andre internasjonale byråer

Retningslinjene for utvikling av sikre AI-systemer ble skrevet for å hjelpe utviklere med å sikre at sikkerhet er innebygd i hjertet av nye AI-modeller.

Storbritannias National Cyber ​​​​Security Centre, US Cybersecurity and Infrastructure Security Agency og internasjonale byråer fra 16 andre land har publisert ny veiledning om sikkerheten til kunstig intelligens-systemer.

Le retningslinjer for sikker utvikling av kunstig intelligens-systemer de er designet for å veilede utviklere spesifikt gjennom design, utvikling, implementering og drift av AI-systemer og sikre at sikkerhet forblir en kritisk komponent gjennom hele livssyklusen. Imidlertid bør også andre interessenter i AI-prosjekter finne denne informasjonen nyttig.

Disse retningslinjene ble utgitt kort tid etter at verdens ledere forpliktet seg til sikker og ansvarlig utvikling av kunstig intelligens på AI Safety Summit i begynnelsen av november.

Oppsummert: retningslinjer for utvikling av sikre AI-systemer

Retningslinjene for utvikling av sikre AI-systemer gir anbefalinger for å sikre at AI-modeller – enten de er bygget fra bunnen av eller basert på eksisterende modeller eller API-er fra andre selskaper – "fungerer etter hensikten, er tilgjengelig når det er nødvendig, og fungerer uten å avsløre sensitive data til uautoriserte parter". . "

Nøkkelen til dette er "secure by default"-tilnærmingen som NCSC, CISA, National Institute of Standards and Technology og forskjellige andre internasjonale cybersikkerhetsbyråer forfekter i eksisterende rammeverk. Prinsippene for disse rammene inkluderer:

  • Ta eierskap til sikkerhetsresultater for kundene.
  • Omfavner radikal åpenhet og ansvarlighet.
  • Bygg organisasjonsstruktur og lederskap slik at "sikkerhet ved design" er en topp forretningsprioritet.

I følge NCSC har totalt 21 byråer og departementer fra totalt 18 land bekreftet at de vil godkjenne og medforsegle de nye retningslinjene. Dette inkluderer National Security Agency og Federal Bureau of Investigations i USA, samt Canadian Center for Cyber ​​​​Security, French Cyber ​​​​Security Agency, Federal Office for Cyber ​​​​Security of Germany, Singapore Cyber ​​​​Security Agency og Japan National Incident Center. Utarbeidelse og strategi for cybersikkerhet.

Lindy Cameron, administrerende direktør i NCSC, sa i en pressemelding : «Vi vet at kunstig intelligens utvikler seg i en fenomenal hastighet, og det må være samordnet internasjonal handling, mellom myndigheter og industri, for å holde tritt. ".

Sikre de fire nøkkelfasene i livssyklusen for AI-utvikling

Retningslinjene for sikker utvikling av AI-systemer er strukturert i fire seksjoner, som hver tilsvarer ulike faser av utviklingslivssyklusen til et AI-system: sikker design, sikker utvikling, sikker implementering og sikker drift og vedlikehold.

  • Trygg design tilbyr spesifikk veiledning for designfasen av livssyklusen for AI-systemutvikling. Det understreker viktigheten av å gjenkjenne risikoer og gjennomføre trusselmodellering, samt å vurdere ulike temaer og avveininger når man designer systemer og modeller.
  • Trygg utvikling dekker utviklingsfasen av AI-systemets livssyklus. Anbefalinger inkluderer sikring av forsyningskjedesikkerhet, vedlikehold av grundig dokumentasjon og effektiv administrasjon av ressurser og teknisk gjeld.
  • Sikker implementering tar for seg implementeringsfasen av AI-systemer. Retningslinjene i denne saken gjelder å sikre infrastrukturen og modellene mot kompromisser, trusler eller tap. definisjon av prosesser for hendelseshåndtering og vedtakelse av prinsipper for ansvarlig utgivelse.
  • Sikker drift og vedlikehold inneholde indikasjoner på drifts- og vedlikeholdsfasen etter utplasseringen av kunstig intelligens-modellene. Den dekker aspekter som effektiv logging og overvåking, administrering av oppdateringer og ansvarlig informasjonsdeling.

Retningslinjer for alle AI-systemer

Retningslinjene gjelder for alle typer AI-systemer og ikke bare "frontier"-modeller som ble diskutert mye på AI Safety Summit arrangert i Storbritannia 1. og 2. november 2023. Retningslinjene De gjelder også for alle fagfolk som jobber i og rundt AI, inkludert utviklere, dataforskere, ledere, beslutningstakere og andre AI-"risikoeiere".

"Vi rettet retningslinjene primært mot AI-systemleverandører som bruker modeller som er vert for en organisasjon (eller bruker eksterne API-er), men vi oppfordrer alle interesserte parter ... til å lese disse retningslinjene for å hjelpe dem med å ta informerte designbeslutninger, utvikling, implementering og drift av deres kunstige intelligenssystemer", sa NCSC.

Resultater av AI-sikkerhetstoppmøtet

Under AI Safety Summit, holdt på det historiske stedet Bletchley Park i Buckinghamshire, England, signerte representanter fra 28 land Bletchley-erklæring om AI-sikkerhet , som fremhever viktigheten av å designe og implementere systemer kunstig intelligens trygt og ansvarlig, med vekt på samarbeid. og åpenhet.

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

Uttalelsen anerkjenner behovet for å adressere risikoene forbundet med banebrytende AI-modeller, spesielt på områder som f.eks. IT-sikkerhet og bioteknologi, og støtter større internasjonalt samarbeid for å sikre trygg, etisk og fordelaktig bruk avIA.

Michelle Donelan, Storbritannias vitenskaps- og teknologisekretær, sa at de nylig publiserte retningslinjene "vil sette cybersikkerhet i hjertet av utviklingen avkunstig intelligens” fra oppstart til utplassering.

Reaksjoner på disse AI-retningslinjene fra cybersikkerhetsindustrien

Utgivelsen av retningslinjene vedrkunstig intelligens har blitt ønsket velkommen av eksperter og analytikere Cybersecurity.

Toby Lewis, global leder for trusselanalyse i Darktrace, har defiferdig med guiden "et velkommen prosjekt" for systemer kunstig intelligens trygt og pålitelig.

I en kommentar via e-post sa Lewis: "Jeg er glad for å se at retningslinjene fremhever behovet for kunstig intelligens beskytte dataene og modellene deres mot angripere og at AI-brukere bruker de riktige intelligens kunstig for riktig oppgave. De som utvikler AI bør gå videre og bygge tillit ved å lede brukerne gjennom reisen for hvordan deres AI når svarene. Med selvtillit og tillit vil vi innse fordelene med AI raskere og for flere mennesker.»

Georges Anidjar, visepresident for Sør-Europa i Informatica, sa at publiseringen av retningslinjene markerer "et betydelig skritt mot å adressere cybersikkerhetsutfordringene som ligger i dette raskt utviklende feltet."

BlogInnovazione.it

Nyhetsbrev for innovasjon
Ikke gå glipp av de viktigste nyhetene om innovasjon. Registrer deg for å motta dem på e-post.

Siste artikler

Utgivere og OpenAI signerer avtaler for å regulere flyten av informasjon som behandles av kunstig intelligens

Sist mandag kunngjorde Financial Times en avtale med OpenAI. FT lisensierer sin journalistikk i verdensklasse...

30 april 2024

Nettbetalinger: Her er hvordan strømmetjenester får deg til å betale for alltid

Millioner av mennesker betaler for strømmetjenester og betaler månedlige abonnementsavgifter. Det er vanlig oppfatning at du...

29 april 2024

Veeam har den mest omfattende støtten for løsepengevare, fra beskyttelse til respons og gjenoppretting

Coveware by Veeam vil fortsette å tilby responstjenester for cyberutpressing. Coveware vil tilby kriminaltekniske og utbedringsmuligheter...

23 april 2024

Grønn og digital revolusjon: Hvordan prediktivt vedlikehold transformerer olje- og gassindustrien

Prediktivt vedlikehold revolusjonerer olje- og gasssektoren, med en innovativ og proaktiv tilnærming til anleggsledelse...

22 april 2024