Le retningslinjer for sikker utvikling av kunstig intelligens-systemer de er designet for å veilede utviklere spesifikt gjennom design, utvikling, implementering og drift av AI-systemer og sikre at sikkerhet forblir en kritisk komponent gjennom hele livssyklusen. Imidlertid bør også andre interessenter i AI-prosjekter finne denne informasjonen nyttig.
Disse retningslinjene ble utgitt kort tid etter at verdens ledere forpliktet seg til sikker og ansvarlig utvikling av kunstig intelligens på AI Safety Summit i begynnelsen av november.
Retningslinjene for utvikling av sikre AI-systemer gir anbefalinger for å sikre at AI-modeller – enten de er bygget fra bunnen av eller basert på eksisterende modeller eller API-er fra andre selskaper – "fungerer etter hensikten, er tilgjengelig når det er nødvendig, og fungerer uten å avsløre sensitive data til uautoriserte parter". . "
Nøkkelen til dette er "secure by default"-tilnærmingen som NCSC, CISA, National Institute of Standards and Technology og forskjellige andre internasjonale cybersikkerhetsbyråer forfekter i eksisterende rammeverk. Prinsippene for disse rammene inkluderer:
I følge NCSC har totalt 21 byråer og departementer fra totalt 18 land bekreftet at de vil godkjenne og medforsegle de nye retningslinjene. Dette inkluderer National Security Agency og Federal Bureau of Investigations i USA, samt Canadian Center for Cyber Security, French Cyber Security Agency, Federal Office for Cyber Security of Germany, Singapore Cyber Security Agency og Japan National Incident Center. Utarbeidelse og strategi for cybersikkerhet.
Lindy Cameron, administrerende direktør i NCSC, sa i en pressemelding : «Vi vet at kunstig intelligens utvikler seg i en fenomenal hastighet, og det må være samordnet internasjonal handling, mellom myndigheter og industri, for å holde tritt. ".
Retningslinjene for sikker utvikling av AI-systemer er strukturert i fire seksjoner, som hver tilsvarer ulike faser av utviklingslivssyklusen til et AI-system: sikker design, sikker utvikling, sikker implementering og sikker drift og vedlikehold.
Retningslinjene gjelder for alle typer AI-systemer og ikke bare "frontier"-modeller som ble diskutert mye på AI Safety Summit arrangert i Storbritannia 1. og 2. november 2023. Retningslinjene De gjelder også for alle fagfolk som jobber i og rundt AI, inkludert utviklere, dataforskere, ledere, beslutningstakere og andre AI-"risikoeiere".
"Vi rettet retningslinjene primært mot AI-systemleverandører som bruker modeller som er vert for en organisasjon (eller bruker eksterne API-er), men vi oppfordrer alle interesserte parter ... til å lese disse retningslinjene for å hjelpe dem med å ta informerte designbeslutninger, utvikling, implementering og drift av deres kunstige intelligenssystemer", sa NCSC.
Under AI Safety Summit, holdt på det historiske stedet Bletchley Park i Buckinghamshire, England, signerte representanter fra 28 land Bletchley-erklæring om AI-sikkerhet , som fremhever viktigheten av å designe og implementere systemer kunstig intelligens trygt og ansvarlig, med vekt på samarbeid. og åpenhet.
Uttalelsen anerkjenner behovet for å adressere risikoene forbundet med banebrytende AI-modeller, spesielt på områder som f.eks. IT-sikkerhet og bioteknologi, og støtter større internasjonalt samarbeid for å sikre trygg, etisk og fordelaktig bruk avIA.
Michelle Donelan, Storbritannias vitenskaps- og teknologisekretær, sa at de nylig publiserte retningslinjene "vil sette cybersikkerhet i hjertet av utviklingen avkunstig intelligens” fra oppstart til utplassering.
Utgivelsen av retningslinjene vedrkunstig intelligens har blitt ønsket velkommen av eksperter og analytikere Cybersecurity.
Toby Lewis, global leder for trusselanalyse i Darktrace, har defiferdig med guiden "et velkommen prosjekt" for systemer kunstig intelligens trygt og pålitelig.
I en kommentar via e-post sa Lewis: "Jeg er glad for å se at retningslinjene fremhever behovet for kunstig intelligens beskytte dataene og modellene deres mot angripere og at AI-brukere bruker de riktige intelligens kunstig for riktig oppgave. De som utvikler AI bør gå videre og bygge tillit ved å lede brukerne gjennom reisen for hvordan deres AI når svarene. Med selvtillit og tillit vil vi innse fordelene med AI raskere og for flere mennesker.»
Georges Anidjar, visepresident for Sør-Europa i Informatica, sa at publiseringen av retningslinjene markerer "et betydelig skritt mot å adressere cybersikkerhetsutfordringene som ligger i dette raskt utviklende feltet."
BlogInnovazione.it
Sist mandag kunngjorde Financial Times en avtale med OpenAI. FT lisensierer sin journalistikk i verdensklasse...
Millioner av mennesker betaler for strømmetjenester og betaler månedlige abonnementsavgifter. Det er vanlig oppfatning at du...
Coveware by Veeam vil fortsette å tilby responstjenester for cyberutpressing. Coveware vil tilby kriminaltekniske og utbedringsmuligheter...
Prediktivt vedlikehold revolusjonerer olje- og gasssektoren, med en innovativ og proaktiv tilnærming til anleggsledelse...