artikels

Nije begelieding oer AI-feiligens publisearre troch NCSC, CISA en oare ynternasjonale ynstânsjes

De rjochtlinen foar it ûntwikkeljen fan feilige AI-systemen binne skreaun om ûntwikkelders te helpen soargje dat feiligens is ynboud yn it hert fan nije AI-modellen.

It UK's National Cyber ​​​​Security Centre, it Amerikaanske Cybersecurity and Infrastructure Security Agency en ynternasjonale ynstânsjes út 16 oare lannen hawwe nije begelieding publisearre oer de feiligens fan systemen foar keunstmjittige yntelliginsje.

Le rjochtlinen foar de feilige ûntwikkeling fan systemen foar keunstmjittige yntelliginsje se binne ûntworpen om ûntwikkelders spesifyk te begelieden troch it ûntwerp, ûntwikkeling, ymplemintaasje en eksploitaasje fan AI-systemen en soargje dat feiligens in kritysk komponint bliuwt yn har heule libbenssyklus. Oare belanghawwenden yn AI-projekten moatte dizze ynformaasje lykwols ek nuttich fine.

Dizze rjochtlinen waarden frijlitten koart nei't wrâldlieders har ynsette foar de feilige en ferantwurde ûntwikkeling fan keunstmjittige yntelliginsje op 'e AI ​​Safety Summit begjin novimber.

Gearfetsjend: rjochtlinen foar it ûntwikkeljen fan feilige AI-systemen

De rjochtlinen foar it ûntwikkeljen fan feilige AI-systemen stelle oanbefellings út om te soargjen dat AI-modellen - itsij fanôf it begjin boud as basearre op besteande modellen of API's fan oare bedriuwen - "wurkje lykas bedoeld, beskikber binne as nedich, en wurkje sûnder gefoelige gegevens te iepenbierjen oan net autorisearre partijen . "

De kaai foar dit is de "feilige standert" oanpak dy't bepleite troch NCSC, CISA, it Nasjonaal Ynstitút foar Standerts en Technology en ferskate oare ynternasjonale cybersecurity-ynstânsjes yn besteande kaders. De prinsipes fan dizze kaders omfetsje:

  • Nim eigendom fan feiligens útkomsten foar klanten.
  • Radikale transparânsje en ferantwurding omfetsje.
  • Bou organisatoaryske struktuer en liederskip sadat "feiligens by ûntwerp" in top saaklike prioriteit is.

Neffens de NCSC hawwe yn totaal 21 ynstânsjes en ministearjes út in totaal fan 18 lannen befêstige dat se de nije rjochtlinen goedkarre en meisegelje. Dit omfettet it National Security Agency en it Federal Bureau of Investigations yn 'e Feriene Steaten, lykas it Canadian Centre for Cyber ​​​​Security, it Frânske Cyber ​​​​Security Agency, it Federal Office for Cyber ​​​​Security fan Dútslân, de Singapore Cyber ​​​​Security Agency en Japan National Incident Center. Cybersecurity tarieding en strategy.

Lindy Cameron, direkteur fan 'e NCSC, sei yn in parseberjocht : “Wy witte dat keunstmjittige yntelliginsje yn in fenomenaal tempo ûntwikkelet en der moat gearwurkjende ynternasjonale aksje komme, tusken oerheden en yndustry, om it tempo te hâlden. ”.

Befeiligje de fjouwer wichtige fazen fan 'e libbenssyklus fan AI-ûntwikkeling

De rjochtlinen foar de feilige ûntwikkeling fan AI-systemen binne strukturearre yn fjouwer seksjes, elk oerienkomme mei ferskate fazen fan 'e ûntwikkelingslibbenssyklus fan in AI-systeem: feilich ûntwerp, feilige ûntwikkeling, feilige ymplemintaasje, en feilige operaasje en ûnderhâld.

  • Feilich ûntwerp biedt spesifike begelieding foar de ûntwerpfaze fan 'e libbenssyklus fan AI-systeemûntwikkeling. It beklammet it belang fan it erkennen fan risiko's en it útfieren fan bedrigingsmodellen, lykas it beskôgjen fan ferskate ûnderwerpen en kompromissen by it ûntwerpen fan systemen en modellen.
  • Feilige ûntwikkeling beslacht de ûntwikkelingsfaze fan 'e libbenssyklus fan AI-systeem. Oanbefellings omfetsje it garandearjen fan feiligens fan supply chain, it behâld fan yngeande dokumintaasje, en effektyf behear fan boarnen en technyske skulden.
  • Feilige ymplemintaasje rjochtet de ymplemintaasjefaze fan AI-systemen oan. De rjochtlinen yn dit gefal geane oer it beskermjen fan de ynfrastruktuer en modellen tsjin kompromissen, bedrigingen of ferliezen, de definaasje fan prosessen foar ynsidintbehear en it oannimmen fan ferantwurde frijlittingsprinsipes.
  • Feilige operaasje en ûnderhâld befetsje oanwizings op de eksploitaasje- en ûnderhâld faze nei de ynset fan de keunstmjittige yntelliginsje modellen. It beslacht aspekten lykas effektyf logging en tafersjoch, updates beheare en ferantwurde dielen fan ynformaasje.

Rjochtlinen foar alle AI-systemen

De rjochtlinen binne fan tapassing op alle soarten AI-systemen en net allinich "frontier" modellen dy't wiidweidich waarden besprutsen op 'e AI Safety Summit hosted yn it Feriene Keninkryk op 1 en 2 novimber 2023. De rjochtlinen Se binne ek fan tapassing op alle professionals dy't wurkje yn en om AI, ynklusyf ûntwikkelders, gegevenswittenskippers, managers, beslútmakkers, en oare AI "risiko-eigners."

"Wy rjochte de rjochtlinen foaral op AI-systeemferkeapers dy't modellen brûke dy't troch in organisaasje host wurde (of eksterne API's brûke), mar wy moedigje alle ynteressearre partijen oan ... keunstmjittige yntelliginsje systemen", sei er de NCSC.

Resultaten fan 'e AI Safety Summit

Tidens de AI Safety Summit, hâlden op it histoaryske plak fan Bletchley Park yn Buckinghamshire, Ingelân, tekene fertsjintwurdigers fan 28 lannen de Bletchley Statement on AI Safety , dy't it belang fan it ûntwerpen en útfieren fan systemen beklammet keunstmjittige yntelliginsje feilich en ferantwurde, mei de klam op gearwurking. en transparânsje.

Ynnovaasje nijsbrief
Mis it wichtichste nijs oer ynnovaasje net. Meld jo oan om se fia e-post te ûntfangen.

De ferklearring erkent de needsaak om de risiko's oan te pakken dy't ferbûn binne mei moderne AI-modellen, benammen yn gebieten lykas IT feiligens en biotechnology, en stipet gruttere ynternasjonale gearwurking om te garandearjen de feilige, etyske en foardielich gebrûk fanIA.

Michelle Donelan, sekretaris foar wittenskip en technology fan Brittanje, sei dat de nij publisearre rjochtlinen "cyberfeiligens yn it hert sille pleatse fan 'e ûntwikkeling fankeunstmjittige yntelliginsje"fan begjin oant ynset.

Reaksjes op dizze AI-rjochtlinen fan 'e cybersecurity-yndustry

De publikaasje fan de rjochtlinen opkeunstmjittige yntelliginsje is wolkom hjitten troch saakkundigen en analisten cybersecurity.

Toby Lewis, wrâldwide haad fan bedrigingsanalyse by Darktrace, hat defiklear de gids "in wolkom projekt" foar systemen keunstmjittige yntelliginsje feilich en betrouber.

Kommentaar fia e-post sei Lewis: "Ik bin bliid om te sjen dat de rjochtlinen de needsaak foar markearje keunstmjittige yntelliginsje beskermje har gegevens en modellen tsjin oanfallers en dat AI-brûkers de juste tapasse yntelliginsje keunstmjittich foar de juste taak. Dejingen dy't AI ûntwikkelje moatte fierder gean en fertrouwen bouwe troch brûkers troch de reis te rinnen hoe't har AI de antwurden berikt. Mei fertrouwen en fertrouwen sille wy de foardielen fan AI rapper realisearje en foar mear minsken.

Georges Anidjar, fise-presidint foar Súd-Jeropa by Informatica, sei dat de publikaasje fan 'e rjochtlinen "in wichtige stap markearret om de útdagings foar cybersecurity oan te pakken dy't yn dit rap evoluearjende fjild binne."

BlogInnovazione.it

Ynnovaasje nijsbrief
Mis it wichtichste nijs oer ynnovaasje net. Meld jo oan om se fia e-post te ûntfangen.

Recent articles

Ynnovative yntervinsje yn Augmented Reality, mei in Apple-sjogger by de Catania Polyclinic

In ophthalmoplasty-operaasje mei de Apple Vision Pro kommersjele werjouwer waard útfierd by de Catania Polyclinic ...

3 mei 2024

De foardielen fan kleurplaten foar bern - in wrâld fan magy foar alle leeftiden

It ûntwikkeljen fan fynmotoryske feardigens troch kleurjen taret bern op mear komplekse feardigens lykas skriuwen. Kleurje...

2 mei 2024

De takomst is hjir: hoe't de skipfeartsektor de wrâldekonomy revolúsjonearret

De marinesektor is in wiere wrâldwide ekonomyske macht, dy't navigearre is nei in merk fan 150 miljard ...

1 mei 2024

Utjouwers en OpenAI tekenje oerienkomsten om de stream fan ynformaasje te regeljen ferwurke troch Artificial Intelligence

Ofrûne moandei kundige de Financial Times in deal oan mei OpenAI. FT lisinsje har sjoernalistyk fan wrâldklasse ...

30 april 2024