Le rjochtlinen foar de feilige ûntwikkeling fan systemen foar keunstmjittige yntelliginsje se binne ûntworpen om ûntwikkelders spesifyk te begelieden troch it ûntwerp, ûntwikkeling, ymplemintaasje en eksploitaasje fan AI-systemen en soargje dat feiligens in kritysk komponint bliuwt yn har heule libbenssyklus. Oare belanghawwenden yn AI-projekten moatte dizze ynformaasje lykwols ek nuttich fine.
Dizze rjochtlinen waarden frijlitten koart nei't wrâldlieders har ynsette foar de feilige en ferantwurde ûntwikkeling fan keunstmjittige yntelliginsje op 'e AI Safety Summit begjin novimber.
De rjochtlinen foar it ûntwikkeljen fan feilige AI-systemen stelle oanbefellings út om te soargjen dat AI-modellen - itsij fanôf it begjin boud as basearre op besteande modellen of API's fan oare bedriuwen - "wurkje lykas bedoeld, beskikber binne as nedich, en wurkje sûnder gefoelige gegevens te iepenbierjen oan net autorisearre partijen . "
De kaai foar dit is de "feilige standert" oanpak dy't bepleite troch NCSC, CISA, it Nasjonaal Ynstitút foar Standerts en Technology en ferskate oare ynternasjonale cybersecurity-ynstânsjes yn besteande kaders. De prinsipes fan dizze kaders omfetsje:
Neffens de NCSC hawwe yn totaal 21 ynstânsjes en ministearjes út in totaal fan 18 lannen befêstige dat se de nije rjochtlinen goedkarre en meisegelje. Dit omfettet it National Security Agency en it Federal Bureau of Investigations yn 'e Feriene Steaten, lykas it Canadian Centre for Cyber Security, it Frânske Cyber Security Agency, it Federal Office for Cyber Security fan Dútslân, de Singapore Cyber Security Agency en Japan National Incident Center. Cybersecurity tarieding en strategy.
Lindy Cameron, direkteur fan 'e NCSC, sei yn in parseberjocht : “Wy witte dat keunstmjittige yntelliginsje yn in fenomenaal tempo ûntwikkelet en der moat gearwurkjende ynternasjonale aksje komme, tusken oerheden en yndustry, om it tempo te hâlden. ”.
De rjochtlinen foar de feilige ûntwikkeling fan AI-systemen binne strukturearre yn fjouwer seksjes, elk oerienkomme mei ferskate fazen fan 'e ûntwikkelingslibbenssyklus fan in AI-systeem: feilich ûntwerp, feilige ûntwikkeling, feilige ymplemintaasje, en feilige operaasje en ûnderhâld.
De rjochtlinen binne fan tapassing op alle soarten AI-systemen en net allinich "frontier" modellen dy't wiidweidich waarden besprutsen op 'e AI Safety Summit hosted yn it Feriene Keninkryk op 1 en 2 novimber 2023. De rjochtlinen Se binne ek fan tapassing op alle professionals dy't wurkje yn en om AI, ynklusyf ûntwikkelders, gegevenswittenskippers, managers, beslútmakkers, en oare AI "risiko-eigners."
"Wy rjochte de rjochtlinen foaral op AI-systeemferkeapers dy't modellen brûke dy't troch in organisaasje host wurde (of eksterne API's brûke), mar wy moedigje alle ynteressearre partijen oan ... keunstmjittige yntelliginsje systemen", sei er de NCSC.
Tidens de AI Safety Summit, hâlden op it histoaryske plak fan Bletchley Park yn Buckinghamshire, Ingelân, tekene fertsjintwurdigers fan 28 lannen de Bletchley Statement on AI Safety , dy't it belang fan it ûntwerpen en útfieren fan systemen beklammet keunstmjittige yntelliginsje feilich en ferantwurde, mei de klam op gearwurking. en transparânsje.
De ferklearring erkent de needsaak om de risiko's oan te pakken dy't ferbûn binne mei moderne AI-modellen, benammen yn gebieten lykas IT feiligens en biotechnology, en stipet gruttere ynternasjonale gearwurking om te garandearjen de feilige, etyske en foardielich gebrûk fanIA.
Michelle Donelan, sekretaris foar wittenskip en technology fan Brittanje, sei dat de nij publisearre rjochtlinen "cyberfeiligens yn it hert sille pleatse fan 'e ûntwikkeling fankeunstmjittige yntelliginsje"fan begjin oant ynset.
De publikaasje fan de rjochtlinen opkeunstmjittige yntelliginsje is wolkom hjitten troch saakkundigen en analisten cybersecurity.
Toby Lewis, wrâldwide haad fan bedrigingsanalyse by Darktrace, hat defiklear de gids "in wolkom projekt" foar systemen keunstmjittige yntelliginsje feilich en betrouber.
Kommentaar fia e-post sei Lewis: "Ik bin bliid om te sjen dat de rjochtlinen de needsaak foar markearje keunstmjittige yntelliginsje beskermje har gegevens en modellen tsjin oanfallers en dat AI-brûkers de juste tapasse yntelliginsje keunstmjittich foar de juste taak. Dejingen dy't AI ûntwikkelje moatte fierder gean en fertrouwen bouwe troch brûkers troch de reis te rinnen hoe't har AI de antwurden berikt. Mei fertrouwen en fertrouwen sille wy de foardielen fan AI rapper realisearje en foar mear minsken.
Georges Anidjar, fise-presidint foar Súd-Jeropa by Informatica, sei dat de publikaasje fan 'e rjochtlinen "in wichtige stap markearret om de útdagings foar cybersecurity oan te pakken dy't yn dit rap evoluearjende fjild binne."
BlogInnovazione.it
In ophthalmoplasty-operaasje mei de Apple Vision Pro kommersjele werjouwer waard útfierd by de Catania Polyclinic ...
It ûntwikkeljen fan fynmotoryske feardigens troch kleurjen taret bern op mear komplekse feardigens lykas skriuwen. Kleurje...
De marinesektor is in wiere wrâldwide ekonomyske macht, dy't navigearre is nei in merk fan 150 miljard ...
Ofrûne moandei kundige de Financial Times in deal oan mei OpenAI. FT lisinsje har sjoernalistyk fan wrâldklasse ...