Le udhëzime për zhvillimin e sigurt të sistemeve të inteligjencës artificiale ato janë krijuar për të udhëhequr zhvilluesit në mënyrë specifike përmes projektimit, zhvillimit, zbatimit dhe funksionimit të sistemeve të AI dhe për të siguruar që siguria të mbetet një komponent kritik gjatë gjithë ciklit të tyre jetësor. Megjithatë, palët e tjera të interesuara në projektet e AI duhet gjithashtu ta kenë këtë informacion të dobishëm.
Këto udhëzime u publikuan menjëherë pasi udhëheqësit botërorë u angazhuan për zhvillimin e sigurt dhe të përgjegjshëm të inteligjencës artificiale në Samitin e Sigurisë së AI në fillim të nëntorit.
Udhëzimet për zhvillimin e sistemeve të sigurta të inteligjencës artificiale parashtrojnë rekomandime për të siguruar që modelet e AI – qofshin të ndërtuara nga e para ose të bazuara në modele ekzistuese ose API nga kompani të tjera – “funksionojnë siç synohet, janë të disponueshme kur nevojiten dhe punojnë pa i zbuluar të dhëna të ndjeshme palëve të paautorizuara . "
Çelësi për këtë është qasja "e sigurt sipas parazgjedhjes" e mbrojtur nga NCSC, CISA, Instituti Kombëtar i Standardeve dhe Teknologjisë dhe agjenci të ndryshme të tjera ndërkombëtare të sigurisë kibernetike në kornizat ekzistuese. Parimet e këtyre kornizave përfshijnë:
Sipas NCSC, gjithsej 21 agjenci dhe ministri nga gjithsej 18 vende kanë konfirmuar se do të miratojnë dhe bashkëvulosin udhëzimet e reja. Kjo përfshin Agjencinë e Sigurisë Kombëtare dhe Byronë Federale të Hetimeve në Shtetet e Bashkuara, si dhe Qendrën Kanadeze për Sigurinë Kibernetike, Agjencinë Franceze të Sigurisë Kibernetike, Zyrën Federale për Sigurinë Kibernetike të Gjermanisë, Singaporin. Agjencia e Sigurisë Kibernetike dhe Qendra Kombëtare e Incidenteve të Japonisë. Përgatitja dhe strategjia e sigurisë kibernetike.
Lindy Cameron, shefi ekzekutiv i NCSC, tha në një njoftim për shtyp : “Ne e dimë se inteligjenca artificiale po zhvillohet me një ritëm fenomenal dhe duhet të ketë një veprim të bashkërenduar ndërkombëtar, midis qeverive dhe industrisë, për të mbajtur ritmin. “.
Udhëzimet për zhvillimin e sigurt të sistemeve të AI janë të strukturuara në katër seksione, secila që korrespondon me faza të ndryshme të ciklit jetësor të zhvillimit të një sistemi AI: dizajn i sigurt, zhvillim i sigurt, zbatim i sigurt dhe funksionim dhe mirëmbajtje e sigurt.
Udhëzimet janë të zbatueshme për të gjitha llojet e sistemeve të AI dhe jo vetëm për modelet "kufitare" të cilat u diskutuan gjerësisht në Samitin e Sigurisë së AI të organizuar në MB më 1 dhe 2 nëntor 2023. Udhëzimet Ato janë gjithashtu të zbatueshme për të gjithë profesionistët që punojnë në dhe rreth AI, duke përfshirë zhvilluesit, shkencëtarët e të dhënave, menaxherët, vendimmarrësit dhe "pronarët e rrezikut të AI".
“Ne i synuam udhëzimet kryesisht te shitësit e sistemit AI që përdorin modele të organizuara nga një organizatë (ose përdorin API të jashtme), por ne inkurajojmë të gjitha palët e interesuara… që të lexojnë këto udhëzime për t'i ndihmuar ata të marrin vendime të informuara të projektimit, zhvillimin, zbatimin dhe funksionimin e tyre. sistemet e inteligjencës artificiale”, tha ai NCSC.
Gjatë Samitit të Sigurisë së AI, të mbajtur në vendin historik të Bletchley Park në Buckinghamshire, Angli, përfaqësues nga 28 vende nënshkruan Deklarata Bletchley mbi sigurinë e AI , e cila thekson rëndësinë e projektimit dhe zbatimit të sistemeve inteligjencës artificiale në mënyrë të sigurt dhe të përgjegjshme, me theks në bashkëpunim. dhe transparencës.
Deklarata njeh nevojën për të adresuar rreziqet që lidhen me modelet më të fundit të AI, veçanërisht në fusha të tilla si Siguria e TI-së dhe bioteknologji, dhe mbështet një bashkëpunim më të madh ndërkombëtar për të siguruar përdorimin e sigurt, etik dhe të dobishëm tëIA.
Michelle Donelan, sekretarja britanike e shkencës dhe teknologjisë, tha se udhëzimet e publikuara rishtazi “do të vendosin sigurinë kibernetike në qendër të zhvillimit tëinteligjencës artificiale” nga fillimi deri në vendosje.
Publikimi i udhëzimeve përinteligjencës artificiale është mirëpritur nga ekspertë dhe analistë kibernetike.
Toby Lewis, kreu global i analizës së kërcënimeve në Darktrace, ka defipërfundoi udhëzuesin "një projekt i mirëpritur" për sistemet inteligjencës artificiale të sigurt dhe të besueshëm.
Duke komentuar përmes emailit, Lewis tha: “Jam i kënaqur të shoh që udhëzimet theksojnë nevojën për inteligjencës artificiale mbrojnë të dhënat dhe modelet e tyre nga sulmuesit dhe që përdoruesit e AI të aplikojnë ato të duhurat zbulim artificiale për detyrën e duhur. Ata që zhvillojnë inteligjencën artificiale duhet të shkojnë më tej dhe të ndërtojnë besim duke i përcjellë përdoruesit në rrugëtimin se si AI i tyre arrin përgjigjet. Me besim dhe besim, ne do të kuptojmë përfitimet e AI më shpejt dhe për më shumë njerëz.”
Georges Anidjar, nënkryetar për Evropën Jugore në Informatica, tha se publikimi i udhëzimeve shënon "një hap të rëndësishëm drejt adresimit të sfidave të sigurisë kibernetike të qenësishme në këtë fushë me zhvillim të shpejtë".
BlogInnovazione.it
Të hënën e kaluar, Financial Times njoftoi një marrëveshje me OpenAI. FT licencon gazetarinë e saj të klasit botëror…
Miliona njerëz paguajnë për shërbimet e transmetimit, duke paguar tarifat mujore të abonimit. Është e zakonshme që ju…
Coveware nga Veeam do të vazhdojë të ofrojë shërbime të reagimit ndaj incidenteve të zhvatjes kibernetike. Coveware do të ofrojë aftësi mjeko-ligjore dhe riparimi…
Mirëmbajtja parashikuese po revolucionon sektorin e naftës dhe gazit, me një qasje inovative dhe proaktive për menaxhimin e impiantit.…