Le wytyczne dotyczące bezpiecznego rozwoju systemów sztucznej inteligencji mają na celu poprowadzenie programistów przez proces projektowania, rozwoju, wdrażania i obsługi systemów sztucznej inteligencji oraz zapewnienie, że bezpieczeństwo pozostanie kluczowym elementem przez cały cykl ich życia. Jednak inne zainteresowane strony w projektach AI również powinny uznać te informacje za przydatne.
Wytyczne te zostały opublikowane wkrótce po tym, jak światowi przywódcy zobowiązali się do bezpiecznego i odpowiedzialnego rozwoju sztucznej inteligencji na szczycie AI Safety Summit na początku listopada.
W Wytycznych dotyczących opracowywania bezpiecznych systemów sztucznej inteligencji przedstawiono zalecenia mające na celu zapewnienie, że modele sztucznej inteligencji – niezależnie od tego, czy zbudowane od podstaw, czy oparte na istniejących modelach lub interfejsach API innych firm – „działają zgodnie z przeznaczeniem, są dostępne w razie potrzeby i działają bez ujawniania wrażliwych danych osobom nieuprawnionym”. . „
Kluczem do tego jest podejście „domyślnie bezpieczne”, zalecane przez NCSC, CISA, Narodowy Instytut Standardów i Technologii oraz różne inne międzynarodowe agencje ds. cyberbezpieczeństwa w istniejących ramach. Zasady tych ram obejmują:
Według NCSC łącznie 21 agencji i ministerstw z 18 krajów potwierdziło, że zatwierdzi i współtworzy nowe wytyczne. Obejmuje to Agencję Bezpieczeństwa Narodowego i Federalne Biuro Śledcze w Stanach Zjednoczonych, a także Kanadyjskie Centrum Bezpieczeństwa Cybernetycznego, Francuską Agencję ds. Bezpieczeństwa Cybernetycznego, Federalne Biuro ds. Bezpieczeństwa Cybernetycznego Niemiec, Singapurską Agencję ds. Agencja Bezpieczeństwa Cybernetycznego i Japońskie Krajowe Centrum ds. Incydentów. Przygotowanie i strategia cyberbezpieczeństwa.
– powiedziała Lindy Cameron, dyrektor naczelna NCSC Komunikat prasowy : „Wiemy, że sztuczna inteligencja rozwija się w fenomenalnym tempie i aby dotrzymać kroku, konieczne są wspólne działania międzynarodowe między rządami i przemysłem. ”.
Wytyczne dotyczące bezpiecznego rozwoju systemów sztucznej inteligencji podzielone są na cztery sekcje, z których każda odpowiada różnym fazom cyklu życia systemu sztucznej inteligencji: bezpieczny projekt, bezpieczny rozwój, bezpieczne wdrożenie oraz bezpieczna eksploatacja i konserwacja.
Wytyczne mają zastosowanie do wszystkich typów systemów sztucznej inteligencji, a nie tylko modeli „granicznych”, co zostało szeroko omówione podczas szczytu bezpieczeństwa AI, który odbył się w Wielkiej Brytanii w dniach 1 i 2 listopada 2023 r. Wytyczne mają również zastosowanie do wszystkich specjalistów pracujących w oraz wokół sztucznej inteligencji, w tym programiści, badacze danych, menedżerowie, decydenci i inni „właściciele ryzyka” sztucznej inteligencji.
„Wytyczne skierowaliśmy przede wszystkim do dostawców systemów AI, którzy korzystają z modeli hostowanych przez organizację (lub zewnętrznych interfejsów API), ale zachęcamy wszystkie zainteresowane strony… do przeczytania tych wytycznych, aby pomóc im w podejmowaniu świadomych decyzji projektowych, opracowywaniu, wdrażaniu i obsłudze ich systemy sztucznej inteligencji”, powiedział NCSC.
Podczas Szczytu Bezpieczeństwa AI, który odbył się w historycznym miejscu Bletchley Park w Buckinghamshire w Anglii, przedstawiciele 28 krajów podpisali Oświadczenie Bletchley w sprawie bezpieczeństwa sztucznej inteligencji , co podkreśla znaczenie projektowania i wdrażania systemów sztuczna inteligencja bezpiecznie i odpowiedzialnie, z naciskiem na współpracę. i przejrzystość.
W oświadczeniu uznano potrzebę zajęcia się ryzykiem związanym z najnowocześniejszymi modelami sztucznej inteligencji, szczególnie w takich obszarach jak: bezpieczeństwo komputerowe i biotechnologii oraz wspiera szerszą współpracę międzynarodową w celu zapewnienia bezpiecznego, etycznego i korzystnego wykorzystaniaIA.
Michelle Donelan, brytyjska sekretarz ds. nauki i technologii, stwierdziła, że nowo opublikowane wytyczne „umieszczą cyberbezpieczeństwo w centrum rozwojusztuczna inteligencja”od pomysłu do wdrożenia.
Publikacja wytycznych dotsztuczna inteligencja został pozytywnie przyjęty przez ekspertów i analityków bezpieczeństwo cybernetyczne.
Toby Lewis, globalny szef analizy zagrożeń w Darktrace, tak defiukończył przewodnik „projekt powitalny” dla systemów sztuczna inteligencja bezpieczny i niezawodny.
Komentując za pośrednictwem poczty elektronicznej, Lewis powiedział: „Cieszę się, że wytyczne podkreślają potrzebę sztuczna inteligencja chronić swoje dane i modele przed atakującymi, a użytkownicy AI stosują właściwe inteligencja sztuczny za właściwe zadanie. Osoby opracowujące sztuczną inteligencję powinny pójść dalej i budować zaufanie, przeprowadzając użytkowników przez proces, w jaki ich sztuczna inteligencja dociera do odpowiedzi. Mając pewność i zaufanie, szybciej i dla większej liczby osób zdamy sobie sprawę z korzyści płynących ze sztucznej inteligencji”.
Georges Anidjar, wiceprezes Informatica na Europę Południową, powiedział, że publikacja wytycznych stanowi „znaczący krok w kierunku sprostania wyzwaniom związanym z cyberbezpieczeństwem nieodłącznym w tej szybko rozwijającej się dziedzinie”.
BlogInnovazione.it
W ubiegły poniedziałek Financial Times ogłosił zawarcie umowy z OpenAI. FT udziela licencji na swoje światowej klasy dziennikarstwo…
Miliony ludzi płacą za usługi przesyłania strumieniowego, płacąc miesięczne opłaty abonamentowe. Powszechnie panuje opinia, że…
Coveware by Veeam będzie w dalszym ciągu świadczyć usługi reagowania na incydenty związane z wyłudzeniami cybernetycznymi. Coveware będzie oferować funkcje kryminalistyczne i naprawcze…
Konserwacja predykcyjna rewolucjonizuje sektor naftowo-gazowy dzięki innowacyjnemu i proaktywnemu podejściu do zarządzania zakładami.…