Чланци

Петља приватности: вештачка интелигенција у лавиринту приватности и ауторских права

Ово је први од два чланка у којима се бавим деликатним односом између приватности и ауторских права с једне стране и вештачке интелигенције с друге стране.

Проблематичан однос где се технолошка еволуција показује тако брзом да свако регулаторно прилагођавање постаје застарело од прве примене.

Решавање проблематичних питања која се тичу људских права и личних података захтева пажњу, компетентност и неопходну дискусију између интелектуалаца и стручњака нашег времена. Откривамо да нисмо довољно брзи у прилагођавању друштвених правила изазовима које нам постављају технолошке иновације. Технологије у настајању све више раде на отвореном пољу, у потпуном одсуству прописа који ограничавају њихову примену, слободне да проузрокују штету и стога то чине потпуно некажњено.

Да ли је могуће замислити контролу која иде уз ланац технолошког развоја до научног истраживања и његових стратешких циљева?

Да ли је могуће управљати еволуцијом наше врсте уз чврсто поштовање индивидуалних слобода?

приватност?

„Што више покушавате да се сакријете, више привлачите пажњу. Зашто је толико важно да нико не зна за тебе?” – из филма „Анон” по сценарију и режији Ендру Никола – 2018

У филму "Опет” из 2018. године, друштво будућности је мрачно место, под директном контролом гигантског компјутерског система званог Етер, способног да надгледа сваки кутак нације посматрајући га очима истих људи који га насељавају. Свако људско биће је надзорник у име Етера и њихова прва одговорност је, наравно, да надгледају себе и своје понашање.

Етер је најбољи савезник полицијских снага: преко Етера агенти могу да прате искуство било које особе тако што ће га проживети сопственим очима и решити било коју врсту злочина.

Полицајац Сал се пита зашто бисте се борили да заштитите своју приватност: која је сврха када немате разлога да се кријете? На крају крајева, у ери у којој технологије које градимо да повећамо безбедност наших домова и наших улица захтевају евидентирање, праћење и проверу таквих информација у интересу самих људи који траже заштиту, како можемо очекивати да гарантујемо њихову приватност?

Да би показао колико је опасно имати приступ животима других, хакер ће преузети контролу над Етером и ужасна ноћна мора ће се спустити на животе милиона људи: претња да ће као беспомоћни гледаоци морати да гледају слике измучених тренутака њиховог живота, емитованих директно у мрежњачу.

тхе Лооп

Le вештачке неуронске мреже који леже у основи функционисања модерне вештачке интелигенције, врте се око три главна елемента: основне информације иначе тзв. корпусЈедан алгоритам за асимилацију информација и а меморија за њихово памћење.

Алгоритам није ограничен на банално учитавање информација у меморију, он их скенира у потрази за елементима који их међусобно повезују. Мешавина података и односа биће пренета у меморију која ће формирати а шаблон.

Унутар модела, подаци и односи се потпуно не разликују, због чега је реконструкција корпуса оригиналних информација за обуку из обучене неуронске мреже скоро немогућа.

Ово је посебно тачно када корпуси садрже велике количине података. Ово је случај великих језичких система познатих као Large Language Modelс (скраћено ЛЛМ) укључујући злогласни ЦхатГпт. Своју ефикасност дугују великој количини информација које се користе у обуци: тренутно добра обука захтева најмање неколико терабајта података, а с обзиром да један терабајт одговара 90 милијарди карактера, отприлике 75 милиона страница текста, лако је разумети да постоји потребно толико информација.

Али ако се модели не могу де-инжењерингом, зашто бисмо се питали проблем кршења приватности?

Доминација података

„Ко је луд може да тражи да буде изузет из летачких мисија, али ко год тражи да буде изузет из летачких мисија није луд. – према роману „Цатцх 22” Џозефа Хелера.

Иновациони билтен
Не пропустите најважније вести о иновацијама. Пријавите се да их примате путем е-поште.

Прикупљање података такве величине да омогућава креирање пројеката попут ЦхатГпт или других сличних данас је прерогатив великих мултинационалних компанија које су својим дигиталним активностима успеле да се дочепају највећег складишта информација у свету: Веб.

Гугл и Мајкрософт, који годинама управљају претраживачима који скенирају Веб и екстраполирају огромне количине информација, први су кандидати за стварање ЛЛМ-а, јединих АИ модела који могу да сваре количине информација као што су горе описане.

Тешко је поверовати да би Гугл или Мајкрософт могли да прикрију личне податке у својим подацима пре него што их користе као корпус у обуци неуронске мреже. Анонимизација информација у случају лингвистичких система се преводи у идентификацију личних података у оквиру корпуса и њихову замену лажним подацима. Хајде да замислимо корпус величине неколико терабајта са којим желимо да обучимо модел и покушајмо да замислимо колико би рада било потребно да се подаци које садржи ручно анонимизујемо: то би било практично немогуће. Али ако бисмо желели да се ослонимо на алгоритам да то уради аутоматски, једини систем који може да обави овај посао био би још један једнако велики и софистицирани модел.

Ми смо у присуству класичног проблема Цатцх-22: „да бисмо обучили ЛЛМ са анонимизованим подацима, потребан нам је ЛЛМ који може да их анонимизује, али ако имамо ЛЛМ способан да анонимизује податке, његова обука није обављена са анонимним подацима .”

ГДПР је застарео

ГДПР који (скоро) глобално диктира правила за поштовање приватности људи, у светлу ових тема је већ стара вест и не размишља се о заштити личних података укључених у сет за обуку.

У ГДПР-у, обрада личних података у сврху учења општих корелација и веза само је делимично регулисана чланом 22 који каже: „Субјек података има право да не буде подвргнут одлуци заснованој искључиво на аутоматизованој обради, укључујући профилисање, које производи на њега правна дејства или која га погађају на сличан и значајан начин“.

Овај члан уводи забрану руковаоцима података да користе личне податке субјекта као део потпуно аутоматизованог процеса доношења одлука који има директне правне ефекте на субјекта. Али неуронске мреже, које се лако асимилирају са аутоматизованим процесима доношења одлука, једном обучене стичу способност да доносе аутоматске одлуке које могу утицати на животе људи. Али ове одлуке нису увек „логичне“. У ствари, током тренинга, свака неуронска мрежа учи да повезује информације једне са другима, често их међусобно повезујући на апсолутно нелинеаран начин. А одсуство „логике“ не олакшава посао законодавцу који жели да подигне штит у одбрану приватности људи.

Ако би неко такође одлучио да примени екстремно рестриктивну политику, на пример, забрану коришћења било каквих осетљивих података осим ако то изричито не овласти власник, легална употреба неуронских мрежа би била неизводљива. А одустајање од технологије неуронских мрежа био би велики губитак, само помислите на моделе анализе обучене са клиничким подацима субјеката популације која је делимично погођена одређеном болешћу. Ови модели помажу у побољшању политике превенције тако што идентификују корелације између елемената присутних у подацима и саме болести, неочекиване корелације које у очима клиничара могу изгледати потпуно нелогичне.

Управљање потребама

Постављање проблема поштовања приватности људи након што су годинама неселективно одобравали његово прикупљање је у најмању руку лицемерно. Сам ГДПР са својом сложеношћу одговоран је за бројне манипулације које омогућавају добијање овлашћења за обраду личних података искоришћавањем нејасноће клаузула и потешкоћа у разумевању.

Свакако нам је потребно поједностављење закона које омогућава његову применљивост и право образовање у свесном коришћењу личних података.

Мој предлог је да се не дозволи компанијама да знају личне податке корисника који се региструју за њихове услуге, чак и ако су то плаћене услуге. Коришћење лажних личних података од стране приватних лица требало би да се деси аутоматски када користе онлајн системе. Коришћење стварних података треба да буде ограничено само на процес куповине, обезбеђујући да он увек буде потпуно одвојен од базе података услуга.

Познавање укуса и преференција субјекта без допуштања повезивања имена или лица са овим профилом функционисало би као облик анонимизације који се спроводи узводно, што би аутоматски омогућило прикупљање података и њихову употребу у системима аутоматизације као што су вештачка интелигенција.

Артицоло ди Gianfranco Fedele

Иновациони билтен
Не пропустите најважније вести о иновацијама. Пријавите се да их примате путем е-поште.

Недавни чланци

Предности бојанка за децу - свет магије за све узрасте

Развијање финих моторичких вештина кроз бојење припрема децу за сложеније вештине попут писања. Боји…

КСНУМКС Мај КСНУМКС

Будућност је ту: Како бродарска индустрија револуционише глобалну економију

Поморски сектор је права глобална економска сила, која је кренула ка тржишту од 150 милијарди...

КСНУМКС Мај КСНУМКС

Издавачи и ОпенАИ потписују уговоре за регулисање протока информација које обрађује вештачка интелигенција

Прошлог понедељка, Финанциал Тимес је објавио договор са ОпенАИ. ФТ лиценцира своје новинарство светске класе…

КСНУМКС април КСНУМКС

Онлине плаћања: Ево како вас услуге стримовања чине да плаћате заувек

Милиони људи плаћају услуге стриминга, плаћајући месечне претплате. Увријежено је мишљење да сте…

КСНУМКС април КСНУМКС

Прочитајте Иновације на свом језику

Иновациони билтен
Не пропустите најважније вести о иновацијама. Пријавите се да их примате путем е-поште.

Пратите нас