εμπορεύματα

Ρύθμιση της τεχνητής νοημοσύνης: 3 ειδικοί εξηγούν γιατί είναι δύσκολο να το κάνεις και σημαντικό να κάνεις καλά

Τα ισχυρά νέα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να ενισχύσουν την απάτη και την παραπληροφόρηση, οδηγώντας σε εκτεταμένες εκκλήσεις για κυβερνητική ρύθμιση. Αλλά αυτό είναι πιο εύκολο να ειπωθεί παρά να γίνει και θα μπορούσε να έχει ακούσιες συνέπειες

Εκτιμώμενος χρόνος ανάγνωσης: 11 λεπτά

από ψεύτικες φωτογραφίες του Ντόναλντ Τραμπ που συνελήφθη από αστυνομικούς της Νέας Υόρκης σε ένα chatbot που περιγράφει ένα επιστήμονας υπολογιστών πολύ ζωντανός καθώς πέθανε τραγικά , η ικανότητα της νέας γενιάς συστημάτων τεχνητή νοημοσύνη Η γενετική ώθηση για τη δημιουργία συναρπαστικών αλλά πλασματικών κειμένων και εικόνων πυροδοτεί συναγερμούς για απάτη και παραπληροφόρηση στεροειδών. Πράγματι, στις 29 Μαρτίου 2023 μια ομάδα ερευνητών τεχνητής νοημοσύνης και προσωπικοτήτων του κλάδου προέτρεψε τη βιομηχανία να αναστείλει την περαιτέρω εκπαίδευση στις πιο πρόσφατες τεχνολογίες τεχνητής νοημοσύνης ή, αποκλείοντας αυτό, τις κυβερνήσεις να «επιβάλουν μορατόριουμ».

Οι γεννήτριες εικόνας όπως DALL-E , Μεσοταξίδι e Σταθερή Διάχυση και παραγωγοί περιεχομένου όπως Βάρδος , ChatGPT , Καλλίμαλο ζώο της Νότιας Αμερικής e Είδος μικρής καμήλας – είναι πλέον διαθέσιμα σε εκατομμύρια ανθρώπους και δεν απαιτούν τεχνικές γνώσεις για χρήση.

Δεδομένου του εξελισσόμενου τοπίου των εταιρειών τεχνολογίας που αναπτύσσουν συστήματα AI και τα δοκιμάζουν στο κοινό, οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να αναρωτηθούν εάν και πώς να ρυθμίσουν την αναδυόμενη τεχνολογία. Το Conversation ζήτησε από τρεις ειδικούς σε θέματα τεχνολογικής πολιτικής να εξηγήσουν γιατί η ρύθμιση της τεχνητής νοημοσύνης είναι μια τέτοια πρόκληση και γιατί είναι τόσο σημαντικό να γίνει σωστά.

Ανθρώπινες αδυναμίες και ένας κινούμενος στόχος

S. Shyam Sundar, καθηγητής εφέ πολυμέσων και σκηνοθέτης, Κέντρο Κοινωνικά Υπεύθυνων AI, Πεν Στέιτ

Ο λόγος για τη ρύθμιση της τεχνητής νοημοσύνης δεν είναι επειδή η τεχνολογία είναι εκτός ελέγχου, αλλά επειδή η ανθρώπινη φαντασία είναι δυσανάλογη. Η συντριπτική κάλυψη των μέσων ενημέρωσης έχει τροφοδοτήσει παράλογες πεποιθήσεις σχετικά με τις δυνατότητες και τη συνείδηση ​​της τεχνητής νοημοσύνης. Αυτές οι πεποιθήσεις βασίζονται στο " προκατάληψη αυτοματισμού » ή στην τάση να αφήνουμε την επιφυλακή μας όταν οι μηχανές εκτελούν μια εργασία. Ένα παράδειγμα είναι η μειωμένη επαγρύπνηση μεταξύ των πιλότων όταν το αεροπλάνο τους πετά με αυτόματο πιλότο.

Πολυάριθμες μελέτες στο εργαστήριό μου έχουν δείξει ότι όταν ένα μηχάνημα, και όχι ένας άνθρωπος, προσδιορίζεται ως πηγή αλληλεπίδρασης, ενεργοποιεί μια νοητική συντόμευση στο μυαλό των χρηστών που ονομάζουμε «ευρετικές μηχανές». " . Αυτή η συντομογραφία είναι η πεποίθηση ότι οι μηχανές είναι ακριβείς, αντικειμενικές, αμερόληπτες, αλάνθαστες και ούτω καθεξής. Θολώνει την κρίση του χρήστη και κάνει τον χρήστη να εμπιστεύεται υπερβολικά τις μηχανές. Ωστόσο, η απλή απογοήτευση των ανθρώπων σχετικά με το αλάθητο της τεχνητής νοημοσύνης δεν αρκεί, επειδή οι άνθρωποι είναι γνωστό ότι υποσυνείδητα αναλαμβάνουν επάρκεια ακόμη και όταν η τεχνολογία δεν το δικαιολογεί.

Η έρευνα έχει επίσης δείξει ότι οι άνθρωποι αντιμετωπίζουν τους υπολογιστές ως κοινωνικά όντα όταν οι μηχανές δείχνουν ακόμη και την παραμικρή ένδειξη ανθρωπιάς, όπως η χρήση της γλώσσας συνομιλίας. Σε αυτές τις περιπτώσεις, οι άνθρωποι εφαρμόζουν κοινωνικούς κανόνες ανθρώπινης αλληλεπίδρασης, όπως η ευγένεια και η αμοιβαιότητα. Έτσι, όταν οι υπολογιστές φαίνονται ευαίσθητοι, οι άνθρωποι τείνουν να τους εμπιστεύονται τυφλά. Απαιτείται ρύθμιση για να διασφαλιστεί ότι τα προϊόντα τεχνητής νοημοσύνης αξίζουν αυτήν την εμπιστοσύνη και δεν την εκμεταλλεύονται.

Η τεχνητή νοημοσύνη παρουσιάζει μια μοναδική πρόκληση γιατί, σε αντίθεση με τα παραδοσιακά συστήματα μηχανικής, οι σχεδιαστές δεν μπορούν να είναι σίγουροι για την απόδοση των συστημάτων τεχνητής νοημοσύνης. Όταν ένα παραδοσιακό αυτοκίνητο βγήκε από το εργοστάσιο, οι μηχανικοί ήξεραν ακριβώς πώς θα αποδώσει. Αλλά με αυτοοδηγούμενα αυτοκίνητα, μηχανικοί δεν μπορούν ποτέ να είναι σίγουροι πώς θα συμπεριφερθούν σε νέες καταστάσεις .

Δυσκολία στον έλεγχο της καινοτομίας

Τελευταία, χιλιάδες άνθρωποι σε όλο τον κόσμο έχουν θαυμάσει τι παράγουν τα μεγάλα μοντέλα τεχνητής νοημοσύνης όπως το GPT-4 και το DALL-E 2 ως απάντηση στις προτάσεις τους. Κανένας από τους μηχανικούς που εμπλέκονται στην ανάπτυξη αυτών των μοντέλων AI δεν μπορούσε να σας πει τι ακριβώς θα παράγουν τα μοντέλα. Για να περιπλέκουν τα πράγματα, αυτά τα μοντέλα αλλάζουν και εξελίσσονται με ολοένα και μεγαλύτερη αλληλεπίδραση.

Όλα αυτά σημαίνουν ότι υπάρχει μεγάλη πιθανότητα για αστοχίες. Ως εκ τούτου, πολλά εξαρτώνται από το πώς εφαρμόζονται τα συστήματα τεχνητής νοημοσύνης και ποιες διατάξεις για την προσφυγή υπάρχουν όταν βλάπτονται οι ανθρώπινες ευαισθησίες ή η ευημερία. Το AI είναι περισσότερο μια υποδομή, όπως ένας αυτοκινητόδρομος. Μπορείτε να το σχεδιάσετε για να διαμορφώσετε τις ανθρώπινες συμπεριφορές στο σύνολο, αλλά θα χρειαστείτε μηχανισμούς για να αντιμετωπίσετε τις καταχρήσεις, όπως η υπερβολική ταχύτητα και απρόβλεπτα γεγονότα, όπως τα ατυχήματα.

Οι προγραμματιστές τεχνητής νοημοσύνης θα πρέπει επίσης να είναι εξαιρετικά δημιουργικοί στην πρόβλεψη των τρόπων συμπεριφοράς του συστήματος και να προσπαθήσουν να προβλέψουν πιθανές παραβιάσεις των κοινωνικών προτύπων και ευθυνών. Αυτό σημαίνει ότι υπάρχει ανάγκη για ρυθμιστικά πλαίσια ή πλαίσια διακυβέρνησης που να βασίζονται σε περιοδικούς ελέγχους και έλεγχο των αποτελεσμάτων και των προϊόντων της τεχνητής νοημοσύνης, αν και πιστεύω ότι αυτά τα πλαίσια πρέπει επίσης να αναγνωρίζουν ότι οι σχεδιαστές συστημάτων δεν μπορούν πάντα να θεωρούνται υπεύθυνοι για περιστατικά .

Συνδυάζοντας «μαλακές» και «σκληρές» προσεγγίσεις

Cason Schmit, επίκουρος καθηγητής δημόσιας υγείας, Texas A&M University

Η ρύθμιση της τεχνητής νοημοσύνης είναι περίπλοκη . Για να συντονίσετε καλά το AI, πρέπει πρώτα να το κάνετε defiκατανοήστε την τεχνητή νοημοσύνη και κατανοήστε τους αναμενόμενους κινδύνους και τα οφέλη της τεχνητής νοημοσύνης. DefiΗ νομική κατάθεση AI είναι σημαντική για τον προσδιορισμό του τι υπόκειται στο νόμο. Αλλά οι τεχνολογίες AI εξακολουθούν να εξελίσσονται, επομένως είναι δύσκολο defiτελειώστε ένα defiσταθερό νομικό ορισμό.

Η κατανόηση των κινδύνων και των οφελών της τεχνητής νοημοσύνης είναι επίσης σημαντική. Η καλή ρύθμιση θα πρέπει να μεγιστοποιεί τα δημόσια οφέλη ελαχιστοποιώντας ταυτόχρονα τους κινδύνους. Ωστόσο, οι εφαρμογές τεχνητής νοημοσύνης εξακολουθούν να εμφανίζονται, επομένως είναι δύσκολο να γνωρίζουμε ή να προβλέψουμε ποιοι μπορεί να είναι οι μελλοντικοί κίνδυνοι ή τα οφέλη. Αυτοί οι τύποι αγνώστων καθιστούν εξαιρετικά τις αναδυόμενες τεχνολογίες όπως η τεχνητή νοημοσύνη δύσκολο να ρυθμιστεί με παραδοσιακούς νόμους και κανονισμούς.

Οι νομοθέτες είναι συχνά πολύ αργή για προσαρμογή στο ταχέως μεταβαλλόμενο τεχνολογικό περιβάλλον. Κάποιος νέους νόμους είναι απαρχαιωμένα τη στιγμή που εκδίδονται ή έγινε στέλεχος. Χωρίς νέους νόμους, ρυθμιστικές αρχές πρέπει να χρησιμοποιήσουν τους παλιούς νόμους να αντιμετωπίσω νέα προβλήματα . Μερικές φορές αυτό οδηγεί σε νομικά εμπόδια για κοινωνικές παροχές o νομικά κενά για επιβλαβείς συμπεριφορές .

Μαλακός Νόμος

Το "απαλός νόμος » είναι η εναλλακτική στις παραδοσιακές νομοθετικές προσεγγίσεις «σκληρού δικαίου» που στοχεύουν στην πρόληψη συγκεκριμένων παραβιάσεων. Στην προσέγγιση του ήπιου δικαίου, ιδρύεται ένας ιδιωτικός οργανισμός κανόνες ή πρότυπα για τα μέλη του κλάδου. Αυτά μπορούν να αλλάξουν πιο γρήγορα από την παραδοσιακή νομοθεσία. Που κανει πολλά υποσχόμενοι ήπιοι νόμοι για τις αναδυόμενες τεχνολογίες επειδή μπορούν να προσαρμοστούν γρήγορα σε νέες εφαρμογές και κινδύνους. Ωστόσο, Οι ήπιοι νόμοι μπορεί να σημαίνουν ήπια επιβολή .

Μέγκαν Ντόερ , Τζένιφερ Βάγκνερ e io (Κέισον Σμιτ) προτείνουμε έναν τρίτο τρόπο: Copyleft AI με αξιόπιστη εφαρμογή (CAITE) . Αυτή η προσέγγιση συνδυάζει δύο πολύ διαφορετικές έννοιες στην πνευματική ιδιοκτησία: τις άδειες copyleft e patent troll.

Αντιγραφή αριστερών αδειών

Οι άδειες copyleft σας επιτρέπουν να χρησιμοποιείτε, να επαναχρησιμοποιείτε ή να τροποποιείτε εύκολα περιεχόμενο σύμφωνα με τους όρους μιας άδειας χρήσης, όπως λογισμικό ανοιχτού κώδικα. Μοντέλο CAITE χρήση αδειών copyleft να απαιτεί από τους χρήστες τεχνητής νοημοσύνης να ακολουθούν συγκεκριμένες δεοντολογικές κατευθυντήριες γραμμές, όπως διαφανείς αξιολογήσεις του αντίκτυπου της μεροληψίας.

Στο μοντέλο μας, αυτές οι άδειες μεταβιβάζουν επίσης το νόμιμο δικαίωμα επιβολής παραβιάσεων αδειών σε ένα αξιόπιστο τρίτο μέρος. Αυτό δημιουργεί μια οντότητα επιβολής που υπάρχει αποκλειστικά για την επιβολή των ηθικών προτύπων τεχνητής νοημοσύνης και μπορεί να χρηματοδοτηθεί εν μέρει από πρόστιμα για ανήθικη συμπεριφορά. Αυτή η οντότητα είναι σαν α patent troll καθώς είναι ιδιωτικό και όχι κυβερνητικό και υποστηρίζει τον εαυτό του επιβάλλοντας τα νόμιμα δικαιώματα πνευματικής ιδιοκτησίας που συλλέγει από άλλους. Σε αυτήν την περίπτωση, αντί να τρέχει για κέρδος, η οντότητα επιβάλλει ηθικές οδηγίες definite στις άδειες.

Αυτό το μοντέλο είναι ευέλικτο και προσαρμόσιμο για να καλύψει τις ανάγκες ενός συνεχώς μεταβαλλόμενου περιβάλλοντος τεχνητής νοημοσύνης. Επιτρέπει επίσης σημαντικές επιλογές επιβολής όπως μια παραδοσιακή κυβερνητική ρυθμιστική αρχή. Με αυτόν τον τρόπο, συνδυάζει τα καλύτερα στοιχεία σκληρών και μαλακών προσεγγίσεων δικαίου για την αντιμετώπιση των μοναδικών προκλήσεων της τεχνητής νοημοσύνης.

Τέσσερα βασικά ερωτήματα που πρέπει να κάνετε

John Villasenor, καθηγητής ηλεκτρολογίας, νομικής, δημόσιας πολιτικής και διαχείρισης, Πανεπιστήμιο της Καλιφόρνια, Λος Άντζελες

ο εξαιρετική πρόσφατη πρόοδος σε μεγάλες γλώσσες, η γενετική τεχνητή νοημοσύνη που βασίζεται σε μοντέλα διεγείρει τη ζήτηση για τη δημιουργία νέων ρυθμίσεων ειδικά για την τεχνητή νοημοσύνη. Ακολουθούν τέσσερις βασικές ερωτήσεις που πρέπει να κάνετε στον εαυτό σας:

1) Υπάρχει ανάγκη για νέα ειδική ρύθμιση για την τεχνητή νοημοσύνη; 

Πολλά από τα δυνητικά προβληματικά αποτελέσματα των συστημάτων AI αντιμετωπίζονται ήδη από τα υπάρχοντα πλαίσια. Εάν ένας αλγόριθμος τεχνητής νοημοσύνης που χρησιμοποιείται από μια τράπεζα για την αξιολόγηση των αιτήσεων δανείου οδηγεί σε αποφάσεις δανεισμού που εισάγουν φυλετικές διακρίσεις, θα παραβιάζει τον νόμο περί δίκαιης στέγασης. Εάν το λογισμικό τεχνητής νοημοσύνης σε αυτοκίνητο χωρίς οδηγό προκαλέσει ατύχημα, ο νόμος περί ευθύνης προϊόντων προβλέπει πλαίσιο για την επιδίωξη επανορθωτικών μέτρων .

2) Ποιοι είναι οι κίνδυνοι από τη ρύθμιση μιας ταχέως εξελισσόμενης τεχνολογίας που βασίζεται σε ένα στιγμιότυπο του χρόνου; 

Ένα κλασικό παράδειγμα αυτού είναι το Νόμος περί αποθηκευμένων επικοινωνιών , το οποίο θεσπίστηκε το 1986 για να αντιμετωπίσει τις τότε καινοτόμες τεχνολογίες ψηφιακής επικοινωνίας όπως το email. Με τη θέσπιση της SCA, το Κογκρέσο παρείχε σημαντικά λιγότερη προστασία απορρήτου για email παλαιότερα των 180 ημερών.

Το σκεπτικό ήταν ότι ο περιορισμένος χώρος αποθήκευσης σήμαινε ότι οι άνθρωποι καθάριζαν συνεχώς τα εισερχόμενά τους διαγράφοντας παλαιότερα μηνύματα για να κάνουν χώρο για νέα. Ως αποτέλεσμα, τα μηνύματα που αρχειοθετήθηκαν για περισσότερες από 180 ημέρες θεωρήθηκαν λιγότερο σημαντικά από την άποψη του απορρήτου. Δεν είναι σαφές εάν αυτή η λογική είχε ποτέ νόημα, και σίγουρα δεν έχει νόημα στη δεκαετία του 20, όταν τα περισσότερα από τα email μας και άλλες αρχειοθετημένες ψηφιακές επικοινωνίες είναι πάνω από έξι μήνες.

Μια κοινή απάντηση στις ανησυχίες σχετικά με τη ρύθμιση της τεχνολογίας που βασίζεται σε ένα μόνο στιγμιότυπο με την πάροδο του χρόνου είναι η εξής: Εάν ένας νόμος ή ένας κανονισμός καταστεί απαρχαιωμένος, ενημερώστε τον. Είναι πιο εύκολο να το λες παρά να το κάνεις. Οι περισσότεροι άνθρωποι συμφωνούν ότι η SCA απαρχαιώθηκε πριν από δεκαετίες. Όμως, επειδή το Κογκρέσο δεν μπόρεσε να συμφωνήσει συγκεκριμένα για τον τρόπο αναθεώρησης της διάταξης των 180 ημερών, εξακολουθεί να βρίσκεται στα βιβλία περισσότερο από το ένα τρίτο του αιώνα μετά τη θέσπισή της.

3) Ποιες είναι οι πιθανές ανεπιθύμητες συνέπειες; 

Il Επιτρέψτε στα κράτη και στα θύματα να καταπολεμήσουν τον νόμο του 2017 σχετικά με τη διαδικτυακή σεξουαλική διακίνηση ήταν ένας νόμος που ψηφίστηκε το 2018 που αναθεώρησε Άρθρο 230 του Communications Decency Act με στόχο την καταπολέμηση της σεξουαλικής εμπορίας. Ενώ υπάρχουν ελάχιστα στοιχεία ότι έχει μειώσει τη σεξουαλική εμπορία, είχε α εξαιρετικά προβληματικό αντίκτυπο σε διαφορετική ομάδα ανθρώπων: εργαζόμενοι του σεξ που βασίζονταν σε ιστοσελίδες που είχαν αφαιρεθεί εκτός σύνδεσης από το FOSTA-SESTA για να ανταλλάξουν πληροφορίες σχετικά με επικίνδυνους πελάτες. Αυτό το παράδειγμα δείχνει τη σημασία της ευρείας ματιάς στις πιθανές επιπτώσεις των προτεινόμενων κανονισμών.

4) Ποιες είναι οι οικονομικές και γεωπολιτικές επιπτώσεις; 

Εάν οι ρυθμιστικές αρχές στις ΗΠΑ αναλάβουν δράση για να επιβραδύνουν σκόπιμα την πρόοδο στον τομέα της τεχνητής νοημοσύνης, απλώς θα ωθήσουν τις επενδύσεις και την καινοτομία - και ως αποτέλεσμα τη δημιουργία θέσεων εργασίας - αλλού. Ενώ η αναδυόμενη τεχνητή νοημοσύνη εγείρει πολλές ανησυχίες, υπόσχεται επίσης να αποφέρει τεράστια οφέλη σε τομείς όπως εντολή , Medicina , παραγωγή , ασφάλεια των μεταφορών , γεωργία , μετεωρολογικές προβλέψεις , πρόσβαση σε νομικές υπηρεσίες e alt ancora.

Πιστεύω ότι οι κανονισμοί τεχνητής νοημοσύνης που συντάχθηκαν έχοντας υπόψη τα παραπάνω τέσσερα ερωτήματα θα είναι πιο πιθανό να αντιμετωπίσουν με επιτυχία τις πιθανές βλάβες της τεχνητής νοημοσύνης διασφαλίζοντας παράλληλα την πρόσβαση στα οφέλη της.

Αυτό το άρθρο προέρχεται ελεύθερα από το The Conversation, έναν ανεξάρτητο μη κερδοσκοπικό ειδησεογραφικό οργανισμό αφιερωμένο στο να μοιράζεται τη γνώση ακαδημαϊκών ειδικών.

Σχετικές αναγνώσεις

BlogInnovazione.it

Ενημερωτικό δελτίο καινοτομίας
Μην χάσετε τα πιο σημαντικά νέα για την καινοτομία. Εγγραφείτε για να τα λάβετε μέσω email.

Πρόσφατα άρθρα

Τα οφέλη των σελίδων χρωματισμού για παιδιά - ένας κόσμος μαγείας για όλες τις ηλικίες

Η ανάπτυξη λεπτών κινητικών δεξιοτήτων μέσω του χρωματισμού προετοιμάζει τα παιδιά για πιο σύνθετες δεξιότητες όπως η γραφή. Να χρωματίσω…

2 Μαΐου 2024

Το μέλλον είναι εδώ: Πώς η ναυτιλιακή βιομηχανία φέρνει επανάσταση στην παγκόσμια οικονομία

Ο ναυτικός τομέας είναι μια πραγματική παγκόσμια οικονομική δύναμη, η οποία έχει προσανατολιστεί προς μια αγορά 150 δισεκατομμυρίων...

1 Μαΐου 2024

Οι εκδότες και το OpenAI υπογράφουν συμφωνίες για τη ρύθμιση της ροής πληροφοριών που επεξεργάζεται η τεχνητή νοημοσύνη

Την περασμένη Δευτέρα, οι Financial Times ανακοίνωσαν συμφωνία με το OpenAI. Η FT αδειοδοτεί την παγκόσμιας κλάσης δημοσιογραφία της…

Απρίλιος 30 2024

Ηλεκτρονικές πληρωμές: Δείτε πώς οι υπηρεσίες ροής σας κάνουν να πληρώνετε για πάντα

Εκατομμύρια άνθρωποι πληρώνουν για υπηρεσίες ροής, πληρώνοντας μηνιαίες συνδρομές. Είναι κοινή γνώμη ότι…

Απρίλιος 29 2024

Διαβάστε την Καινοτομία στη γλώσσα σας

Ενημερωτικό δελτίο καινοτομίας
Μην χάσετε τα πιο σημαντικά νέα για την καινοτομία. Εγγραφείτε για να τα λάβετε μέσω email.

Seguici