Προς πλήρη απαγόρευση της χρήσης της τεχνητής νοημοσύνης για βιομετρική ταυτοποίηση, αναγνώριση συναισθημάτων και προληπτική αστυνόμευση
Εφαρμογές «παραγωγικής τεχνητής νοημοσύνης» όπως το ChatGPT θα πρέπει να επισημαίνουν τα προϊόντα τους
Τα συστήματα που χρησιμοποιούνται για να επηρεάσουν ψηφοφόρους να χαρακτηριστούν υψηλού κινδύνου
Στόχος των κανόνων είναι να καταστεί η τεχνητή νοημοσύνη ανθρωποκεντρική, αξιόπιστη και χωρίς επιβλαβείς επιπτώσεις στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα και τη δημοκρατία.
Την Τετάρτη, το Ευρωπαϊκό Κοινοβούλιο ενέκρινε τη διαπραγματευτική του θέση σχετικά με την νέα νομοθεσία της ΕΕ για την τεχνητή νοημοσύνη με 499 ψήφους υπέρ, 28 κατά και 93 αποχές. Θα ξεκινήσει τώρα συνομιλίες με το Συμβούλιο, με σκοπό να καταλήξουν σε συμφωνία για την τελική μορφή που θα λάβει η νομοθεσία. Οι κανόνες θα διασφαλίζουν ότι η τεχνολογία της τεχνητής νοημοσύνης θα αναπτύσσεται και θα χρησιμοποιείται στην Ευρώπη με απόλυτο σεβασμό προς τα δικαιώματα και τις αξίες της ΕΕ, όπως η ανθρώπινη εποπτεία και η ασφάλεια, ο σεβασμός της ιδιωτικής ζωής, η διαφάνεια, η απαγόρευση των διακρίσεων και η μέριμνα για τα κοινωνικά και περιβαλλοντικά θέματα.

Απαγόρευση πρακτικών

Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής

·  Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο ή εκ των υστέρων, σε δημόσιους χώρους

·  Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)

·  Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)

·  Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα

·  Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Τεχνητή νοημοσύνη υψηλού κινδύνου

Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον. Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατομμύρια χρήστες τους, με βάση αλγόριθμους.

Υποχρεώσεις για τις γενικής χρήσης εφαρμογές τεχνητής νοημοσύνης

Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά. Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων « , ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.

Στήριξη της καινοτομίας και προστασία των δικαιωμάτων των πολιτών

Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα. Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.

Τέλος, οι ευρωβουλευτές επιθυμούν να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες σχετικά με συστήματα τεχνητής νοημοσύνης, καθώς και το δικαίωμά τους να δέχονται εξηγήσεις για τυχόν αποφάσεις που έχουν ληφθεί με βάση συστήματα υψηλού κινδύνου και επηρεάζουν σε σημαντικό βαθμό τα θεμελιώδη δικαιώματά τους. Οι ευρωβουλευτές αναμόρφωσαν επίσης τον ρόλο που θα έχει το Γραφείο τεχνητής νοημοσύνης της ΕΕ, το οποίο θα παρακολουθεί την εφαρμογή του εγχειριδίου κανόνων για την τεχνητή νοημοσύνη.

Δηλώσεις

Μετά την ψηφοφορία, ο συνεισηγητής Brando Benifei (Σοσιαλιστές, Ιταλία) δήλωσε: «Τα βλέμματα όλου του κόσμου είναι στραμμένα πάνω μας σήμερα. Όσο οι τεχνολογικοί κολοσσοί κρούουν τον κώδωνα του κινδύνου για τα ίδια τα δημιουργήματά τους, η Ευρώπη προχωρά προτείνοντας συγκεκριμένους κανόνες για τους κινδύνους που αρχίζει να αντιπροσωπεύει η τεχνητή νοημοσύνη. Θέλουμε οι θετικές δυνατότητες της τεχνολογίας αυτής για τη δημιουργία και την παραγωγικότητα να τιθασευτούν, ενώ ταυτόχρονα παλεύουμε για την προστασία της θέσης μας στον κόσμο και την αντιμετώπιση κινδύνων για τις δημοκρατίες και την ελευθερία μας, στις διαπραγματεύσεις μας με το Συμβούλιο.»

Ο συνεισηγητής Dragos Tudorache (Renew, Ρουμανία) δήλωσε: «Η νομοθετική πράξη για την τεχνητή νοημοσύνη θα ορίσει τη βάση της παγκόσμιας συζήτησης για την ανάπτυξη και τη διακυβέρνηση της τεχνητής νοημοσύνης, διασφαλίζοντας ότι η τεχνολογία αυτή, η οποία είναι έτοιμη να αλλάξει ριζικά τις κοινωνίες μας μέσω των τεράστιων οφελών που μπορεί να προσφέρει, θα αναπτυχθεί και θα χρησιμοποιηθεί σύμφωνα με τις ευρωπαϊκές αξίες της δημοκρατίας, των θεμελιωδών δικαιωμάτων και του κράτους δικαίου.»

ΑΦΗΣΤΕ ΜΙΑ ΑΠΑΝΤΗΣΗ

εισάγετε το σχόλιό σας!
παρακαλώ εισάγετε το όνομά σας εδώ