Οι πρώτοι κανόνες για την τεχνητή νοημοσύνη στον κόσμο: το ΕΚ έτοιμο για διαπραγματεύσεις

0
136
τεχνητή νοημοσύνη

Στόχος των κανόνων είναι να καταστεί η τεχνητή νοημοσύνη ανθρωποκεντρική, αξιόπιστη και χωρίς επιβλαβείς επιπτώσεις στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα και τη δημοκρατία.

Την Τετάρτη, το Ευρωπαϊκό Κοινοβούλιο ενέκρινε τη διαπραγματευτική του θέση σχετικά με την νέα νομοθεσία της ΕΕ για την τεχνητή νοημοσύνη με 499 ψήφους υπέρ, 28 κατά και 93 αποχές. Θα ξεκινήσει τώρα συνομιλίες με το Συμβούλιο, με σκοπό να καταλήξουν σε συμφωνία για την τελική μορφή που θα λάβει η νομοθεσία. Οι κανόνες θα διασφαλίζουν ότι η τεχνολογία της τεχνητής νοημοσύνης θα αναπτύσσεται και θα χρησιμοποιείται στην Ευρώπη με απόλυτο σεβασμό προς τα δικαιώματα και τις αξίες της ΕΕ, όπως η ανθρώπινη εποπτεία και η ασφάλεια, ο σεβασμός της ιδιωτικής ζωής, η διαφάνεια, η απαγόρευση των διακρίσεων και η μέριμνα για τα κοινωνικά και περιβαλλοντικά θέματα.

Απαγόρευση πρακτικών

Οι νέοι κανόνες θα χωρίζουν τα συστήματα τεχνητής νοημοσύνης σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν και θα θεσπίζουν υποχρεώσεις, για τους παρόχους αλλά και για όσους τα διαθέτουν, για καθεμία από αυτές τις κατηγορίες. Σύμφωνα με το προσχέδιο της νομοθεσίας, τα συστήματα τεχνητής νοημοσύνης που κατατάσσονται στο επίπεδο υπερβολικά υψηλού κινδύνου για την ανθρώπινη ασφάλεια θα απαγορεύονται πλήρως, όπως σε περιπτώσεις «κοινωνικής βαθμολόγησης». Οι ευρωβουλευτές διεύρυναν την συγκεκριμένη κατηγορία, συμπεριλαμβάνοντας επίσης τις χρήσεις της τεχνολογίας αυτής που αποτελούν παραβιάσεις της ιδιωτικής ζωής ή οδηγούν σε διακρίσεις, όπως οι εξής

  • Εξ αποστάσεως βιομετρική αναγνώριση προσώπων σε πραγματικό χρόνο , σε δημόσιους χώρους
  • Eκ των υστέρων βιομετρική ταυτοποίηση, εκτός εάν υπάρχει νόμιμη άδεια από τις αρμόδιες αρχές και είναι απολύτως αναγκαία σε συνάρτηση με συγκεκριμένο σοβαρό ποινικό αδίκημα
  • Βιομετρική κατηγοριοποίηση ατόμων με βάση προσωπικά δεδομένα ευαίσθητου χαρακτήρα (π.χ. φύλο, φυλή, εθνοτική καταγωγή, υπηκοότητα, θρησκεία, πολιτικός προσανατολισμός)
  • Προληπτική αστυνόμευση (με βάση τη δημιουργία προφίλ, την τοποθεσία ή προηγούμενη εγκληματική συμπεριφορά ατόμων)
  • Αναγνώριση συναισθημάτων για λόγους αστυνόμευσης, για τον έλεγχο των συνόρων, στον χώρο εργασίας και στα εκπαιδευτικά ιδρύματα
  • Μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων (κατά παράβαση των ανθρωπίνων δικαιωμάτων και του δικαιώματος στην ιδιωτική ζωή).

Τεχνητή νοημοσύνη υψηλού κινδύνου

Οι ευρωβουλευτές εξασφάλισαν, επίσης, ότι ο κατάλογος με τις χρήσεις υψηλού κινδύνου θα περιλαμβάνει τα συστήματα τεχνητής νοημοσύνης που προκαλούν σημαντική βλάβη στην υγεία, την ασφάλεια και τα θεμελιώδη δικαιώματα των ανθρώπων ή στο περιβάλλον. Στον ίδιο κατάλογο συμπεριλήφθηκαν ακόμα τα συστήματα που χρησιμοποιούνται για να επηρεάσουν τους ψηφοφόρους και συνεπώς τα αποτελέσματα των εκλογών, καθώς και οι συστάσεις περιεχομένου που κάνουν οι πλατφόρμες κοινωνικής δικτύωσης στους πάνω από 45 εκατομμύρια χρήστες τους, με βάση αλγόριθμους.

Υποχρεώσεις για τις γενικής χρήσης εφαρμογές τεχνητής νοημοσύνης

Οι εταιρείες προγραμματισμού που δημιουργούν νέου τύπου εφαρμογές τεχνητής νοημοσύνης (τα λεγόμενα «foundation models») θα πρέπει να αξιολογούν και να μετριάζουν τους πιθανούς κινδύνους (για την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, την δημοκρατία και το κράτος δικαίου) και να εγγράφουν τις εφαρμογές αυτές στη βάση δεδομένων της ΕΕ, πριν τις διαθέσουν στην ευρωπαϊκή αγορά. Θα πρέπει να μεριμνούν ώστε όλες οι εφαρμογές παραγωγικής τεχνητής νοημοσύνης που στηρίζονται σε τέτοια μοντέλα, όπως το ChatGPT, να συμμορφώνονται με τις απαιτήσεις διαφάνειας της ΕΕ (γνωστοποιώντας στο κοινό ότι έχουν χρησιμοποιηθεί για την δημιουργία ενός προϊόντος τεχνητής νοημοσύνης, βοηθώντας επίσης στον διαχωρισμό των παραποιημένων εικόνων « , ενώ θα πρέπει, επίσης, να λαμβάνουν κατάλληλα μέτρα, ώστε να διασφαλίζεται ότι δεν παράγουν παράνομο περιεχόμενο. Θα έχουν, τέλος, την υποχρέωση να διαθέτουν στο κοινό λεπτομερή καταγραφή του υλικού που προστατεύεται από δικαιώματα πνευματικής ιδιοκτησίας και χρησιμοποιήθηκε για την «εκπαίδευση» των συστημάτων τους.

Στήριξη της καινοτομίας και προστασία των δικαιωμάτων των πολιτών

Προκειμένου να ενθαρρύνουν την καινοτομία και να στηρίξουν τις μικρομεσαίες επιχειρήσεις, οι ευρωβουλευτές προτείνουν να εξαιρούνται από αυτές τις υποχρεώσεις οι ερευνητικές δραστηριότητες και τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα. Η νέα νομοθεσία καλεί να δημιουργηθούν επίσης ορισμένα «ρυθμιστικά δοκιμαστήρια», όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.

Τέλος, οι ευρωβουλευτές επιθυμούν να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες σχετικά με συστήματα τεχνητής νοημοσύνης, καθώς και το δικαίωμά τους να δέχονται εξηγήσεις για τυχόν αποφάσεις που έχουν ληφθεί με βάση συστήματα υψηλού κινδύνου και επηρεάζουν σε σημαντικό βαθμό τα θεμελιώδη δικαιώματά τους. Οι ευρωβουλευτές αναμόρφωσαν επίσης τον ρόλο που θα έχει το Γραφείο τεχνητής νοημοσύνης της ΕΕ, το οποίο θα παρακολουθεί την εφαρμογή του εγχειριδίου κανόνων για την τεχνητή νοημοσύνη.