Το Συμβούλιο της Ευρώπης άναψε το «πράσινο φως» σε έναν πρωτοποριακό νόμο με στόχο την εναρμόνιση των κανόνων για την τεχνητή νοημοσύνη, τη λεγόμενη πράξη για την τεχνητή νοημοσύνη (AI Act). Η εμβληματική νομοθεσία ακολουθεί μια προσέγγιση «με βάση τον κίνδυνο», που σημαίνει ότι όσο μεγαλύτερος είναι ο κίνδυνος πρόκλησης βλάβης στην κοινωνία, τόσο αυστηρότεροι είναι οι κανόνες. Σημειώνεται ότι είναι η πρώτη φορά παγκοσμίως που τίθενται κανόνες σε αυτό το επίπεδο, οι οποίοι θα μπορούσαν να αποτελέσουν ένα οικουμενικό πρότυπο για τη ρύθμιση της τεχνητής νοημοσύνης.
Ο νέος νόμος αποσκοπεί στην προώθηση της ανάπτυξης και της υιοθέτησης ασφαλών και αξιόπιστων συστημάτων ΤΝ σε ολόκληρη την ενιαία αγορά της ΕΕ τόσο από ιδιωτικούς όσο και από δημόσιους φορείς. Παράλληλα, αποσκοπεί στη διασφάλιση του σεβασμού των θεμελιωδών δικαιωμάτων των πολιτών της ΕΕ και στην τόνωση των επενδύσεων και της καινοτομίας στον τομέα της τεχνητής νοημοσύνης στην Ευρώπη. Η πράξη για την τεχνητή νοημοσύνη εφαρμόζεται μόνο σε τομείς που εμπίπτουν στο δίκαιο της ΕΕ και προβλέπει εξαιρέσεις, όπως για συστήματα που χρησιμοποιούνται αποκλειστικά για στρατιωτικούς και αμυντικούς σκοπούς, καθώς και για ερευνητικούς σκοπούς.
Ορόσημο για την ΕΕ
Η έκδοση της πράξης για την τεχνητή νοημοσύνη αποτελεί σημαντικό ορόσημο για την Ευρωπαϊκή Ένωση. Αυτός ο νόμος-ορόσημο, ο πρώτος του είδους του στον κόσμο, αντιμετωπίζει μια παγκόσμια τεχνολογική πρόκληση που δημιουργεί επίσης ευκαιρίες για τις κοινωνίες και τις οικονομίες μας. Με την πράξη για την τεχνητή νοημοσύνη, η Ευρώπη υπογραμμίζει τη σημασία της εμπιστοσύνης, της διαφάνειας και της λογοδοσίας κατά την ενασχόληση με τις νέες τεχνολογίες, ενώ ταυτόχρονα διασφαλίζει ότι αυτή η ταχέως μεταβαλλόμενη τεχνολογία μπορεί να ανθίσει και να δώσει ώθηση στην ευρωπαϊκή καινοτομία.
Ο Ματιέ Μισέλ (Mathieu Michel), Βέλγος υφυπουργός ψηφιοποίησης, διοικητικής απλούστευσης, προστασίας της ιδιωτικής ζωής και κανονισμών για τα κτίρια, δήλωσε: «Ο νέος νόμος κατηγοριοποιεί τα διάφορα είδη τεχνητής νοημοσύνης ανάλογα με τον κίνδυνο. Τα συστήματα τεχνητής νοημοσύνης που παρουσιάζουν μόνο περιορισμένο κίνδυνο θα υπόκεινται σε πολύ ελαφρές υποχρεώσεις διαφάνειας, ενώ τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα εγκρίνονται μεν, αλλά θα υπόκεινται σε μια σειρά απαιτήσεων και υποχρεώσεων για να αποκτήσουν πρόσβαση στην αγορά της ΕΕ. Συστήματα τεχνητής νοημοσύνης όπως, για παράδειγμα, η γνωστική χειραγώγηση της συμπεριφοράς και η κοινωνική βαθμολόγηση θα απαγορευτούν από την ΕΕ, επειδή ο κίνδυνος τους θεωρείται απαράδεκτος. Ο νόμος απαγορεύει επίσης τη χρήση της ΤΝ για την προγνωστική αστυνόμευση με βάση την κατάρτιση προφίλ και τα συστήματα που χρησιμοποιούν βιομετρικά δεδομένα για την κατηγοριοποίηση των ανθρώπων σύμφωνα με συγκεκριμένες κατηγορίες, όπως η φυλή, η θρησκεία ή ο σεξουαλικός προσανατολισμός».
Μοντέλα ΤΝ γενικού σκοπού
Ο νόμος για την ΤΝ αφορά επίσης τη χρήση μοντέλων ΤΝ γενικού σκοπού (GPAI).
Τα μοντέλα GPAI που δεν ενέχουν συστημικούς κινδύνους θα υπόκεινται σε ορισμένες περιορισμένες απαιτήσεις, για παράδειγμα όσον αφορά τη διαφάνεια, αλλά εκείνα που ενέχουν συστημικούς κινδύνους θα πρέπει να συμμορφώνονται με αυστηρότερους κανόνες.
Μια νέα αρχιτεκτονική διακυβέρνησης
Για να διασφαλιστεί η ορθή εφαρμογή, δημιουργούνται διάφορα διοικητικά όργανα:
- Γραφείο ΤΠ εντός της Επιτροπής για την επιβολή των κοινών κανόνων σε ολόκληρη την ΕΕ.
- Μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων για την υποστήριξη των δραστηριοτήτων επιβολής
- Ένα συμβούλιο ΤΠ με εκπροσώπους των κρατών μελών για να συμβουλεύει και να βοηθά την Επιτροπή και τα κράτη μέλη στη συνεπή και αποτελεσματική εφαρμογή της πράξης ΤΠ.
- Ένα συμβουλευτικό φόρουμ για τα ενδιαφερόμενα μέρη που θα παρέχει τεχνική εμπειρογνωμοσύνη στο συμβούλιο ΓΠ και στην Επιτροπή
Κυρώσεις
Τα πρόστιμα για τις παραβάσεις της πράξης ΤΠ καθορίζονται ως ποσοστό του συνολικού ετήσιου κύκλου εργασιών της παραβάτριας εταιρείας κατά το προηγούμενο οικονομικό έτος ή ως προκαθορισμένο ποσό, ανάλογα με το ποιο είναι υψηλότερο. Οι ΜΜΕ και οι νεοσύστατες επιχειρήσεις υπόκεινται σε αναλογικά διοικητικά πρόστιμα.
Διαφάνεια και προστασία των θεμελιωδών δικαιωμάτων
Πριν από την ανάπτυξη ενός συστήματος τεχνητής νοημοσύνης υψηλού κινδύνου από ορισμένους φορείς που παρέχουν δημόσιες υπηρεσίες, θα πρέπει να αξιολογηθεί ο αντίκτυπος στα θεμελιώδη δικαιώματα. Ο κανονισμός προβλέπει επίσης αυξημένη διαφάνεια όσον αφορά την ανάπτυξη και τη χρήση συστημάτων ΤΝ υψηλού κινδύνου. Τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, καθώς και ορισμένοι χρήστες ενός συστήματος τεχνητής νοημοσύνης υψηλού κινδύνου που είναι δημόσιοι φορείς θα πρέπει να καταχωρίζονται στη βάση δεδομένων της ΕΕ για τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου, ενώ οι χρήστες ενός συστήματος αναγνώρισης συναισθημάτων θα πρέπει να ενημερώνουν τα φυσικά πρόσωπα όταν εκτίθενται σε ένα τέτοιο σύστημα.
Μέτρα για τη στήριξη της καινοτομίας
Ο νόμος για την ΤΝ προβλέπει ένα νομικό πλαίσιο φιλικό προς την καινοτομία και αποσκοπεί στην προώθηση της κανονιστικής μάθησης με βάση τα αποδεικτικά στοιχεία. Ο νέος νόμος προβλέπει ότι τα ρυθμιστικά sandboxes ΤΝ, που επιτρέπουν ένα ελεγχόμενο περιβάλλον για την ανάπτυξη, τη δοκιμή και την επικύρωση καινοτόμων συστημάτων ΤΝ, θα πρέπει επίσης να επιτρέπουν τη δοκιμή καινοτόμων συστημάτων ΤΝ σε πραγματικές συνθήκες.