spot_img
spot_img
ΑρχικήLaw NewsΑνακοίνωση της Ευρωπαϊκής Επιτροπής σχετικά με τη συμφωνία ΕΚ - Συμβουλίου για...

Ανακοίνωση της Ευρωπαϊκής Επιτροπής σχετικά με τη συμφωνία ΕΚ – Συμβουλίου για την Τεχνητή Νοημοσύνη

spot_img
spot_img
spot_img
spot_img

Η Επιτροπή χαιρετίζει την πολιτική συμφωνία που επιτεύχθηκε μεταξύ του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου σχετικά με την πράξη για την τεχνητή νοημοσύνη (ΤΝ) που πρότεινε η Επιτροπή τον Απρίλιο του 2021.

Η πρόεδρος της Ευρωπαϊκής Επιτροπής, Ούρσουλα φον ντερ Λάιεν, δήλωσε σχετικά: «Η τεχνητή νοημοσύνη αλλάζει ήδη την καθημερινή μας ζωή — κι αυτή δεν είναι παρά μόνο η αρχή. Αν χρησιμοποιηθεί με σύνεση και σε ευρεία κλίμακα, η τεχνητή νοημοσύνη υπόσχεται τεράστια οφέλη για την οικονομία και την κοινωνία μας. Ως εκ τούτου, χαιρετίζω θερμά τη σημερινή πολιτική συμφωνία του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου σχετικά με την πράξη για την τεχνητή νοημοσύνη. Η πράξη της ΕΕ για την ΤΝ είναι το πρώτο ολοκληρωμένο νομικό πλαίσιο για την τεχνητή νοημοσύνη παγκοσμίως. Η στιγμή λοιπόν είναι ιστορική. Η πράξη αυτή μεταφέρει τις ευρωπαϊκές αξίες σε μια νέα εποχή. Η σημερινή συμφωνία, εστιάζοντας τη νομοθεσία σε συγκεκριμένους κινδύνους, θα προωθήσει την υπεύθυνη καινοτομία στην Ευρώπη. Με τη εγγύηση της ασφάλειας και των θεμελιωδών δικαιωμάτων των πολιτών και των επιχειρήσεων, θα στηρίξει την ανάπτυξη, τη χρήση και τη διάδοση αξιόπιστης ΤΝ στην ΕΕ. Η πράξη μας για την ΤΝ θα συμβάλει σημαντικά στην ανάπτυξη παγκόσμιων κανόνων και αρχών για μια ανθρωποκεντρική ΤΝ.» 

Η ευρωπαϊκή προσέγγιση για μια αξιόπιστη ΤΝ

Οι νέοι κανόνες θα εφαρμόζονται άμεσα και με ενιαίο τρόπο σε όλα τα κράτη μέλη με βάση έναν διαχρονικό ορισμό της τεχνητής νοημοσύνης. Οι εν λόγω κανόνες ακολουθούν μια προσέγγιση με βάση τον κίνδυνο:

Ελάχιστος κίνδυνος: Η συντριπτική πλειονότητα των συστημάτων ΤΝ εμπίπτουν στην κατηγορία του ελάχιστου κινδύνου. Οι εφαρμογές ελάχιστου κινδύνου —όπως τα συστήματα συστάσεων ή τα φίλτρα ανεπιθύμητης αλληλογραφίας που βασίζονται στην τεχνητή νοημοσύνη— εξαιρούνται και δεν έχουν υποχρεώσεις, καθώς τα συστήματα αυτά ενέχουν ελάχιστο ή μηδενικό κίνδυνο για τα δικαιώματα ή την ασφάλεια των πολιτών. Οι εταιρείες μπορούν, ωστόσο, να δεσμεύονται οικειοθελώς από πρόσθετους κώδικες δεοντολογίας για τα εν λόγω συστήματα ΤΝ.

Υψηλός κίνδυνος: Τα συστήματα ΤΝ που χαρακτηρίζονται υψηλού κινδύνου θα πρέπει να πληρούν αυστηρές απαιτήσεις — π.χ. συστήματα μετριασμού του κινδύνου, υψηλή ποιότητα συνόλων δεδομένων, καταγραφή δραστηριοτήτων, λεπτομερή τεκμηρίωση, σαφή πληροφόρηση για τους χρήστες, ανθρώπινη εποπτεία και υψηλό επίπεδο αξιοπιστίας, ακρίβειας και κυβερνοασφάλειας. Τα ρυθμιστικά δοκιμαστήρια θα προαγάγουν την υπεύθυνη καινοτομία και την ανάπτυξη συμμορφούμενων συστημάτων ΤΝ.

Παραδείγματα τέτοιων συστημάτων ΤΝ υψηλού κινδύνου είναι ορισμένες υποδομές ζωτικής σημασίας, π.χ. στους τομείς του νερού, του αερίου και της ηλεκτρικής ενέργειας· των ιατροτεχνολογικών προϊόντων· των συστημάτων για τον καθορισμό της πρόσβασης σε εκπαιδευτικά ιδρύματα ή για την πρόσληψη εργαζομένων· ή ορισμένων συστημάτων που χρησιμοποιούνται στο πεδίο της επιβολής του νόμου, του ελέγχου των συνόρων, της απονομής δικαιοσύνης και των δημοκρατικών διαδικασιών. Επίσης, υψηλού κινδύνου θεωρούνται και τα συστήματα βιομετρικής ταυτοποίησης, κατηγοριοποίησης προσώπων και αναγνώρισης συναισθημάτων.

Μη αποδεκτός κίνδυνος: Τα συστήματα ΤΝ που θεωρείται ότι συνιστούν σαφή απειλή για τα θεμελιώδη δικαιώματα των ατόμων θα απαγορεύονται. Εδώ περιλαμβάνονται τα συστήματα ή οι εφαρμογές ΤΝ που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών και των χρηστριών, όπως τα παιχνίδια με φωνητικό βοηθό που παροτρύνουν ανηλίκους σε επικίνδυνη συμπεριφορά ή τα συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από κυβερνήσεις και εταιρείες, καθώς και ορισμένες εφαρμογές προληπτικής αστυνόμευσης. Επίσης, ορισμένες χρήσεις βιομετρικών συστημάτων θα απαγορεύονται, όπως για παράδειγμα τα συστήματα αναγνώρισης συναισθημάτων που χρησιμοποιούνται σε χώρους εργασίας, καθώς και ορισμένα συστήματα κατηγοριοποίησης ανθρώπων ή η εξ αποστάσεως και σε πραγματικό χρόνο βιομετρική ταυτοποίηση για σκοπούς επιβολής του νόμου σε δημόσια προσβάσιμους χώρους (με περιορισμένες εξαιρέσεις).

Ειδικός κίνδυνος διαφάνειας: Όταν χρησιμοποιούνται συστήματα ΤΝ όπως τα διαλογικά ρομπότ, οι χρήστες και οι χρήστριες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχανή. Τα προϊόντα βαθυπαραποίησης και τα άλλα είδη περιεχομένου που παράγεται από ΤΝ θα πρέπει να επισημαίνονται ως τέτοια και οι χρήστες πρέπει να ενημερώνονται όταν χρησιμοποιούνται συστήματα βιομετρικής κατηγοριοποίησης ή αναγνώρισης συναισθημάτων. Επιπλέον, οι πάροχοι θα πρέπει να σχεδιάζουν τα συστήματά τους με τρόπο ώστε περιεχόμενο που είναι συνθετικό (ήχος, βίντεο, κείμενο ή εικόνα) να επισημαίνεται ως τέτοιο με μηχαναγνώσιμο μορφότυπο και να είναι ανιχνεύσιμη η τεχνητή του παραγωγή ή παραποίηση.

Πρόστιμα

Στις εταιρείες που δεν συμμορφώνονται με τους κανόνες θα επιβάλλεται πρόστιμο. Τα πρόστιμα θα κυμαίνονται ως εξής: 35 εκατ. ευρώ ή 7 % του συνολικού ετήσιου κύκλου εργασιών (όποιο είναι υψηλότερο) για παραβιάσεις απαγορευμένων εφαρμογών ΤΝ, 15 εκατ. ευρώ ή 3 % για παραβάσεις άλλων υποχρεώσεων και 7,5 εκατ. ευρώ ή 1,5 % για παροχή ανακριβών πληροφοριών. Για διοικητικά πρόστιμα εις βάρος ΜΜΕ και νεοφυών επιχειρήσεων σε περιπτώσεις παραβιάσεων της πράξης για την ΤΝ προβλέπονται πιο αναλογικά ανώτατα όρια.

Τεχνητή νοημοσύνη γενικού σκοπού

Η πράξη για την ΤΝ θεσπίζει ειδικούς κανόνες για μοντέλα ΤΝ γενικού σκοπού, οι οποίοι θα διασφαλίζουν τη διαφάνεια σε όλα τα στάδια της αξιακής αλυσίδας. Για πολύ ισχυρά μοντέλα που μπορεί να ενέχουν συστημικούς κινδύνους θα ισχύουν πρόσθετες δεσμευτικές υποχρεώσεις σχετικά με τη διαχείριση των κινδύνων και την παρακολούθηση των σοβαρών περιστατικών, με αξιολόγηση μοντέλων και ανταγωνιστικές δοκιμές. Οι νέες αυτές υποχρεώσεις θα τεθούν σε εφαρμογή με κώδικες ορθών πρακτικών που θα αναπτυχθούν από τον κλάδο, την επιστημονική κοινότητα, την κοινωνία των πολιτών και άλλα ενδιαφερόμενα μέρη, από κοινού με την Επιτροπή.

Όσον αφορά τη διακυβέρνηση, οι αρμόδιες εθνικές αρχές εποπτείας της αγοράς θα εποπτεύουν την εφαρμογή των νέων κανόνων σε εθνικό επίπεδο, ενώ η σύσταση μιας νέας ευρωπαϊκής Υπηρεσίας ΤΝ εντός της Ευρωπαϊκής Επιτροπής θα διασφαλίζει τον συντονισμό σε ευρωπαϊκό επίπεδο. Η νέα Υπηρεσία ΤΝ θα εποπτεύει επίσης την εφαρμογή και την επιβολή των νέων κανόνων σχετικά με τα μοντέλα ΤΝ γενικού σκοπού. Μαζί με τις εθνικές αρχές εποπτείας της αγοράς, η Υπηρεσία ΤΝ θα είναι ο πρώτος φορέας παγκοσμίως που θα επιβάλλει δεσμευτικούς κανόνες για την ΤΝ και, ως εκ τούτου, αναμένεται να καταστεί διεθνές σημείο αναφοράς. Όσον αφορά τα μοντέλα γενικού σκοπού, κεντρικό ρόλο θα έχει μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων η οποία θα εκδίδει προειδοποιήσεις για τους συστημικούς κινδύνους και θα συμβάλλει στην ταξινόμηση και τη δοκιμή των μοντέλων.

Επόμενα βήματα

Η πολιτική συμφωνία πρέπει πλέον να εγκριθεί επισήμως από το Ευρωπαϊκό Κοινοβούλιο και το Συμβούλιο και θα τεθεί σε ισχύ 20 ημέρες μετά τη δημοσίευσή της στην Επίσημη Εφημερίδα. Η πράξη για την ΤΝ θα αρχίσει να παράγει έννομα αποτελέσματα δύο έτη μετά την έναρξη ισχύος της, εκτός από ορισμένες ειδικές διατάξεις: Οι απαγορεύσεις θα τεθούν σε ισχύ ήδη στους 6 μήνες, ενώ οι κανόνες για την ΤΝ γενικού σκοπού θα αρχίσουν να εφαρμόζονται μετά από 12 μήνες.

Προκειμένου να καλυφθεί η μεταβατική περίοδος έως τη γενική εφαρμογή του κανονισμού, η Επιτροπή θα δρομολογήσει ένα σύμφωνο για την ΤΝ. Σε αυτό θα συμπράττουν προγραμματιστές ΤΝ από την Ευρώπη και από όλον τον κόσμο, οι οποίοι δεσμεύονται οικειοθελώς να εφαρμόσουν βασικές υποχρεώσεις της πράξης για την ΤΝ πριν από τις νόμιμες προθεσμίες.

Η Ευρωπαϊκή Ένωση θα συνεχίσει να συμμετέχει σε φόρουμ όπως η G7, ο ΟΟΣΑ, το Συμβούλιο της Ευρώπης, η G20 και ο ΟΗΕ με σκοπό την προώθηση κανόνων για μια αξιόπιστη ΤΝ σε διεθνές επίπεδο. Μόλις πρόσφατα υποστηρίξαμε τη συμφωνία των ηγετών της G7 στο πλαίσιο της διαδικασίας της Χιροσίμα για την τεχνητή νοημοσύνη σχετικά με τις διεθνείς κατευθυντήριες αρχές και τον εθελοντικό κώδικα δεοντολογίας για τα προηγμένα συστήματα ΤΝ.

Ιστορικό

Εδώ και χρόνια η Επιτροπή διευκολύνει και ενισχύει τη συνεργασία στον τομέα της ΤΝ σε ολόκληρη την ΕΕ προκειμένου να τονώσει την ανταγωνιστικότητά της και να εγγυηθεί την ύπαρξη εμπιστοσύνης με βάση τις ενωσιακές αξίες.

Μετά τη δημοσίευση της ευρωπαϊκής στρατηγικής για την τεχνητή νοημοσύνη το 2018, και μετά από εκτενείς διαβουλεύσεις με τα ενδιαφερόμενα μέρη, η ομάδα εμπειρογνωμόνων υψηλού επιπέδου για την τεχνητή νοημοσύνη (HLEG) εκπόνησε τις Κατευθυντήριες γραμμές για αξιόπιστη τεχνητή νοημοσύνη το 2019, καθώς και κατάλογο αξιολόγησης της αξιοπιστίας της ΤΝ το 2020. Παράλληλα, το πρώτο συντονισμένο σχέδιο για την τεχνητή νοημοσύνη δημοσιεύτηκε τον Δεκέμβριο του 2018 ως κοινή δέσμευση με τα κράτη μέλη.

Η Επιτροπή, με τη Λευκή Βίβλο για την τεχνητή νοημοσύνη που δημοσιεύτηκε το 2020, παρουσιάζει ένα σαφές όραμα για την ΤΝ στην Ευρώπη: ένα οικοσύστημα αριστείας και εμπιστοσύνης, το οποίο θέτει το πλαίσιο για τη σημερινή πολιτική συμφωνία. Στη δημόσια διαβούλευση σχετικά με τη Λευκή Βίβλο για την ΤΝ υπήρξε αθρόα συμμετοχή από ολόκληρο τον κόσμο. Η Λευκή Βίβλος συνοδευόταν από έκθεση σχετικά με τις επιπτώσεις της τεχνητής νοημοσύνης, του διαδικτύου των πραγμάτων και της ρομποτικής στην ασφάλεια και την ευθύνη, στην οποία διατυπώθηκε το συμπέρασμα ότι η ισχύουσα νομοθεσία για την ασφάλεια των προϊόντων έχει ορισμένα κενά που έπρεπε να καλυφθούν, ιδίως στην οδηγία για τα μηχανήματα.

Η ανεξάρτητη, τεκμηριωμένη έρευνα του Κοινού Κέντρου Ερευνών (ΚΚΕρ) είχε θεμελιώδη ρόλο στη διαμόρφωση των πολιτικών της ΕΕ για την ΤΝ και στη διασφάλιση της αποτελεσματικής εφαρμογής τους. Με την αυστηρή του έρευνα και ανάλυση, το ΚΚΕρ υποστήριξε την ανάπτυξη της πράξης για την ΤΝ, τεκμηριώνοντας την ορολογία της ΤΝ, την ταξινόμηση των κινδύνων και τις τεχνικές απαιτήσεις και συμβάλλοντας στη διαρκή ανάπτυξη εναρμονισμένων προτύπων.

spot_img

Lawjobs