Η Anthropic έχει επισημάνει τους πιθανούς κινδύνους των συστημάτων τεχνητής νοημοσύνης και ζητεί συντεταγμένη κανονιστική ρύθμιση για την αποφυγή πιθανών καταστροφών. Η οργάνωση υποστηρίζει ότι η στοχευμένη ρύθμιση είναι απαραίτητη για την αξιοποίηση των πλεονεκτημάτων της ΤΝ και τον περιορισμό των κινδύνων της.
Καθώς τα συστήματα τεχνητής νοημοσύνης εξελίσσονται σε ικανότητες όπως τα μαθηματικά, η συλλογιστική και η κωδικοποίηση, η πιθανή κακή χρήση τους σε τομείς όπως η ασφάλεια στον κυβερνοχώρο ή ακόμη και σε βιολογικούς και χημικούς κλάδους αυξάνεται σημαντικά.
Ο Anthropic προειδοποιεί ότι οι επόμενοι 18 μήνες είναι κρίσιμοι για τους υπεύθυνους χάραξης πολιτικής να δράσουν, καθώς το παράθυρο για προληπτική πρόληψη στενεύει. Ειδικότερα, η Frontier Red Team της Anthropic υπογραμμίζει πώς τα τρέχοντα μοντέλα μπορούν ήδη να συμβάλουν σε διάφορες εργασίες που σχετίζονται με την επίθεση στον κυβερνοχώρο και αναμένει ότι τα μελλοντικά μοντέλα θα είναι ακόμη πιο αποτελεσματικά.
Ιδιαίτερη ανησυχία προκαλεί το ενδεχόμενο τα συστήματα τεχνητής νοημοσύνης να επιδεινώσουν την κατάχρηση χημικών, βιολογικών, ραδιολογικών και πυρηνικών (CBRN) συστημάτων. Το Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου διαπίστωσε ότι αρκετά μοντέλα Τεχνητής Νοημοσύνης μπορούν πλέον να συγκριθούν με την ανθρώπινη εμπειρογνωμοσύνη επιπέδου διδακτορικού στην παροχή απαντήσεων, σε ερωτήματα που σχετίζονται με την επιστήμη.
Για την αντιμετώπιση αυτών των κινδύνων, η Anthropic έχει περιγράψει λεπτομερώς την Πολιτική Υπεύθυνης Κλιμάκωσης ( Responsible Scaling Policy – RSP) που κυκλοφόρησε τον Σεπτέμβριο του 2023 ως ισχυρό αντίμετρο. Η RSP επιβάλλει την αύξηση των μέτρων ασφαλείας και προστασίας που αντιστοιχούν στην πολυπλοκότητα των δυνατοτήτων της τεχνητής νοημοσύνης.
Το πλαίσιο RSP έχει σχεδιαστεί ώστε να είναι προσαρμοστικό και επαναληπτικό, με τακτικές αξιολογήσεις των μοντέλων ΤΝ που επιτρέπουν την έγκαιρη βελτίωση των πρωτοκόλλων ασφαλείας. Η Anthropic δηλώνει ότι έχει δεσμευτεί να διατηρήσει και να βελτιώσει την ασφάλεια που εκτείνεται σε διάφορες επεκτάσεις της ομάδας, ιδίως στους τομείς της ασφάλειας, της ερμηνευσιμότητας και της εμπιστοσύνης, εξασφαλίζοντας την ετοιμότητα για τα αυστηρά πρότυπα ασφάλειας που θέτει το RSP της.
Η Anthropic πιστεύει ότι η ευρεία υιοθέτηση των RSPs σε ολόκληρη τη βιομηχανία AI, αν και κατά κύριο λόγο εθελοντική, είναι απαραίτητη για την αντιμετώπιση των κινδύνων AI.
Η διαφανής, αποτελεσματική ρύθμιση είναι ζωτικής σημασίας για να προληφθούν τυχόν κοινωνικές επιφυλάξεις σχετικά με την τήρηση των υποσχέσεων ασφάλειας από τις εταιρείες ΤΝ. Τα ρυθμιστικά πλαίσια, ωστόσο, πρέπει να είναι στρατηγικά, δίνοντας κίνητρα για υγιείς πρακτικές ασφάλειας, χωρίς να επιβάλλουν περιττές επιβαρύνσεις.
Το Anthropic οραματίζεται κανονισμούς σαφείς, εστιασμένους και προσαρμοστικούς στα εξελισσόμενα τεχνολογικά τοπία, υποστηρίζοντας ότι αυτοί είναι ζωτικής σημασίας για την επίτευξη ισορροπίας μεταξύ του μετριασμού των κινδύνων και της προώθησης της καινοτομίας.
Στις ΗΠΑ, ο Anthropic προτείνει ότι η ομοσπονδιακή νομοθεσία θα μπορούσε να είναι η τελική απάντηση στη ρύθμιση του κινδύνου της ΤΝ – αν και οι πρωτοβουλίες με πρωτοβουλία των πολιτειών μπορεί να χρειαστεί να παρέμβουν εάν η ομοσπονδιακή δράση καθυστερήσει. Τα νομοθετικά πλαίσια που έχουν αναπτυχθεί από τις χώρες παγκοσμίως θα πρέπει να επιτρέπουν την τυποποίηση και την αμοιβαία αναγνώριση για την υποστήριξη μιας παγκόσμιας ατζέντας για την ασφάλεια της ΤΝ, ελαχιστοποιώντας το κόστος της κανονιστικής συμμόρφωσης σε διάφορες περιοχές.
Επιπλέον, η Anthropic αντιμετωπίζει τον σκεπτικισμό απέναντι στην επιβολή κανονισμών – τονίζοντας ότι οι υπερβολικά ευρείς κανονισμοί που επικεντρώνονται σε περιπτώσεις χρήσης θα ήταν αναποτελεσματικοί για τα γενικά συστήματα τεχνητής νοημοσύνης, τα οποία έχουν ποικίλες εφαρμογές. Αντ’ αυτού, οι κανονισμοί θα πρέπει να στοχεύουν στις θεμελιώδεις ιδιότητες και τα μέτρα ασφαλείας των μοντέλων ΤΝ.
Παρότι καλύπτει ευρείς κινδύνους, η Anthropic αναγνωρίζει ότι ορισμένες άμεσες απειλές – όπως τα deepfakes – δεν αποτελούν το επίκεντρο των σημερινών της προτάσεων, δεδομένου ότι άλλες πρωτοβουλίες αντιμετωπίζουν αυτά τα πιο κοντινά ζητήματα.
Τελικά, η Anthropic τονίζει τη σημασία της θέσπισης κανονισμών που θα ενθαρρύνουν την καινοτομία αντί να την καταπνίγουν. Το αρχικό βάρος της συμμόρφωσης, αν και αναπόφευκτο, μπορεί να ελαχιστοποιηθεί μέσω ευέλικτων και προσεκτικά σχεδιασμένων δοκιμών ασφαλείας. Η κατάλληλη ρύθμιση μπορεί ακόμη να συμβάλει στη διασφάλιση τόσο των εθνικών συμφερόντων όσο και της καινοτομίας του ιδιωτικού τομέα, διασφαλίζοντας την πνευματική ιδιοκτησία από εσωτερικές και εξωτερικές απειλές.
Εστιάζοντας στους εμπειρικά μετρημένους κινδύνους, η Anthropic σχεδιάζει ένα ρυθμιστικό τοπίο που δεν θα μεροληπτεί ούτε θα ευνοεί τα μοντέλα ανοικτού ή κλειστού κώδικα. Ο στόχος παραμένει σαφής: να διαχειριστεί τους σημαντικούς κινδύνους των πρωτοποριακών μοντέλων τεχνητής νοημοσύνης με αυστηρή αλλά προσαρμόσιμη ρύθμιση.