Για πρώτη φορά στην ιστορία, η Τεχνητή Νοημοσύνη, ίσως το πιο hot θέμα των τελευταίων χρόνων, που σίγουρα θα μας απασχολήσει ακόμα περισσότερο τα επόμενα χρόνια, ήταν ένα από τα θέματα συζήτησης της ολομέλειας του Ιουνίου του Ευρωπαϊκού Κοινοβουλίου στο Στρασβούργο.
Η LiFO ήταν εκεί ως προσκεκλημένη του γραφείου του Ευρωπαϊκού κοινοβουλίου στην Ελλάδα και είδαμε από κοντά τις θέσεις και την ψηφοφορία που δίνει πλέον το ιστορικό έναυσμα για την ρύθμιση της χρήσης συστημάτων που χρησιμοποιούν Τεχνητή Νοημοσύνη στην ΕΕ.
Βασικός σκοπός των κανόνων είναι η αρχικά η τεχνολογία της τεχνητής νοημοσύνης να αναπτύσσεται και να χρησιμοποιείται στην Ευρώπη, προστατεύοντας τους πολίτες της ΕΕ από τις απειλές που μπορεί να έχει η τεχνητή νοημοσύνη στην υγεία και την ασφάλεια. Όλο αυτό όμως, δεν πρόκειται να γίνει εμπόδιο αλλά αντίθετα, θα δημιουργήσει ένα πιο ασφαλές περιβάλλον για καινοτομία.
Τα μέτρα αυτά συζητούνται από το 2021, αλλά λόγω της ταχείας ανάπτυξης των δημοφιλών chatbots τεχνητής νοημοσύνης, όπως είναι το ChatGPT, οι συζητήσεις πήγαν πιο γρήγορα και πλέον σύμφωνα με τους νέους κανόνες τα συστήματα τεχνητής νοημοσύνης θα χωρίζονται σε κατηγορίες ανάλογα με το επίπεδο κινδύνου που αντιπροσωπεύουν. Με αυτό τον τρόπο κάθε εταιρία που παρέχει υπηρεσίες τεχνητής νοημοσύνης θα έχει συγκεκριμένες υποχρεώσεις για την κατηγορία που ανήκει.
Τα πιο επικίνδυνα συστήματα τεχνητής νοημοσύνης, είναι όπως είναι λογικό εκείνα που αφορούν την ανθρώπινη ασφάλεια και σύμφωνα με το προσχέδιο του νόμου θα απαγορεύονται πλήρως. Αυτό πρακτικά σημαίνει ότι σε περιπτώσεις «κοινωνικής βαθμολόγησης» όπως δηλαδή σε περιπτώσεις που τα συστήματα αυτά μπορούν να κρίνουν ανθρώπους με βάση τη συμπεριφορά ή την εμφάνισή τους, καθώς και σε εφαρμογές που επιδίδονται σε υποσυνείδητη χειραγώγηση ευάλωτων ατόμων, συμπεριλαμβανομένων των παιδιών.
Σε αυτήν επικίνδυνη κατηγορία ανήκουν και τα εργαλεία προληπτικής αστυνόμευσης τα οποία επεξεργάζονται δεδομένα για να προβλέψουν πιθανούς μελλοντικούς εγκληματίες ή παραβάτες, αλλά και η απομακρυσμένη τεχνολογία αναγνώρισης προσώπου και βιομετρικής ταυτοποίησης σε δημόσιους χώρους.
Όλο αυτό μοιάζει με σενάριο ταινίας επιστημονικής φαντασίας, όμως δεν απέχει και πολύ από την πραγματικότητα. Τα συστήματα τεχνητής νοημοσύνης, έχουν ήδη μπει στην καθημερινή ζωή πολλών ανθρώπων, μέσα από videοgames, κινητά τηλέφωνα, υπολογιστές, ψηφιακούς βοηθούς ή από software όπως είναι το ChatGPT και πολλά άλλα. Αυτά τα είδη της τεχνητής νοημοσύνης που βρίσκεται στην καθημερινότητα μας ανήκουν στην κατηγορία χαμηλού ή μηδενικού κινδύνου.
Όπως χαρακτηριστικά ειπώθηκε από τον συν-επικεφαλή των εργασιών του AI Act, Dragos Tudorache, Ρουμάνο βουλευτή του Ευρωπαϊκού Κοινοβουλίου «Δεν θέλουμε μαζική επιτήρηση, δεν θέλουμε κοινωνική βαθμολόγηση, δεν θέλουμε προληπτική αστυνόμευση στην Ευρωπαϊκή Ένωση. Αυτό το κάνει η Κίνα"».
Πώς όμως θα μπορέσει η ΕΕ να κάνει τις εταιρίες να συμμορφωθούν; Όπως έχουμε δει και στο παρελθόν με το GDPR τα πρόστιμα για την μη τήρηση των κανόνων είναι μόνη λύση. Σε αυτή την περίπτωση από την στιγμή που θα τεθεί σε ισχύ το νομοσχέδιο, Σε δύο χρόνια περίπου, θα δούμε πρόστιμα έως και 30 εκατ. ευρώ (33 εκατ. δολάρια) ή το 6% των ετήσιων παγκόσμιων εσόδων μιας εταιρείας. Αν σκεφτεί μεγάλες εταιρίες όπως η Google και η Microsoft να δέχονται τέτοια πρόστιμα τότε μιλάμε για δισεκατομμύρια.
Από την πλευρά των νομοθετών, υπάρχει η ελπίδα ότι οι εταιρίες που δραστηριοποιούνται στα 27 κράτη μέλη της ΕΕ που θα γίνουν οι ρυθμίσεις αυτές, δεν θα τις δουν ως περιοριστικά μέτρα, αλλά ως ένα δημιουργικό κι εποικοδομητικό πλαίσιο στο οποίο θα μπορέσουν να αναπτύξουν περαιτέρω την τεχνολογία με ακόμα μεγαλύτερη υπευθυνότητα εντός της ενιαίας αγοράς της ΕΕ.
Γι’ αυτό το λόγο υπάρχει και η πρόταση της εξαίρεσης των ερευνητικών δραστηριοτήτων από τις υποχρεώσεις αυτές αλλά και από τα λογισμικά τεχνητής νοημοσύνης που παρέχονται βάσει αδειών ανοικτού κώδικα.
Επίσης προτείνει την δημιουργία «Sandboxes» («ρυθμιστικά δοκιμαστήρια»), όπως αποκαλούνται, τα οποία θα θεσπίζονται από τις δημόσιες αρχές της κάθε χώρας για να δοκιμάζονται σε πραγματικές συνθήκες όλες οι εφαρμογές τεχνητής νοημοσύνης, πριν διατεθούν προς χρήση του κοινού.
Ενώ φυσικά δεν μπορεί να λείψει και το κομμάτι της καταγγελίας όπου εκεί οι ευρωβουλευτές επιθυμούν να ενισχύσουν το δικαίωμα των πολιτών να υποβάλλουν καταγγελίες σχετικά με συστήματα τεχνητής νοημοσύνης, καθώς και το δικαίωμά τους να δέχονται εξηγήσεις για τυχόν αποφάσεις που έχουν ληφθεί με βάση συστήματα υψηλού κινδύνου και επηρεάζουν σε σημαντικό βαθμό τα θεμελιώδη δικαιώματά τους.
Για την ώρα αυτό είναι μόνο η αρχή. Έχουμε λίγο χρόνο μπροστά μας αφού για να μπουν σε ισχύ οι νέοι νόμοι για την Τεχνητή Νοημοσύνη, θα πρέπει να πάρουν τις απαραίτητες εγκρίσεις των κρατών μελών και των βουλευτών, οπότε όλο αυτό δεν είναι υλοποιήσιμο πριν από το 2025. Άρα μιλάμε για μετά τις ευρωεκλογές του 2024.
Όπως και να ‘χει σκοπός του Ευρωπαϊκού Κοινοβουλίου δεν είναι να ρυθμίσει την ίδια την τεχνολογία, αλλά να ρυθμίσει τη χρήση της τεχνολογίας και η διαφάνεια που υπάρχει τώρα να συνεχίσει να υπάρχει και στα επόμενα χρόνια. «Σήμερα γράφτηκε ιστορία» όπως δήλωσε σε μήνυμά της η Roberta Metsola, Πρόεδρος του Ευρωπαϊκού Κοινοβουλίου.