Η ΑΝΘΡΩΠΟΤΗΤΑ ΕΧΕΙ ΗΤΤΗΘΕΙ. Η τεχνητή νοημοσύνη εξουσιάζει πλέον τον κόσμο, αποφασίζοντας για οτιδήποτε συμβαίνει στον πλανήτη. Αυτό που ξεκίνησε ως εργαλείο εξελίχθηκε στον απόλυτο δυνάστη, καταπατώντας κάθε ελευθερία και οδηγώντας το ανθρώπινο γένος σε έναν σύγχρονο, αλλά εξίσου σκοταδιστικό Μεσαίωνα. Οι άνθρωποι προσπαθούν, αλλά η τεχνητή νοημοσύνη βρίσκεται πάντα ένα βήμα μπροστά, εξουδετερώνοντας κάθε απόπειρα ανάκτησης της εξουσίας από πλευράς τους. Τα ρομπότ έχουν επικρατήσει.
«Για τους περισσότερους ανθρώπους η τεχνητή νοημοσύνη παραπέμπει σε μηχανές που μαθαίνουν να σκέφτονται για να κατακτήσουν την ανθρωπότητα σε ταινίες επιστημονικής φαντασίας όπως το Terminator», σχολιάζει ο digital futurist Δημήτρης Δημητριάδης.
Το παραπάνω στόρι το έχουμε δει ουκ ολίγες φορές ‒με ορισμένες παραλλαγές, είναι η αλήθεια‒ να παίζει στη μεγάλη ή/και στη μικρή οθόνη: η «κακή» τεχνητή νοημοσύνη παίρνει το πάνω χέρι και υποδουλώνει την ανθρωπότητα, η οποία προσπαθεί επί ματαίω να αντισταθεί. Το σενάριο σύμφωνα με το οποίο η τεχνητή νοημοσύνη ξαφνικά αρχίζει να αναπτύσσεται με τρόπο που ο άνθρωπος δεν καταλαβαίνει με αποτέλεσμα να χάνει ολοκληρωτικά τον έλεγχο αρέσει διαχρονικά στο Χόλιγουντ. Υπάρχει όμως έστω ένα ψήγμα αλήθειας σε αυτό;
Ας ξεκαθαρίσουμε κάτι: η τεχνητή νοημοσύνη βρίσκεται ήδη παντού γύρω μας, δεν χρειάζεται να περιμένουμε το 2100 και το 2200 για να συμβεί αυτό. Αυτή είναι υπεύθυνη σε μεγάλο βαθμό για όσα μπορείς να κάνεις με το κινητό σου, το online shopping σου, τις αναζητήσεις που θα κάνεις στο Google, ακόμα και για τον έλεγχο ενός αεροπλάνου που περνά 30.000-35.000 πόδια πάνω απ’ το κεφάλι σου. Οι δε δυνατότητές της διευρύνονται σχεδόν καθημερινά.
Το Ευρωπαϊκό Κοινοβούλιο και οι ευρωβουλευτές θέλουν να διαμορφώσουν τους ευρωπαϊκούς κανόνες ανταλλαγής μη προσωπικών δεδομένων για να προωθήσουν την καινοτομία και την οικονομία, προστατεύοντας παράλληλα την ιδιωτική ζωή.
Επιστρέφοντας στα… γούστα του Χόλιγουντ, αξίζει να υπογραμμίσουμε πως η τεχνητή νοημοσύνη δεν μπορεί να είναι κακή ούτε καλή. Ένα χαρακτηριστικό της γνώρισμα είναι πως δεν έχει ενσυναίσθηση, δεν αναπτύσσει συναισθήματα ή κοινή λογική και ως εκ τούτου δεν μπορεί να αντιληφθεί τι είναι αγάπη, μίσος, χαρά ή λύπη. Τα πάντα γι’ αυτήν είναι θέμα υπολογισμών και στόχων. Όσο εξωφρενικό κι αν ακούγεται, η κατάρριψη ενός αεροσκάφους είναι το ίδιο με το καθάρισμα του σπιτιού για την τεχνητή νοημοσύνη: ένας στόχος που πρέπει να επιτευχθεί όσο πιο αποτελεσματικά γίνεται.
Εκτός αυτών, η τεχνητή νοημοσύνη που παρουσιάζει ο αμερικανικός, ως επί το πλείστον, κινηματογράφος αντιστοιχεί στη λεγόμενη ισχυρή ή γενική τεχνητή νοημοσύνη, μια μορφή πολύ πιο προηγμένη σε σχέση με τη σημερινή, η οποία αποκαλείται «στενή» ή «περιορισμένη». Για να έχεις μια εικόνα περί των διαφορών τους, η δεύτερη έχει τη δυνατότητα να εκτελεί συγκεκριμένα καθήκοντα/υπολογισμούς (π.χ. να υπολογίσει μια διαδρομή σε ένα GPS, να διαχειριστεί την μπαταρία ενός smartphone, να εκτελέσει μια online έρευνα). Η πρώτη όμως θα είναι σε θέση να κάνει πολύ περισσότερα, και μάλιστα να αντιληφθεί αλληλουχίες κινήσεων. Εδώ, λοιπόν, βρίσκεται και το «ζουμί».
Ο κίνδυνος αφορά την περίπτωση που η τεχνητή νοημοσύνη αποφασίσει να «αυτοπρογραμματιστεί» με τρόπο που το ανθρώπινο μυαλό δεν θα είναι σε θέση να κατανοήσει. Επί του παρόντος, η μηχανική μάθηση είναι εφικτή στο πλαίσιο που ορίζει ο ανθρώπινος παράγοντας. Αν όμως η τεχνητή νοημοσύνη «κατακτήσει» τη συγκεκριμένη γνωσιακή ικανότητα, τίποτα δεν θα είναι σε θέση να την εμποδίσει να εξερευνήσει ατραπούς τις οποίες το μυαλό μας δεν φαντάζεται καν. Πόσο πιθανό είναι όμως κάτι τέτοιο; Οι ερευνητές συμφωνούν πως δεν πρόκειται να μας απασχολήσει άμεσα ‒ αν γίνει ποτέ πραγματικότητα.
Αντιθέτως, υπάρχουν σημαντικότερα θέματα με τα οποία θα πρέπει να ασχοληθούμε άμεσα, όπως η πιθανότητα κάποιος να χρησιμοποιήσει την τεχνητή νοημοσύνη για να προκαλέσει καταστροφές. Όσο εύκολα μπορεί να χρησιμοποιηθεί για να σου προτείνει ενδιαφέροντα προϊόντα σε ένα e-shop, εξίσου εύκολα μπορεί να πλήξει συγκεκριμένους στόχους, ελέγχοντας αυτόνομα drones (κι αν το τελευταίο σε εκπλήσσει, ρίξε μια ματιά στο ισραηλινό Harpy με εμβέλεια 500 χιλιομέτρων και εκρηκτική κεφαλή 32 κιλών). Σίγουρα η σκέψη πως οι μεγάλες δυνάμεις του πλανήτη έχουν ξεκινήσει έναν αγώνα δρόμου για την ανάπτυξη οπλικών συστημάτων τεχνητής νοημοσύνης δεν είναι και η πιο καθησυχαστική.
Το Ευρωπαϊκό Κοινοβούλιο προσπαθεί να αντιμετωπίσει τους κινδύνους αυτούς δημιουργώντας μια προσέγγιση με διαβάθμιση τεσσάρων επιπέδων κινδύνου. Σύμφωνα με την Έλενα Κουντουρά, μέλος της Ειδικής Επιτροπής για την Τεχνητή Νοημοσύνη στην Ψηφιακή Εποχή (AIDA) του Ευρωπαϊκού Κοινοβουλίου, «στο πρώτο επίπεδο του “μη αποδεκτού κινδύνου” θα απαγορευτεί ένα σύνολο ιδιαίτερα επιβλαβών εφαρμογών που αντιβαίνουν στις αξίες της Ε.Ε., διότι παραβιάζουν θεμελιώδη δικαιώματα όπως η εκμετάλλευση ευάλωτων χαρακτηριστικών των παιδιών και η βιομετρική εξ αποστάσεως ταυτοποίηση σε ζωντανή μετάδοση σε δημόσιους χώρους που χρησιμοποιείται για την επιβολή του νόμου. Το δεύτερο επίπεδο “υψηλού κινδύνου” αφορά εφαρμογές σε καθημερινές δραστηριότητες, π.χ. τις μεταφορές, την εργασία και την εκπαίδευση, για τη διάθεση των οποίων στην αγορά θα προβλεφθούν αυστηρές υποχρεώσεις. Στην κατηγορία “περιορισμένου κινδύνου” ανήκουν συστήματα που υπόκεινται σε συγκεκριμένες υποχρεώσεις διαφάνειας, όπως τα chatbotς, που οι χρήστες θα πρέπει να γνωρίζουν ότι αλληλεπιδρούν με μηχάνημα. Τέλος, τα συστήματα ελάχιστου κινδύνου, που αφορούν περίπου το 90% των εφαρμογών, θα μπορούν να αναπτυχθούν και να χρησιμοποιηθούν με την επιφύλαξη της ισχύουσας νομοθεσίας».
Κάτι ακόμα που θα πρέπει να μας απασχολήσει σε σχέση με την τεχνητή νοημοσύνη είναι ο τρόπος με τον οποίο επηρεάζει την ιδιωτικότητά μας. Τι γίνεται όταν συλλέγει και επεξεργάζεται δεδομένα ανθρώπων που δεν θα έπρεπε; Ποιος εγγυάται ότι αυτά δεν θα πέσουν σε λάθος χέρια; Αρκετοί είναι εκείνοι που εκφράζουν την άποψη πως η τεχνητή νοημοσύνη αποτελεί εχθρό της δημοκρατίας κι αν αυτό μοιάζει υπερβολικό, θυμήσου το σκάνδαλο του Facebook και της Cambridge Analytica ή όσα έχουν ακουστεί για τον ρωσικό δάκτυλο στις τελευταίες και στις προτελευταίες εκλογές των ΗΠΑ. Big data και ιδιωτικότητα δεν πάνε μαζί και με την τεχνητή νοημοσύνη να εισβάλλει σε ολοένα και περισσότερες πτυχές της καθημερινότητάς μας θα πρέπει να αρχίσουμε να συμφιλιωνόμαστε με την ιδέα πως τα δεδομένα μας θα είναι διαθέσιμα ακόμα και όταν εμείς δεν θα υπάρχουμε.
«Η κακόβουλη χρήση της τεχνητής νοημοσύνης θα μπορούσε να απειλήσει την ψηφιακή ασφάλεια (π.χ. μέσω νευρωνικών δικτύων που εκπαιδεύονται από εγκληματίες για να χακάρουν και να εξαπατούν θύματα σε ανθρώπινα ή υπεράνθρωπα επίπεδα απόδοσης), τη φυσική ασφάλεια (π.χ. μη κρατικοί φορείς που χρησιμοποιούν remote ως όπλα, εμπορικά μη επανδρωμένα αεροσκάφη) ή και την πολιτική ασφάλεια (π.χ. μέσω παρακολούθησης, δημιουργίας προφίλ καταγραφών που εξαλείφει το απόρρητο των συνομιλιών ή μέσω αυτοματοποιημένων και στοχευμένων εκστρατειών παραπληροφόρησης», σχολιάζει ο Δημήτρης Δημητριάδης.
Εκτός αυτών, ανησυχητικός είναι και ο τρόπος με τον οποίο ο άνθρωπος αλληλεπιδρά καθημερινά και εν τέλει μαθαίνει να βασίζεται στην τεχνητή νοημοσύνη. Για να μην παρεξηγηθούμε, δεν αμφισβητούμε το ότι η τεχνητή νοημοσύνη βελτιώνει την ποιότητα ζωής μας, κάθε άλλο. Όσο όμως μαθαίνουμε να στηριζόμαστε σε αυτήν, μοιραία ορισμένες δεξιότητες ή ικανότητές μας περνούν σε δεύτερη μοίρα. Ένας οδηγός που βασίζεται στην τεχνητή νοημοσύνη του αυτοκινήτου του ενδεχομένως να δει την αντίληψη ή τα αντανακλαστικά του να μειώνονται. Ένας κειμενογράφος σίγουρα θα ζοριστεί λιγότερο όταν ξέρει ότι η τεχνητή νοημοσύνη θα ωραιοποιήσει το κείμενό του. Όσο για τον διαιτητή, θα περιμένει το VAR για να διορθώσει κάθε του λάθος.
Έχοντας κατά νου την εικόνα που έχει δημιουργήσει και συντηρήσει το Χόλιγουντ, ο κόσμος φοβάται ότι μια ωραία πρωία τα ρομπότ θα κυριαρχήσουν στον κόσμο. Αυτό που δυσκολεύεται να αντιληφθεί, ωστόσο, είναι πως η τεχνητή νοημοσύνη δεν έχει, και δεν χρειάζεται, φυσική μορφή. Όσο για την εξουσία, τα πάντα είναι θέμα ευφυΐας: όπως ο άνθρωπος κυριάρχησε στον πλανήτη όντας το εξυπνότερο ον, έτσι ακριβώς μπορεί να βρεθεί στο περιθώριο, αν η τεχνητή νοημοσύνη τον ξεπεράσει. Πόσο πιθανό είναι κάτι τέτοιο; Αυτό ούτε η τεχνητή νοημοσύνη θα μπορούσε να το απαντήσει.