Μια ομάδα επιστημόνων απευθύνει έκκληση για την απαγόρευση της ανάπτυξης όπλων -ρομπότ που ελέγχονται από την τεχνητή νοημοσύνη (AI).
Αναφέρει μεταξύ άλλων ότι τα αυτόνομα όπλα μπορεί να δυσλειτουργούν με απρόβλεπτο τρόπο και να σκοτώσουν αθώους ανθρώπους.
Οι εμπειρογνώμονες υποστηρίζουν επίσης ότι το ηθικό βήμα για τα συστήματα AI να σκοτώνουν χωρίς καμία ανθρώπινη παρέμβαση, είναι πάρα πολύ μεγάλο.
Η έκκληση έγινε στο συνέδριο της Αμερικανικής Ένωσης για την Προώθηση της Επιστήμης στην Ουάσιγκτον.
Η Human Rights Watch (HRW) είναι ένας από τους 89 μη κυβερνητικούς οργανισμούς από 50 χώρες που έχουν συγκροτήσει την εκστρατεία για να σταματήσουν τα ρομπότ-δολοφόνους και πιέζουν για μια διεθνή συνθήκη.
Μεταξύ αυτών των πρωτοπόρων για την παγκόσμια απαγόρευση είναι η Mary Wareham της HRW.
«Δεν μιλάμε για ρομπότ εξολοθρευτές που πρόκειται να καταλάβουν τον κόσμο. Αυτό που μας ανησυχεί είναι πολύ πιο επικείμενο: συμβατικά οπλικά συστήματα με αυτονομία», είπε στο BBC News.
«Τα drones είναι το προφανές παράδειγμα, αλλά υπάρχουν και στρατιωτικά αεροσκάφη που απογειώνονται, πετούν και προσγειώνονται μόνα τους, ρομποτικές αποστολές που μπορούν να εντοπίσουν την κίνηση και είναι πρόδρομοι για αυτόνομα όπλα», λέει.
Ο Ryan Gariepy, επικεφαλής τεχνολογικός υπεύθυνος της Clearpath Robotics, υποστηρίζει την πρόταση απαγόρευσης. Η εταιρεία του αναλαμβάνει στρατιωτικές συμβάσεις, αλλά έχει απαρνηθεί τα συστήματα AI για πολέμους και δηλώνει ότι δεν θα τα αναπτύξει.
«Όταν αποτυγχάνουν, αποτυγχάνουν με απρόβλεπτους τρόπους», είπε στο BBC News.«Όσο εξελιγμένα και αν είναι, είναι πραγματικά περιορισμένα από την αναγνώριση εικόνας. Είναι αποτελεσματικά, αλλά δεν έχουν το πλαίσιο της κρίσης σε ένα πεδίο μάχης».
«Το αυτόνομο σύστημα δεν μπορεί να αποφασίζει αν θα σκοτώσει ή όχι σε μια μάχη. Η απόφαση έχει παρθεί χιλιάδες μίλια μακριά από προγραμματιστές και επιστήμονες που δεν έχουν αντίληψη για την κατάσταση στην οποία εμπλέκεται το όπλο», σημειώνει.
Σύμφωνα με τον Peter Asaro, του New School στη Νέα Υόρκη, ένα τέτοιο σενάριο εγείρει ζητήματα νομικής ευθύνης, εάν το σύστημα κάνει μια παράνομη δολοφονία. «Η εξουσιοδότηση για να σκοτώσει μια μηχανή δεν είναι δικαιολογημένη και αποτελεί παραβίαση των ανθρωπίνων δικαιωμάτων επειδή οι μηχανές δεν είναι ηθικοί παράγοντες και έτσι δεν είναι υπεύθυνες για τη λήψη αποφάσεων ζωής και θανάτου».
«Μπορεί λοιπόν να είναι υπεύθυνος ο λαός που έκανε το αυτόνομο όπλο», δηλώνει.
σχόλια