Να απαγορευτούν τα ρομπότ-δολοφόνοι στο πεδίο μάχης ζητά μια ομάδα ειδικών

Να απαγορευτούν τα ρομπότ-δολοφόνοι στο πεδίο μάχης ζητά μια ομάδα ειδικών Facebook Twitter
0

Μια ομάδα επιστημόνων απευθύνει έκκληση για την απαγόρευση της ανάπτυξης όπλων -ρομπότ που ελέγχονται από την τεχνητή νοημοσύνη (AI).

Αναφέρει μεταξύ άλλων ότι τα αυτόνομα όπλα μπορεί να δυσλειτουργούν με απρόβλεπτο τρόπο και να σκοτώσουν αθώους ανθρώπους.

Οι εμπειρογνώμονες υποστηρίζουν επίσης ότι το ηθικό βήμα για τα συστήματα AI να σκοτώνουν χωρίς καμία ανθρώπινη παρέμβαση, είναι πάρα πολύ μεγάλο.

Η έκκληση έγινε στο συνέδριο της Αμερικανικής Ένωσης για την Προώθηση της Επιστήμης στην Ουάσιγκτον.

Η Human Rights Watch (HRW) είναι ένας από τους 89 μη κυβερνητικούς οργανισμούς από 50 χώρες που έχουν συγκροτήσει την εκστρατεία για να σταματήσουν τα ρομπότ-δολοφόνους και πιέζουν για μια διεθνή συνθήκη.

Μεταξύ αυτών των πρωτοπόρων για την παγκόσμια απαγόρευση είναι η Mary Wareham της HRW.

«Δεν μιλάμε για ρομπότ εξολοθρευτές που πρόκειται να καταλάβουν τον κόσμο. Αυτό που μας ανησυχεί είναι πολύ πιο επικείμενο: συμβατικά οπλικά συστήματα με αυτονομία», είπε στο BBC News.

«Τα drones είναι το προφανές παράδειγμα, αλλά υπάρχουν και στρατιωτικά αεροσκάφη που απογειώνονται, πετούν και προσγειώνονται μόνα τους, ρομποτικές αποστολές που μπορούν να εντοπίσουν την κίνηση και είναι πρόδρομοι για αυτόνομα όπλα», λέει.

Ο Ryan Gariepy, επικεφαλής τεχνολογικός υπεύθυνος της Clearpath Robotics, υποστηρίζει την πρόταση απαγόρευσης. Η εταιρεία του αναλαμβάνει στρατιωτικές συμβάσεις, αλλά έχει απαρνηθεί τα συστήματα AI για πολέμους και δηλώνει ότι δεν θα τα αναπτύξει.

«Όταν αποτυγχάνουν, αποτυγχάνουν με απρόβλεπτους τρόπους», είπε στο BBC News.«Όσο εξελιγμένα και αν είναι, είναι πραγματικά περιορισμένα από την αναγνώριση εικόνας. Είναι αποτελεσματικά, αλλά δεν έχουν το πλαίσιο της κρίσης σε ένα πεδίο μάχης».

«Το αυτόνομο σύστημα δεν μπορεί να αποφασίζει αν θα σκοτώσει ή όχι σε μια μάχη. Η απόφαση έχει παρθεί χιλιάδες μίλια μακριά από προγραμματιστές και επιστήμονες που δεν έχουν αντίληψη για την κατάσταση στην οποία εμπλέκεται το όπλο», σημειώνει.

Σύμφωνα με τον Peter Asaro, του New School στη Νέα Υόρκη, ένα τέτοιο σενάριο εγείρει ζητήματα νομικής ευθύνης, εάν το σύστημα κάνει μια παράνομη δολοφονία. «Η εξουσιοδότηση για να σκοτώσει μια μηχανή δεν είναι δικαιολογημένη και αποτελεί παραβίαση των ανθρωπίνων δικαιωμάτων επειδή οι μηχανές δεν είναι ηθικοί παράγοντες και έτσι δεν είναι υπεύθυνες για τη λήψη αποφάσεων ζωής και θανάτου».

«Μπορεί λοιπόν να είναι υπεύθυνος ο λαός που έκανε το αυτόνομο όπλο», δηλώνει.

Τech & Science
0

ΣΧΕΤΙΚΑ ΑΡΘΡΑ

ΔΕΙΤΕ ΑΚΟΜΑ

Το Parker Solar Probe της NASA πλησιάζει σήμερα όσο ποτέ άλλοτε τον Ήλιο

Τech & Science / Το Parker Solar Probe της NASA πλησιάζει σήμερα όσο ποτέ άλλοτε τον Ήλιο

Το Parker Solar Probe είναι το πρώτο διαστημόπλοιο που εισέρχεται στην εξωτερική ατμόσφαιρα του Ήλιου, γνωστή ως κορώνα, και θα επιστρέψει δεδομένα από περιοχές που μέχρι τώρα δεν έχουν εξερευνηθεί
LIFO NEWSROOM
Θα μπορούσε αυτή η δομή σε σχήμα αυγού να είναι το μελλοντικό μας σπίτι στο Διάστημα;

Τech & Science / Θα μπορούσε αυτή η δομή σε σχήμα αυγού να είναι το μελλοντικό μας σπίτι στο Διάστημα;

Η Ινδία ετοιμάζεται να στείλει τους πρώτους της αστροναύτες στο διάστημα μέσω της αποστολής Gaganyaan, η οποία θα τοποθετήσει τρεις αστροναύτες σε χαμηλή γήινη τροχιά για τρεις ημέρες
LIFO NEWSROOM
Είμαστε έτοιμοι για αυτό; Δημοσιογράφος αναγνωρίζει πρόσωπα στον δρόμο με γυαλιά τεχνητής νοημοσύνης

Τech & Science / Το μέλλον είναι εδώ: Δημοσιογράφος ταυτοποιεί αγνώστους στον δρόμο με γυαλιά τεχνητής νοημοσύνης

Είμαστε έτοιμοι για αυτό; Σκανάρει πρόσωπα αγνώστων και τους αναγνωρίζει σε ελάχιστα δευτερόλεπτα - Το βίντεο πυροδοτεί συζητήσεις για την προστασία της ιδιωτικότητας που σχετίζονται με τις τεχνολογίες αναγνώρισης προσώπου
LIFO NEWSROOM