Αυτό το ρομπότ μαθαίνει να λέει όχι στους ανθρώπους

Αυτό το ρομπότ μαθαίνει να λέει όχι στους ανθρώπους Facebook Twitter
2

Καθώς η ρομποτική γνωρίζει αλματώδη ανάπτυξη, και οι άνθρωποι εξαρτώνται ολοένα και περισσότερο από τις υπηρεσίες τους σε διάφορους τομείς, τα ρομπότ πρέπει να μάθουν εκτός από πειθήνια όργανα να λένε "όχι" και να αρνούνται εντολές με βάση τους ανθρώπινους κώδικες επικοινωνίας. Ιδίως όταν οι εντολές που τους δίνουν οι χειριστές τους ενδέχεται να προκαλέσουν κακό ή τους αποσπούν από την εκτέλεση του έργου τους.

Όμως κάτω από ποιές συνθήκες και με ποιούς τρόπους επιτρέπεται σε ένα ρομπότ να αντιμιλά στον άνθρωπο;

Οι ερευνητές Gordon Briggs και Matthias Scheutz του τμήματος αλληλεπίδρασης ανθρώπων και μηχανών του Πανεπιστημίου του Tufts, χρησιμοποιώντας το ανθρωπόμορφο ρομπότ Nao, προσπαθούν να διδάξουν ηθική και τρόπους στα ρομπότ και να τους εμφυσήσουν την αίσθηση του πότε και του πώς θα πρέπει να αρνηθούν τις ανθρώπινες εντολές, χρησιμοποιώντας έναν περίπλοκο αλγόριθμο.

Το "χαριτωμένο" αποτέλεσμα παραπέμπει μεν σε ταινίες επιστημονικής φαντασίας, αλλά είναι και μια πρόγευση από το κοντινό (για κάποιους "ζοφερο") απτό μέλλον της τεχνητής νοημοσύνης, που ήδη τίθεται σε εφαρμογή σε εφευρέσεις όπως τα αυτο-οδηγούμενα οχήματα, όπου οι μηχανές ίσως θα κληθούν να πάρουν αποφάσεις ζωής και θανάτου.

Researchers are teaching this robot how to reject our orders. The results are ominously cute.

Posted by Quartz on Tuesday, November 24, 2015
Τech & Science
2

ΔΕΙΤΕ ΑΚΟΜΑ

Δείτε τις πέντε καλύτερες φωτογραφίες του National Geographic για το 2024

Τech & Science / Δείτε τις 4 καλύτερες φωτογραφίες του National Geographic για το 2024

Οι φωτογραφίες «αποτυπώνουν μια προκλητική ματιά στα θαύματα του κόσμου γύρω μας, τα οποία μας δίνουν ένα αναζωογονητικό διάλειμμα από το ταραχώδες φθινόπωρο που περάσαμε όλοι», γράφει το περιοδικό
LIFO NEWSROOM

σχόλια

2 σχόλια
Καμί σχέση με ηθική . Απλά το βλακομηχανήμα έχει sensores (να μην προχωρησει αν δεν υπαρχει επιφανεια) και έχει προφανώς προγραμματιστεί να λέι την συγκεκριμένες μαμακιες όταν ο πανιβλακας προγραμματιστής του του δεινει συγκεκριμες εντολές.A propo.. H ηθική είναι πολύ περίπλοκο πράγμα για τέτοια παιγνιδάκια, πολύ σύνθετη διαδικασία για την οποία έχουν γραφτει άπειρες σελίδες..Καμία σχέση με τον κώδικα του συγκεκριμένου μηχανήματος!