Ολοένα και περισσότερα ερωτήματα τίθενται για τις δυνατότητες που έχει το ChatGPT, για το οποίο μιλάει και γράφει αυτή την στιγμή όλος ο πλανήτης και το τελευταίο ζήτημα που τέθηκε είναι κατά πόσο μπορεί να βοηθήσει κάποιον στην εργασία του.
Παρά τις αναρίθμητες δυνατότητες που προσφέρει το ChatGPT, δεν «μιλάει» σαν άνθρωπος, ούτε θα τον αντικαταστήσει, όμως, κάνει λάθη, όπως ο άνθρωπος. Μπορεί εντούτοις να αποτελέσει αρωγό στο γραφείο;
Στο ερώτημα αυτό επιχείρησε να απαντήσει η Washington Post.
«Το ChatGPT είναι ουσιαστικά ένα σύστημα πρόβλεψης κειμένου, παρόμοιο αλλά καλύτερο από εκείνα που είναι ενσωματωμένα στις εφαρμογές ανταλλαγής μηνυμάτων κειμένου στο τηλέφωνό σας», δήλωσε ο Jacob Andreas, επίκουρος καθηγητής στο Εργαστήριο Επιστήμης Υπολογιστών και Τεχνητής Νοημοσύνης του MIT, ο οποίος μελετά την επεξεργασία φυσικής γλώσσας. Ενώ αυτό συχνά παράγει απαντήσεις που ακούγονται σωστές, το περιεχόμενο μπορεί να έχει κάποια προβλήματα, πρόσθεσε.
«Αν κοιτάξετε μερικά από αυτά τα πραγματικά μεγάλα δοκίμια που δημιουργούνται από το ChatGPT, είναι πολύ εύκολο να δείτε σημεία που αντιφάσκουν», είπε. «Όταν του ζητάτε να δημιουργήσει κώδικα, είναι ως επί το πλείστον σωστός, αλλά συχνά υπάρχουν σφάλματα», πρόσθεσε.
Όσον αφορά στο πόσο καλά το ChatGPT θα μπορούσε να χειριστεί τις καθημερινές εργασίες γραφείου τα αποτελέσματα ήταν μοιρασμένα.
Αρχικά ζητήθηκε από το ChatGPT να απαντήσει σε διάφορους τύπους εισερχόμενων μηνυμάτων. Στις περισσότερες περιπτώσεις, η τεχνητή νοημοσύνη παρήγαγε σχετικά κατάλληλες απαντήσεις, αν και οι περισσότερες ήταν φλύαρες. Το chatbot άφηνε συχνά φράσεις σε παρένθεση όταν δεν ήταν σίγουρο σε τι ή σε ποιον αναφερόταν. Υπέθεσε επίσης λεπτομέρειες που δεν περιλαμβάνονταν στο ζήτημα που τέθηκε, γεγονός που οδήγησε σε ορισμένες πραγματικά λανθασμένες αναφορές σχετικά με τη δουλειά.
Σε μια περίπτωση, είπε ότι δεν μπορούσε να ολοκληρώσει την εργασία, λέγοντας ότι δεν έχει «τη δυνατότητα να λαμβάνει μηνύματα ηλεκτρονικού ταχυδρομείου και να απαντά σε αυτά». Όταν όμως ζητήθηκε ένα πιο γενικό αίτημα, παρήγαγε μια πιο ορθή απάντηση.
Παραδόξως, το ChatGPT μπόρεσε να παράγει σαρκασμό όταν του ζητήθηκε να απαντήσει σε έναν εργαζόμενο που ρωτούσε αν η Big Tech κάνει καλή δουλειά.
Αλλά οι ειδικοί προειδοποιούν ότι οι άνθρωποι θα πρέπει να είναι προσεκτικοί εάν χρησιμοποιούν το ChatGPT για αυτό το σκοπό στην εργασία τους.
«Δεν καταλαβαίνουμε σε ποιο βαθμό πρόκειται απλώς για λογοκλοπή», δήλωσε ο Andreas. «Είναι καλό πως ακούγεται σαν άνθρωπος, αλλά το πραγματικό περιεχόμενο και οι ιδέες τείνουν να είναι γνωστές», δήλωσε ο Hatim Rahman, επίκουρος καθηγητής στη Σχολή Διοίκησης Kellogg του Πανεπιστημίου Northwestern, ο οποίος μελετά τον αντίκτυπο της τεχνητής νοημοσύνης στην εργασία. «Δεν πρόκειται για νέες ιδέες», είπε.
Το ChatGPT λέει έχει «περιορισμένη γνώση» για ο,τιδήποτε μετά το 2021
Επίσης το ChatGPT λέει ότι έχει «περιορισμένη γνώση» για οτιδήποτε μετά το έτος 2021.
Η παροχή περισσότερων λεπτομερειών στο ερώτημα οδήγησε σε πιο εστιασμένες ιδέες. Ωστόσο, όταν ζητήθηκε από το ChatGPT να γράψει μερικούς «ιδιόρρυθμους» ή «διασκεδαστικούς» τίτλους, τα αποτελέσματα ήταν αξιοπερίεργα και μερικά ανούσια.
Όπως και προηγουμένως, έκανε υποθέσεις όταν δεν είχε τις απαραίτητες πληροφορίες. Έγινε επίσης προβληματικό όταν δεν ήξερε ποιες αντωνυμίες να χρησιμοποιήσει για τον εκάστοτε συνάδελφό, κάτι που θα μπορούσε να επιφέρει παρεξηγήσεις.
Ήταν λοιπόν το ChatGPT χρήσιμο για κοινές εργασίες εργασίας;
Βοήθησε, αλλά μερικές φορές τα λάθη του προκαλούσαν περισσότερη δουλειά από το να κάνω την εργασία από μόνος μου, απαντάει το άρθρο της WP.
Το ChatGPT χρησίμευσε ως ένα εξαιρετικό σημείο εκκίνησης στις περισσότερες περιπτώσεις, παρέχοντας μια χρήσιμη διατύπωση και αρχικές ιδέες. Αλλά παρήγαγε επίσης απαντήσεις με λάθη, ανακριβείς πληροφορίες στην πραγματικότητα, υπερβολικές λέξεις, λογοκλοπή και λανθασμένη επικοινωνία.
«Eίναι χρήσιμο αλλά μόνο στο βαθμό που ο χρήστης είναι πρόθυμος να ελέγξει το αποτέλεσμα», δήλωσε ο Andreas.