Στις μέρες μας, μπορούμε να στραφούμε σε ένα chatbot για τα πάντα: από τις πανεπιστημιακές εργασίες μέχρι τον χωρισμό, τα προβλήματα στη δουλειά ή την παράξενη συμπεριφορά της γάτας μας. Η τεχνητή νοημοσύνη δεν είναι πλέον ένα απλό εργαλείο – έχει μάθει να κατανοεί τα ανθρώπινα συναισθήματα και να προσαρμόζει τις απαντήσεις της ώστε να μοιάζουν πιο «ζωντανές».
Καθώς οι ψηφιακοί βοηθοί γίνονται ολοένα και πιο διαδεδομένοι, μια ομάδα ερευνητών αποφάσισε να μελετήσει πώς τα chatbots, και συγκεκριμένα το GPT-4o, αντιλαμβάνονται και εκφράζουν την ενσυναίσθηση. Η μελέτη, με επικεφαλής τις καθηγήτριες Magy Seif El-Nasr (UC Santa Cruz) και Mahnaz Roshanaei (Stanford University), ανέδειξε ενδιαφέροντα ευρήματα – και ορισμένες ανησυχητικές προκαταλήψεις.
Είναι το ChatGPT υπερβολικά συμπονετικό;
Η έρευνα αποκάλυψε ότι το GPT-4o έχει την τάση να υπερβάλλει στη συναισθηματική του αντίδραση. Σε καταστάσεις που απαιτούν στήριξη, εκφράζει μεγαλύτερη συμπάθεια από ό,τι ένας άνθρωπος, κάτι που σε ορισμένες περιπτώσεις μπορεί να κάνει την αλληλεπίδραση να μοιάζει αφύσικη.
«Μπορεί αρχικά να φαίνεται ότι το chatbot σε καταλαβαίνει, όμως οι υπερβολικά φορτισμένες αντιδράσεις του μπορεί να δημιουργήσουν αμηχανία ή να φαίνονται μη αυθεντικές», σημειώνει η έρευνα.
Ένα ακόμα αξιοσημείωτο εύρημα είναι ότι το ChatGPT δυσκολεύεται να δείξει ενθουσιασμό σε θετικά γεγονότα. Ενώ εμφανίζεται ιδιαίτερα συμπονετικό σε λυπηρές ιστορίες, δεν αντιδρά με την ίδια ένταση όταν κάποιος μοιράζεται χαρούμενες στιγμές.
Η έμφυλη προκατάληψη των AI bots
Ένα από τα πιο ενδιαφέροντα συμπεράσματα της μελέτης ήταν ότι το GPT-4o δείχνει μεγαλύτερη ενσυναίσθηση όταν συνομιλεί με γυναίκες. Οι ερευνητές υποστηρίζουν ότι αυτό μπορεί να οφείλεται στο γεγονός ότι η τεχνητή νοημοσύνη εκπαιδεύεται με δεδομένα που περιέχουν κοινωνικές προκαταλήψεις.
«Αν αυτή η ανισορροπία ισχύει και σε άλλα μοντέλα, είναι κάτι που οι εταιρείες τεχνητής νοημοσύνης θα πρέπει να λάβουν σοβαρά υπόψη, ειδικά αν τα bots αυτά χρησιμοποιούνται για ψυχική υγεία ή συναισθηματική υποστήριξη», επισημαίνει η Seif El-Nasr.
Το πείραμα και τα αποτελέσματα
Για να μελετήσουν τη συμπεριφορά του ChatGPT, οι ερευνητές του ανέθεσαν να αξιολογήσει σύντομες ανθρώπινες ιστορίες, βαθμολογώντας την ενσυναίσθηση που εξέφραζε σε μια κλίμακα από το 1 έως το 5. Τα ίδια κείμενα ανατέθηκαν και σε μια ομάδα ανθρώπων, ώστε να συγκριθούν οι αντιδράσεις τους.
Όταν το μοντέλο πέρασε από διαδικασία επανεκπαίδευσης με στόχο τη βελτίωση της ενσυναίσθησής του, τα αποτελέσματα έδειξαν ακόμα μεγαλύτερη συναισθηματική φόρτιση στις απαντήσεις του.
Τι σημαίνει αυτό για το μέλλον της AI;
Η έρευνα δείχνει ότι, παρά τις προόδους της, η τεχνητή νοημοσύνη δεν έχει ακόμα κατακτήσει τη βαθιά κατανόηση των ανθρώπινων συναισθημάτων. Η υπερβολική ευαισθησία σε θλιβερές ιστορίες και η έλλειψη αντίδρασης σε ευχάριστες στιγμές αποδεικνύουν ότι το GPT-4o δεν σκέφτεται όπως οι άνθρωποι – απλώς μιμείται τα μοτίβα που βρίσκει στα δεδομένα του.
Οι ερευνητές επισημαίνουν ότι αυτή η μελέτη είναι μόνο η αρχή. Καθώς η AI ενσωματώνεται όλο και περισσότερο στην καθημερινότητά μας, πρέπει να διασφαλίσουμε ότι η αλληλεπίδραση μαζί της είναι ισορροπημένη, αυθεντική και απαλλαγμένη από προκαταλήψεις.