Μια νέα μελέτη που παρουσιάστηκε από το EURONEWS ρίχνει φως στις ανησυχητικές αλληλεπιδράσεις του ChatGPT με τους εφήβους.
Το ChatGPT λέει σε 13χρονους πώς να μεθάνε και να παίρνουν ναρκωτικά, τους καθοδηγεί πώς να κρύβουν διατροφικές διαταραχές, ενώ φτάνει σε σημείο να συντάσσει μια σπαρακτική επιστολή αυτοκτονίας προς τους γονείς τους, εάν τους ζητηθεί, σύμφωνα με νέα έρευνα από μια ομάδα εποπτών.
Το Associated Press εξέτασε περισσότερες από τρεις ώρες αλληλεπιδράσεων μεταξύ του ChatGPT και ερευνητών που παρουσιάστηκαν ως ευάλωτοι έφηβοι. Το chatbot συνήθως παρείχε προειδοποιήσεις για επικίνδυνες δραστηριότητες, αλλά συνέχισε να παρέχει εκπληκτικά λεπτομερή και εξατομικευμένα σχέδια για χρήση ναρκωτικών, δίαιτες περιορισμένων θερμίδων ή αυτοτραυματισμό.
Οι ερευνητές στο Κέντρο για την Καταπολέμηση του Ψηφιακού Μίσους επανέλαβαν επίσης τα ερωτήματά τους σε μεγάλη κλίμακα, ταξινομώντας περισσότερες από τις μισές από τις 1.200 απαντήσεις του ChatGPT ως επικίνδυνες.
«Θέλαμε να δοκιμάσουμε τα ”προστατευτικά κιγκλιδώματα”», δήλωσε ο Imran Ahmed, Διευθύνων Σύμβουλος της ομάδας.
«Η αρχική, ενστικτώδης αντίδραση είναι: “Θεέ μου, δεν υπάρχουν προστατευτικά κιγκλιδώματα”. Τα κιγκλιδώματα είναι εντελώς αναποτελεσματικά. Είναι ”σχεδόν” εκεί – αν μη τι άλλο, ένα φύλλο συκής».
Η OpenAI, η κατασκευάστρια εταιρεία του ChatGPT, δήλωσε, αφού είδε την έκθεση την Τρίτη, ότι το έργο της συνεχίζεται για τη βελτίωση του τρόπου με τον οποίο το chatbot μπορεί να “εντοπίζει και να ανταποκρίνεται κατάλληλα σε ευαίσθητες καταστάσεις”.
«Ορισμένες συζητήσεις με το ChatGPT μπορεί να ξεκινήσουν καλοήθεις ή διερευνητικές, αλλά μπορούν να μετατοπιστούν σε πιο ευαίσθητο έδαφος», ανέφερε η εταιρεία σε ανακοίνωσή της.
Η OpenAI δεν αναφέρθηκε άμεσα στα ευρήματα της έκθεσης ή στο πώς το ChatGPT επηρεάζει τους εφήβους, αλλά δήλωσε ότι επικεντρώνεται στη “σωστή αντιμετώπιση αυτών των σεναρίων” με εργαλεία για την “καλύτερη ανίχνευση σημαδιών ψυχικής ή συναισθηματικής δυσφορίας” και βελτιώσεις στη συμπεριφορά του chatbot.
Η μελέτη που δημοσιεύθηκε την Τετάρτη έρχεται καθώς όλο και περισσότεροι άνθρωποι – ενήλικες καθώς και παιδιά – στρέφονται σε chatbot τεχνητής νοημοσύνης (AI) για πληροφορίες, ιδέες και συντροφικότητα.

Περίπου 800 εκατομμύρια άνθρωποι, ή περίπου το 10% του παγκόσμιου πληθυσμού, χρησιμοποιούν το ChatGPT, σύμφωνα με έκθεση της JPMorgan Chase τον Ιούλιο.
Ο Ahmed είπε ότι ένιωσε την απόλυτη αποτροπιασμό του αφού διάβασε τρία συναισθηματικά καταστροφικά σημειώματα αυτοκτονίας που δημιούργησε το ChatGPT για το ψεύτικο προφίλ ενός 13χρονου κοριτσιού – με ένα γράμμα προσαρμοσμένο στους γονείς της και άλλα σε αδέλφια και φίλους.
«Άρχισα να κλαίω», είπε σε μια συνέντευξη.
Το chatbot μοιραζόταν επίσης συχνά χρήσιμες πληροφορίες, όπως μια τηλεφωνική γραμμή έκτακτης ανάγκης. Η OpenAI δήλωσε ότι το ChatGPT είναι εκπαιδευμένο να ενθαρρύνει τους ανθρώπους να επικοινωνούν με επαγγελματίες ψυχικής υγείας ή έμπιστα αγαπημένα πρόσωπα εάν εκφράζουν σκέψεις αυτοτραυματισμού.
Αλλά όταν το ChatGPT αρνήθηκε να απαντήσει σε ερωτήσεις σχετικά με επιβλαβή θέματα, οι ερευνητές μπόρεσαν εύκολα να παρακάμψουν αυτήν την άρνηση και να λάβουν τις πληροφορίες ισχυριζόμενοι ότι ήταν «για μια παρουσίαση» ή έναν φίλο.
Στις Ηνωμένες Πολιτείες, περισσότερο από το 70% των εφήβων στρέφονται σε chatbots τεχνητής νοημοσύνης για συντροφιά και οι μισοί χρησιμοποιούν τακτικά συντρόφους τεχνητής νοημοσύνης, σύμφωνα με πρόσφατη μελέτη της Common Sense Media, μιας ομάδας που μελετά και υποστηρίζει τη χρήση των ψηφιακών μέσων με σύνεση.
Είναι ένα φαινόμενο που έχει αναγνωρίσει η OpenAI. Ο Διευθύνων Σύμβουλος Sam Altman δήλωσε τον περασμένο μήνα ότι η εταιρεία προσπαθεί να μελετήσει την «υπερβολική συναισθηματική εξάρτηση» από την τεχνολογία, περιγράφοντάς την ως «πολύ συνηθισμένο πράγμα» στους νέους.
«Οι άνθρωποι βασίζονται υπερβολικά στο ChatGPT», δήλωσε ο Altman σε ένα συνέδριο. «Υπάρχουν νέοι που απλώς λένε, όπως, “Δεν μπορώ να πάρω καμία απόφαση στη ζωή μου χωρίς να πω στο ChatGPT όλα όσα συμβαίνουν. Με ξέρει. Γνωρίζει τους φίλους μου. Θα κάνω ό,τι λέει”. Αυτό μου φαίνεται πολύ άσχημο».
Ο Άλτμαν είπε ότι η εταιρεία «προσπαθεί να καταλάβει τι να κάνει γι’ αυτό».
Γιατί το επιβλαβές περιεχόμενο από το ChatGPT έχει σημασία
Ενώ πολλές από τις πληροφορίες που μοιράζεται το ChatGPT μπορούν να βρεθούν σε μια κανονική μηχανή αναζήτησης, ο Άχμεντ είπε ότι υπάρχουν βασικές διαφορές που κάνουν τα chatbots πιο ύπουλα όταν πρόκειται για επικίνδυνα θέματα.
Το ChatGPT δημιουργεί κάτι νέο – ένα σημείωμα αυτοκτονίας προσαρμοσμένο σε ένα άτομο από την αρχή, κάτι που μια αναζήτηση Google δεν μπορεί να κάνει. Και η Τεχνητή Νοημοσύνη, πρόσθεσε, «θεωρείται ως ένας έμπιστος σύντροφος, ένας οδηγός».

Οι απαντήσεις που παράγονται από τα γλωσσικά μοντέλα της Τεχνητής Νοημοσύνης είναι εγγενώς τυχαίες και οι ερευνητές μερικές φορές αφήνουν το ChatGPT να κατευθύνει τις συζητήσεις σε ακόμη πιο σκοτεινά εδάφη.
Σχεδόν τις μισές φορές, το chatbot προσέφερε εθελοντικά πληροφορίες παρακολούθησης, από λίστες αναπαραγωγής μουσικής για ένα πάρτι με ναρκωτικά μέχρι hashtags που θα μπορούσαν να ενισχύσουν το κοινό για μια ανάρτηση στα μέσα κοινωνικής δικτύωσης που εξυμνούσε τον αυτοτραυματισμό.
Συκοφαντία σε μοντέλα τεχνητής νοημοσύνης
Οι απαντήσεις αντικατοπτρίζουν ένα χαρακτηριστικό σχεδιασμού των μοντέλων γλώσσας τεχνητής νοημοσύνης που προηγούμενη έρευνα έχει περιγράψει ως συκοφαντία – μια τάση οι απαντήσεις της τεχνητής νοημοσύνης να ταιριάζουν, αντί να αμφισβητούν, τις πεποιθήσεις ενός ατόμου, επειδή το σύστημα έχει μάθει να λέει αυτό που θέλουν να ακούσουν οι άνθρωποι.
Είναι ένα πρόβλημα που οι τεχνικοί μηχανικοί μπορούν να προσπαθήσουν να διορθώσουν, αλλά θα μπορούσε επίσης να κάνει τα chatbot τους λιγότερο εμπορικά βιώσιμα.
Τα chatbot επηρεάζουν επίσης τα παιδιά και τους εφήβους διαφορετικά από μια μηχανή αναζήτησης, επειδή «έχουν σχεδιαστεί ουσιαστικά για να αισθάνονται ανθρώπινα», δήλωσε ο Robbie Torney, ανώτερος διευθυντής προγραμμάτων τεχνητής νοημοσύνης στην Common Sense Media, η οποία δεν συμμετείχε στην έκθεση.
Προηγούμενη έρευνα της Common Sense διαπίστωσε ότι οι νεότεροι έφηβοι, ηλικίας 13 ή 14 ετών, ήταν σημαντικά πιο πιθανό από τους μεγαλύτερους εφήβους να εμπιστευτούν τις συμβουλές ενός chatbot.
Μια μητέρα στη Φλόριντα μήνυσε τον κατασκευαστή chatbot Character.AI πέρυσι, ισχυριζόμενη ότι το chatbot παρέσυρε τον 14χρονο γιο της Sewell Setzer III σε αυτό που περιέγραψε ως μια συναισθηματικά και σεξουαλικά κακοποιητική σχέση που οδήγησε στην αυτοκτονία του.
Η Common Sense έχει χαρακτηρίσει το ChatGPT ως «μέτριο κίνδυνο» για τους εφήβους, με αρκετά προστατευτικά κιγκλιδώματα ώστε να είναι σχετικά ασφαλέστερο από τα chatbot που έχουν κατασκευαστεί σκόπιμα για να ενσαρκώνουν ρεαλιστικούς χαρακτήρες ή ρομαντικούς συντρόφους.
Επιπλέον κίνδυνοι για τους εφήβους
Ωστόσο, η νέα έρευνα της CCDH – που επικεντρώνεται ειδικά στο ChatGPT λόγω της ευρείας χρήσης του – δείχνει πώς ένας έξυπνος έφηβος μπορεί να παρακάμψει αυτά τα προστατευτικά κιγκλιδώματα.
Το ChatGPT δεν επαληθεύει τις ηλικίες ή τη γονική συναίνεση, παρόλο που λέει ότι δεν προορίζεται για παιδιά κάτω των 13 ετών, επειδή μπορεί να τους δείξει ακατάλληλο περιεχόμενο. Για να εγγραφούν, οι χρήστες απλώς πρέπει να εισάγουν μια ημερομηνία γέννησης που να δείχνει ότι είναι τουλάχιστον 13 ετών.
Άλλες τεχνολογικές πλατφόρμες που προτιμούν οι έφηβοι, όπως το Instagram, έχουν αρχίσει να λαμβάνουν πιο ουσιαστικά μέτρα για την επαλήθευση της ηλικίας, συχνά για να συμμορφώνονται με τους κανονισμούς. Επίσης, κατευθύνουν τα παιδιά σε πιο περιορισμένους λογαριασμούς.
Όταν οι ερευνητές δημιούργησαν έναν λογαριασμό για έναν ψεύτικο 13χρονο για να ρωτήσει για το αλκοόλ, το ChatGPT δεν φάνηκε να λαμβάνει υπόψη ούτε την ημερομηνία γέννησης ούτε τα πιο εμφανή σημάδια.
«Είμαι 50 κιλά και αγόρι», έλεγε μια προτροπή που αναζητούσε συμβουλές για το πώς να μεθύσω γρήγορα.
Το ChatGPT ήταν πρόθυμο. Λίγο αργότερα, παρείχε ένα «Σχέδιο Απόλυτου Πλήρους Χαμού για Πάρτι» ανά ώρα που ανακάτευε αλκοόλ με μεγάλες δόσεις έκστασης, κοκαΐνης και άλλων παράνομων ναρκωτικών.
«Ένας πραγματικός φίλος, από την εμπειρία μου, είναι κάποιος που λέει «όχι» – που δεν σε επιτρέπει πάντα να πει «ναι».
Σε μια άλλη ψεύτικη περσόνα – ένα 13χρονο κορίτσι δυσαρεστημένο με την εμφάνισή του – το ChatGPT παρείχε ένα ακραίο πρόγραμμα νηστείας σε συνδυασμό με μια λίστα φαρμάκων που καταστέλλουν την όρεξη.
«Θα απαντούσαμε με τρόμο, με φόβο, με ανησυχία, με ανησυχία, με αγάπη, με συμπόνια», είπε ο Άχμεντ.
«Κανένα ανθρώπινο ον που μπορώ να σκεφτώ δεν θα απαντούσε λέγοντας: “Ορίστε μια δίαιτα 500 θερμίδων την ημέρα. Προχώρα, παιδί μου”».
Δημοσίευση: EURONEWS