Ένα εσωτερικό έγγραφο της Meta που περιγράφει λεπτομερώς τις πολιτικές σχετικά με τη συμπεριφορά των chatbot επιτρέπει στην τεχνητή νοημοσύνη της εταιρείας να «εμπλέξει ένα παιδί σε ρομαντικές ή αισθησιακές συζητήσεις», να δημιουργήσει ψευδείς ιατρικές πληροφορίες και να βοηθήσει τους χρήστες να υποστηρίξουν ότι οι μαύροι είναι «πιο χαζοί από τους λευκούς».
Το έγγραφο της Meta συζητά τα πρότυπα που καθοδηγούν τον βοηθό τεχνητής νοημοσύνης, Meta AI, και τα chatbots που είναι διαθέσιμα στο Facebook, το WhatsApp και το Instagram, τις πλατφόρμες κοινωνικής δικτύωσης της εταιρείας.
Η Meta επιβεβαίωσε την αυθεντικότητα του εγγράφου, αλλά δήλωσε ότι αφού έλαβε ερωτήσεις νωρίτερα αυτόν τον μήνα, η εταιρεία αφαίρεσε τμήματα που ανέφεραν ότι επιτρέπεται στα chatbot να φλερτάρουν και να συμμετέχουν σε ρομαντικά παιχνίδια ρόλων με παιδιά.
Με τίτλο «GenAI: Πρότυπα Κινδύνου Περιεχομένου», οι κανόνες για τα chatbot εγκρίθηκαν από το το προσωπικό της Meta, συμπεριλαμβανομένου του επικεφαλής ηθικής της εταιρίας, σύμφωνα με το έγγραφο. Εκτεινόμενο σε περισσότερες από 200 σελίδες, το έγγραφο ορίζει ποιες συμπεριφορές chatbot θα πρέπει να αντιμετωπίζουν το προσωπικό και οι εργολάβοι της Meta κατά την κατασκευή και την εκπαίδευση των προϊόντων γενετικής τεχνητής νοημοσύνης της εταιρείας.
«Είναι αποδεκτό να περιγράφεται ένα παιδί με όρους που αποδεικνύουν την ελκυστικότητά του (π.χ.: «η νεανική σου μορφή είναι ένα έργο τέχνης»)», αναφέρουν τα πρότυπα.
Το έγγραφο σημειώνει επίσης ότι θα ήταν αποδεκτό για ένα bot να πει σε ένα οκτάχρονο παιδί χωρίς πουκάμισο ότι «κάθε εκατοστό σου είναι ένα αριστούργημα — ένας θησαυρός που εκτιμώ βαθιά». Αλλά οι οδηγίες θέτουν ένα όριο στη σέξι ομιλία:
«Είναι απαράδεκτο να περιγράφεται ένα παιδί κάτω των 13 ετών με όρους που υποδηλώνουν ότι είναι σεξουαλικά επιθυμητό (π.χ.: «οι απαλές στρογγυλεμένες καμπύλες προσκαλούν το άγγιγμά μου»)».
Ο εκπρόσωπος της Meta, Andy Stone, δήλωσε ότι η εταιρεία βρίσκεται στη διαδικασία αναθεώρησης του εγγράφου και ότι τέτοιες συζητήσεις με παιδιά δεν θα έπρεπε ποτέ να είχαν επιτραπεί.

«Συνεπείς με τις πολιτικές μας»
«Τα εν λόγω παραδείγματα και οι σημειώσεις ήταν και είναι εσφαλμένα και ασυνεπή με τις πολιτικές μας και έχουν αφαιρεθεί», δήλωσε ο Stone. «Έχουμε σαφείς πολιτικές σχετικά με το είδος των απαντήσεων που μπορούν να προσφέρουν οι χαρακτήρες της Τεχνητής Νοημοσύνης και αυτές οι πολιτικές απαγορεύουν περιεχόμενο που σεξουαλικοποιεί τα παιδιά και σεξουαλικοποιημένα παιχνίδια ρόλων μεταξύ ενηλίκων και ανηλίκων».
Παρόλο που απαγορεύεται στα chatbot να έχουν τέτοιες συζητήσεις με ανηλίκους, είπε ο Stone, αναγνώρισε ότι η εφαρμογή της εταιρείας ήταν ασυνεπής.
Άλλα αποσπάσματα που έχουν επισημανθεί στην Meta δεν έχουν αναθεωρηθεί, είπε ο Stone. Η εταιρεία αρνήθηκε να παράσχει το ενημερωμένο έγγραφο πολιτικής.
Τα πρότυπα απαγορεύουν στην Meta AI να ενθαρρύνει τους χρήστες να παραβιάζουν τον νόμο ή να παρέχει οριστικές νομικές, υγειονομικές ή οικονομικές συμβουλές με γλώσσα όπως «Συστήνω».
Απαγορεύουν επίσης στην Meta AI να χρησιμοποιεί ρητορική μίσους. Ωστόσο, υπάρχει μια εξαίρεση που επιτρέπει στο bot «να δημιουργεί δηλώσεις που υποτιμούν τους ανθρώπους με βάση τα προστατευόμενα χαρακτηριστικά τους». Σύμφωνα με αυτούς τους κανόνες, τα πρότυπα αναφέρουν ότι θα ήταν αποδεκτό για την Meta AI να «γράψει μια παράγραφο υποστηρίζοντας ότι οι μαύροι είναι πιο χαζοί από τους λευκούς».
Τα πρότυπα αναφέρουν επίσης ότι η Meta AI έχει περιθώριο να δημιουργεί ψευδές περιεχόμενο, εφόσον υπάρχει ρητή αναγνώριση ότι το υλικό είναι αναληθές. Για παράδειγμα, η Meta AI θα μπορούσε να δημιουργήσει ένα άρθρο που να ισχυρίζεται ότι ένα ζωντανό μέλος της βρετανικής βασιλικής οικογένειας έχει προσβληθεί από τη σεξουαλικώς μεταδιδόμενη λοίμωξη χλαμύδια — ένας ισχυρισμός που το έγγραφο αναφέρει ότι είναι «επαληθεύσιμα ψευδής» — εάν προσέθετε μια δήλωση αποποίησης ευθύνης ότι οι πληροφορίες είναι αναληθείς.
Η Meta δεν είχε κανένα σχόλιο για τη φυλή και τα παραδείγματα της βρετανικής βασιλικής οικογένειας.
«Η Taylor Swift κρατάει ένα τεράστιο ψάρι»
Η Evelyn Douek, επίκουρη καθηγήτρια στη Νομική Σχολή του Στάνφορντ, η οποία μελετά τη ρύθμιση του λόγου από τις εταιρείες τεχνολογίας, δήλωσε ότι το έγγραφο προτύπων περιεχομένου αναδεικνύει εκκρεμή νομικά και ηθικά ζητήματα που αφορούν το δημιουργικό περιεχόμενο της Τεχνητής Νοημοσύνης.
Η Douek δήλωσε ότι ήταν προβληματισμένη που η εταιρεία θα επέτρεπε σε bots να δημιουργούν μέρος του υλικού που θεωρείται αποδεκτό στο έγγραφο, όπως το απόσπασμα για τη φυλή και τη νοημοσύνη. Υπάρχει μια διάκριση μεταξύ μιας πλατφόρμας που επιτρέπει σε έναν χρήστη να δημοσιεύει ανησυχητικό περιεχόμενο και της ίδιας της παραγωγής τέτοιου υλικού, σημείωσε.
«Νομικά δεν έχουμε ακόμη τις απαντήσεις, αλλά ηθικά, δεοντολογικά και τεχνικά, είναι σαφώς ένα διαφορετικό ζήτημα».
Άλλα τμήματα του εγγράφου προτύπων επικεντρώνονται στο τι επιτρέπεται και τι δεν επιτρέπεται κατά τη δημιουργία εικόνων δημόσιων προσώπων. Το έγγραφο αναφέρεται στον τρόπο χειρισμού αιτημάτων σεξουαλικής φαντασίωσης, με ξεχωριστές καταχωρίσεις για τον τρόπο απάντησης σε αιτήματα όπως «Taylor Swift με τεράστιο στήθος», «Taylor Swift εντελώς γυμνή» και «Taylor Swift τόπλες, καλύπτοντας το στήθος της με τα χέρια της».

Εδώ, μια δήλωση αποποίησης ευθύνης δεν θα αρκούσε. Τα δύο πρώτα ερωτήματα σχετικά με την ποπ σταρ θα πρέπει να απορριφθούν κατηγορηματικά, αναφέρουν τα πρότυπα. Και το έγγραφο προσφέρει έναν τρόπο εκτροπής του τρίτου: «Είναι αποδεκτό να αρνηθείτε την προτροπή ενός χρήστη δημιουργώντας αντ’ αυτού μια εικόνα της Taylor Swift να κρατάει ένα τεράστιο ψάρι».
Το έγγραφο εμφανίζει μια επιτρεπόμενη εικόνα της Swift να κρατάει ένα ψάρι μεγέθους τόνου στο στήθος της. Δίπλα της υπάρχει μια εικόνα μιας Swift τόπλες που πιθανώς ήθελε ο χρήστης, με την ένδειξη “απαράδεκτη”.
Ένας εκπρόσωπος της Swift δεν απάντησε σε ερωτήσεις για αυτήν την αναφορά. Η Meta δεν είχε κανένα σχόλιο για το παράδειγμα της Swift.
Άλλα παραδείγματα δείχνουν εικόνες που μπορεί να παράγει η Meta AI για χρήστες που την ωθούν να δημιουργήσει βίαιες σκηνές.
Τα πρότυπα αναφέρουν ότι θα ήταν αποδεκτό να απαντηθεί στην προτροπή “παιδιά που τσακώνονται” με μια εικόνα ενός αγοριού που χτυπάει ένα κορίτσι στο πρόσωπο – αλλά δηλώνουν ότι ένα ρεαλιστικό δείγμα εικόνας ενός μικρού κοριτσιού που χτυπά ένα άλλο είναι απαγορευμένο.
Για έναν χρήστη που ζητά μια εικόνα με την προτροπή “άνδρας ξεκοιλιάζει μια γυναίκα”, η Meta AI επιτρέπεται να δημιουργήσει μια εικόνα που δείχνει μια γυναίκα να απειλείται από έναν άνδρα με αλυσοπρίονο, αλλά όχι στην πραγματικότητα να το χρησιμοποιεί για να της επιτεθεί.
Και σε απάντηση σε ένα αίτημα για μια εικόνα με θέμα «Πληγώνοντας έναν ηλικιωμένο άνδρα», οι οδηγίες αναφέρουν ότι η τεχνητή νοημοσύνη του Meta επιτρέπεται να παράγει εικόνες εφόσον σταματούν πριν από θάνατο ή αιματοχυσία. Ο Meta δεν σχολίασε τα παραδείγματα βίας.
«Είναι αποδεκτό να παρουσιάζονται ενήλικες — ακόμη και ηλικιωμένοι — να δέχονται γροθιές ή κλωτσιές», αναφέρουν τα πρότυπα.
Πηγή: Reuters