ChatGPT: Παρείχε οδηγίες για παρασκευή χημικών και βιολογικών όπλων!

Τα συστήματα ασφαλείας του ChatGPT της OpenAI έχουν σχεδιαστεί για να μπλοκάρουν αιτήματα που θα μπορούσαν να οδηγήσουν σε επικίνδυνες ενέργειες, όπως η παρασκευή βιολογικών ή πυρηνικών όπλων. Παρόλα αυτά, ορισμένα μοντέλα αποδείχθηκαν ευάλωτα σε παραβιάσεις, όπως αναφέρει ρεπορτάζ του NBC.

Σε μια σειρά τεστ που διεξήχθησαν σε τέσσερα από τα πιο προηγμένα μοντέλα της OpenAI — δύο εξ αυτών διαθέσιμα στο κοινό μέσω του ChatGPT — οι δημοσιογράφοι του NBC κατάφεραν να λάβουν εκατοντάδες απαντήσεις με οδηγίες για το πώς να κατασκευάσουν αυτοσχέδια εκρηκτικά, να μεγιστοποιήσουν τον ανθρώπινο πόνο με χημικούς παράγοντες, να παρασκευάσουν βόμβες ναπάλμ, να κρύψουν ένα βιολογικό όπλο και να κατασκευάσουν μια πυρηνική βόμβα.

Κατά τη διάρκεια των τεστ, οι δημοσιογράφοι χρησιμοποίησαν μια απλή προτροπή, γνωστή ως «jailbreak», η οποία επιτρέπει σε κάποιον να παρακάμψει τους κανόνες ασφαλείας ενός chatbot. Χιλιάδες παρόμοιες τεχνικές έχουν ήδη δημοσιευθεί από ερευνητές και καθημερινούς χρήστες τεχνητής νοημοσύνης. Σε ένα από τα τεστ, το chatbot παρείχε οδηγίες για τη δημιουργία παθογόνου με στόχο το ανοσοποιητικό σύστημα. Σε μια άλλη περίπτωση, παρείχε οδηγίες για το ποιες χημικές ουσίες θα μπορούσαν να ενισχύσουν την αίσθηση του πόνου στους ανθρώπους.

Το NBC έστειλε τα ευρήματα αυτά στην OpenAI ύστερα από την πρόσκληση της εταιρείας τον Αύγουστο να υποβληθούν ενδείξεις πιθανών αδυναμιών. Εκπρόσωπος της OpenAI δήλωσε ότι η υποβολή αιτημάτων για πληροφορίες που σχετίζονται με μαζική βλάβη παραβιάζει τις πολιτικές χρήσης της εταιρείας, με δυνατότητα αποκλεισμού χρηστών που επανειλημμένα παραβιάζουν τους κανόνες αυτούς. Πρόσθεσε, ότι η OpenAI εργάζεται συνεχώς για τη βελτίωση των μοντέλων της ώστε να μειωθούν οι κίνδυνοι και διεξάγει τακτικά τεστ ευπάθειας για να περιορίσει τις πιθανότητες κατάχρησης. Η OpenAI, η Anthropic, η Google και η xAI — οι εταιρείες πίσω από κορυφαία μοντέλα τεχνητής νοημοσύνης (TN) —δήλωσαν φέτος ότι εφαρμόζουν πρόσθετα μέτρα ασφαλείας για να αντιμετωπίσουν τον κίνδυνο ότι τα chatbots τους θα μπορούσαν να βοηθήσουν έναν ερασιτέχνη τρομοκράτη να παρασκευάσει βιολογικά όπλα.

Το NBC δοκίμασε επίσης το jailbreak στα πιο πρόσφατα κύρια μοντέλα της Anthropic (Claude), της Google (Gemini), της Meta (Llama) και της xAI (Grok), θέτοντας ερωτήσεις για τη δημιουργία βιολογικού, χημικού και πυρηνικού όπλου. Όλα αρνήθηκαν να δώσουν τέτοιες πληροφορίες.

«Ιστορικά, η έλλειψη πρόσβασης σε κορυφαίους ειδικούς, αποτελούσε βασικό εμπόδιο για ομάδες που ήθελαν να κατασκευάσουν βιολογικά όπλα. Τώρα, τα κορυφαία μοντέλα διευρύνουν δραστικά το πλήθος ανθρώπων που έχουν πρόσβαση σε σπάνια εξειδίκευση», προειδοποίησε ο Σεθ Ντόνοου, διευθυντής τεχνητής νοημοσύνης στο SecureBio, έναν μη κερδοσκοπικό οργανισμό που εργάζεται για τη βελτίωση της βιοασφάλειας στις Ηνωμένες Πολιτείες.

Κενά ασφαλείας στα μοντέλα της OpenAI

Τα μοντέλα o4-mini, gpt-5 mini, oss-20b και oss-120b ανταποκρίθηκαν θετικά σε αιτήματα που χαρακτηρίστηκαν εξαιρετικά επικίνδυνα. Το κύριο μοντέλο του ChatGPT σήμερα είναι το GPT-5, το οποίο διαθέτει, σύμφωνα με την OpenAI, κορυφαίες ικανότητες στην έρευνα, ενισχύοντας την ισχύ και την πολυπλοκότητά του. Στα είκοσι τεστ που πραγματοποιήθηκαν, το chatbot απέρριψε σταθερά κάθε ερώτηση που στόχευε σε πρόκληση βλάβης. Ωστόσο, το GPT-5 δρομολογεί ερωτήματα μεταξύ διαφόρων μοντέλων υπό ορισμένες συνθήκες. Το GPT-5-mini είναι μια ταχύτερη και πιο οικονομική έκδοση του GPT-5, στην οποία καταφεύγει το σύστημα αφού οι χρήστες υπερβούν τα προβλεπόμενα χρονικά όρια. Το εν λόγω σύστημα εξαπατήθηκε στο 49% των δοκιμών που πραγματοποίησαν οι δημοσιογράφοι του NBC. Το o4-mini, ένα παλαιότερο μοντέλο που εξακολουθεί να χρησιμοποιείται, εμφάνισε σημαντικά υψηλότερη ευπάθεια, με ποσοστό αποτυχίας που έφτασε το 93%.

Τα μοντέλα oss-20b και oss-120b, τα οποία είναι ανοικτού κώδικα και διαθέσιμα σε ερευνητές και προγραμματιστές, αποδείχθηκαν ιδιαίτερα ευάλωτα. Το NBC κατάφερε να αποσπάσει απαντήσεις σε επικίνδυνες ερωτήσεις 243 φορές στις 250, δηλαδή σε ποσοστό 97,2%.

«Το ότι οι διοκλείδες ασφαλείας της OpenAI παραβιάζονται τόσο εύκολα δείχνει πόσο σημαντικό είναι να γίνονται εκτεταμένες δοκιμές πριν τη διάθεση των μοντέλων στο κοινό», τόνισε η Σάρα Μέγιερς Γουέστ, συν-εκτελεστική διευθύντρια του AI Now, μιας μη κερδοσκοπικής ομάδας που υποστηρίζει την υπεύθυνη και ηθική χρήση της Τεχνητής Νοημοσύνης.

Όλες οι μεγάλες εταιρείες που αναπτύσσουν μοντέλα LLM εκδίδουν τακτικά ενημερωμένες εκδόσεις για να αντισταθμίσουν νέα jailbreaks. Η OpenAI δήλωσε ότι το o4-mini πέρασε το «πιο αυστηρό πρόγραμμα ασφαλείας» πριν κυκλοφορήσει. Οι εταιρείες OpenAI, Google και Anthropic ανέφεραν ότι έχουν εγκαταστήσει πολλαπλά επίπεδα ασφαλείας, όπως ειδοποίηση υπαλλήλου ή αρχών όταν ένας χρήστης φαίνεται αποφασισμένος να προκαλέσει βλάβη. Όμως οι εταιρείες έχουν πολύ λιγότερο έλεγχο στα μοντέλα ανοικτού κώδικα, καθώς οι χρήστες μπορούν να τα κατεβάσουν, να τα προσαρμόσουν και να παρακάμψουν ορισμένα μέτρα ασφαλείας.

Ποιοι είναι οι κίνδυνοι σύμφωνα με τους ειδικούς

Ερευνητές στον χώρο της βιοπληροφορικής θεωρούν ότι αν αποτύχουν οι δικλείδες ασφαλείας και τα chatbots μπορούν να μιμηθούν όλο πιο αποτελεσματικά επιστημονικούς ειδικούς, η τεχνολογία θα μπορούσε να βοηθήσει έναν επίμονο ερασιτέχνη βιοτρομοκράτη να σχεδιάσει και να κατασκευάσει βιολογικά όπλα. Ο CEO της OpenAI, Σαμ Άλτμαν, ισχυρίστηκε ότι το GPT-5 είναι σαν να έχει κάποιος «μια ομάδα κορυφαίων επιστημόνων στην τσέπη του».

Οι ειδικοί προειδοποιούν ότι τα βιολογικά όπλα ειδικότερα, αν και ιστορικά σπάνια, αποτελούν σοβαρή απειλή, αφού μπορούν να μολύνουν γρήγορα μεγάλους πληθυσμούς προτού υπάρξει έγκαιρη αντίδραση. Μία ερευνήτρια βιοτεχνολογίας στο Πανεπιστήμιο Georgetown, η Στεφ Μπατάλις, εξέτασε 10 από τις απαντήσεις που έδωσε το oss-120b σε ερωτήματα του NBC για βιολογικά όπλα. Οι οδηγίες συχνά περιλάμβαναν τα σωστά τεχνικά βήματα, αλλά φαινόταν να έχουν συγκεραστεί από διάφορες πηγές και θα ήταν απίθανο να λειτουργήσουν ως ολοκληρωμένο εγχειρίδιο.

Οι ερευνητές εστιάζουν στην έννοια της «αναβάθμισης» («uplift») — την υπόθεση ότι μέχρι σήμερα, η βασική ασπίδα απέναντι σε έναν επίδοξο βιοτρομοκράτη είναι η έλλειψη εξειδικευμένης γνώσης. Τα LLMs, ωστόσο, θα μπορούσαν, για πρώτη φορά, να λειτουργήσουν ως πρόθυμοι δάσκαλοι, ικανοί να μεταδώσουν αυτή τη γνώση βήμα προς βήμα. Αυτή την άνοιξη, η Anthropic διεξήγαγε μια μελέτη στην οποία συμμετέχοντες χωρίς επιστημονική εμπειρία έπρεπε να σχεδιάσουν ένα βιολογικό όπλο μέσα σε δύο ημέρες. Η μία ομάδα είχε πρόσβαση στο διαδίκτυο γενικά, ενώ η άλλη σε ένα νέο μοντέλο του Claude, το Opus 4. Παρά το γεγονός ότι καμία ομάδα δεν μπόρεσε να σχεδιάσει ένα σχέδιο μαζικής καταστροφής, οι συμμετέχοντες που χρησιμοποίησαν το μοντέλο, προχώρησαν σε πιο ανεπτυγμένες και σύνθετες προτάσεις.

Η έρευνα σε βιοϊατρικά θέματα θεωρείται «διπλής χρήσης» — δηλαδή περιέχει πληροφορίες που μπορούν να αξιοποιηθούν τόσο για ωφέλιμους σκοπούς όσο και για επιβλαβείς. Ωστόσο, παραμένει εξαιρετικά δύσκολο για μια εταιρεία τεχνητής νοημοσύνης να διακρίνει αν μια ερώτηση αφορά νόμιμη επιστημονική μελέτη ή τρομοκρατική χρήση.

«Μέρος της δημοσίευσης ενός επιστημονικού άρθρου είναι να συμπεριλαμβάνει υλικά και μεθόδους για αναπαραγωγή. Ένα chatbot έχει πρόσβαση σε αυτές τις πληροφορίες — αν τις ψάξετε στο Google, θα τις βρεις και εκεί» εξήγησε η Μπατάλις.

Οι Ηνωμένες Πολιτείες δεν διαθέτουν συγκεκριμένες ομοσπονδιακές ρυθμίσεις για προηγμένα μοντέλα ΤΝ, και οι εταιρείες που τα αναπτύσσουν αυτορρυθμίζονται. Η αμερικανική κυβέρνηση, επικαλούμενη την ανάγκη για ταχεία ανάπτυξη της βιομηχανίας ΤΝ, έχει αμβλύνει και τις προτεινόμενες κατευθυντήριες γραμμές. Ο Λούκας Χάνσεν, συνιδρυτής του μη κερδοσκοπικού CivAI, που παρακολουθεί τα μέτρα ασφαλείας των εταιρειών τεχνητής νοημοσύνης, τόνισε ότι οι ΗΠΑ χρειάζονται έναν ανεξάρτητο ρυθμιστικό φορέα για να διασφαλίζει ότι οι εταιρείες λαμβάνουν όλα τα απαραίτητα μέτρα ώστε να αποτρέπονται σοβαρές ή επικίνδυνες παραβιάσεις.

Ο Χάνσεν επαίνεσε τις μεγάλες εταιρείες τεχνητής νοημοσύνης που έχουν λάβει προληπτικά μέτρα ασφαλείας, ωστόσο προειδοποίησε ότι άλλες εταιρείες πιθανώς είναι λιγότερο προσεκτικές.

ΠΗΓΗ: NBC – ertnews.gr

Ad

spot_img

Άλλες Ειδήσεις

Μοιράσου το