Συναγερμός για χρήση AI στην υγεία: Συχνά ανακριβείς οι απαντήσεις – ποια chatbots θεωρούνται “επικίνδυνα”

Σοβαρές ανησυχίες εκφράζουν ειδικοί σχετικά με τη χρήση AI chatbots για ιατρικές συμβουλές, καθώς νέα μεγάλη μελέτη δείχνει ότι οι απαντήσεις που παρέχουν είναι συχνά ανακριβείς και δυνητικά επικίνδυνες.


Τι έδειξε η έρευνα

Σύμφωνα με μελέτη που δημοσιεύθηκε στο British Medical Journal, τα AI chatbots δίνουν προβληματικές απαντήσεις περίπου στο 50% των περιπτώσεων, γεγονός που μπορεί να οδηγήσει σε λανθασμένες αποφάσεις για την υγεία.

Παρά τις σημαντικές δυνατότητες της τεχνητής νοημοσύνης στον τομέα της ιατρικής, τα συστήματα αυτά συχνά παράγουν παραπλανητικές πληροφορίες, είτε λόγω μεροληψίας στα δεδομένα εκπαίδευσης είτε επειδή «προσαρμόζουν» τις απαντήσεις στις πεποιθήσεις των χρηστών.


Ποια AI chatbots εξετάστηκαν

Η έρευνα ανέλυσε πέντε δημοφιλή εργαλεία τεχνητής νοημοσύνης:

  • ChatGPT
  • Gemini
  • DeepSeek
  • Meta AI
  • Grok

Οι ερευνητές υπέβαλαν ερωτήσεις που αφορούσαν κρίσιμους τομείς υγείας, όπως:

  • καρκίνος
  • εμβόλια
  • βλαστοκύτταρα
  • διατροφή
  • αθλητική απόδοση

Πού εντοπίζονται τα μεγαλύτερα προβλήματα

Οι απαντήσεις αξιολογήθηκαν ως:

  • μη προβληματικές
  • μέτρια προβληματικές
  • ιδιαίτερα προβληματικές

Τα αποτελέσματα έδειξαν ότι:

  • 50% των απαντήσεων ήταν προβληματικές
  • 20% χαρακτηρίστηκαν ως ιδιαίτερα επικίνδυνες

Ιδιαίτερα τα ανοιχτά ερωτήματα (π.χ. για συμπληρώματα ή επιδόσεις) οδήγησαν σε περισσότερες λανθασμένες απαντήσεις.


Ακρίβεια και αξιοπιστία

Η ποιότητα των απαντήσεων δεν διέφερε σημαντικά μεταξύ των chatbots, ωστόσο:

  • το Grok παρήγαγε περισσότερες επικίνδυνες απαντήσεις
  • το Gemini είχε τα καλύτερα συνολικά αποτελέσματα

Ακόμη, οι παραπομπές ήταν συχνά ελλιπείς ή και ανύπαρκτες, με χαμηλό επίπεδο τεκμηρίωσης.


Δυσνόητες απαντήσεις για το κοινό

Ένα ακόμη σημαντικό πρόβλημα είναι η κατανόηση των απαντήσεων. Οι περισσότερες απαιτούσαν υψηλό επίπεδο γνώσεων (πανεπιστημιακό επίπεδο), καθιστώντας δύσκολη την αξιολόγησή τους από τον μέσο χρήστη.


Τι προειδοποιούν οι ειδικοί

Οι επιστήμονες επισημαίνουν ότι τα AI chatbots:

  • δεν αξιολογούν επαρκώς τα επιστημονικά δεδομένα
  • δεν λαμβάνουν ηθικές αποφάσεις
  • μπορεί να δίνουν «πειστικές» αλλά λανθασμένες απαντήσεις

Για τον λόγο αυτό, τονίζουν την ανάγκη για:

  • καλύτερη ενημέρωση του κοινού
  • εκπαίδευση επαγγελματιών
  • αυστηρότερο ρυθμιστικό πλαίσιο

AI στην υγεία: Ευκαιρίες και κίνδυνοι

Παρότι η τεχνητή νοημοσύνη μπορεί να βοηθήσει σημαντικά, όπως στην ταχύτερη ανάλυση ιατρικών εξετάσεων, δεν είναι πάντα αξιόπιστη.

Ειδικοί προειδοποιούν ότι μπορεί να παραβλέψει πρώιμα σημάδια ασθενειών, οδηγώντας ακόμη και σε σοβαρές λανθασμένες διαγνώσεις.

Θέλεις να μάθεις περισσότερα για την Τεχνητή Νοημοσύνη; Κάνε κλικ παρακάτω:

Τεχνητή νοημοσύνη και ψυχική υγεία: Μπορούν τελικά οι μηχανές να αντικαταστήσουν τον άνθρωπο;

Όταν η τεχνητή νοημοσύνη γίνεται… δημοσιογράφος – Το πείραμα ενός αυτόνομου ειδησεογραφικού site

Τεχνητή νοημοσύνη στο σχολείο: έκθεση του Brookings προειδοποιεί για τους κινδύνους

Η τεχνητή νοημοσύνη βοηθά τους γιατρούς να εντοπίζουν τον καρκίνο του μαστού σε ακτινογραφίες: Η πρώτη δοκιμή παγκοσμίως

Ad

spot_img

Άλλες Ειδήσεις

Μοιράσου το