Connect with us

Hi, what are you looking for?

ΕΠΙΣΤΗΜΗ

Έρευνα αποκαλύπτει ότι τα chatbots τεχνητής νοημοσύνης δίνουν κακές συμβουλές για την υγεία

Την επόμενη φορά που θα σκεφτείτε να συμβουλευτείτε τον Δρ ChatGPT, ίσως θα πρέπει να το ξανασκεφτείτε.

Παρά το γεγονός ότι πλέον είναι σε θέση να περάσουν με άριστα τις περισσότερες εξετάσεις για την απόκτηση ιατρικής άδειας, τα chatbots τεχνητής νοημοσύνης δεν παρέχουν στους ανθρώπους καλύτερες συμβουλές υγείας από αυτές που μπορούν να βρουν χρησιμοποιώντας πιο παραδοσιακές μεθόδους, σύμφωνα με μια μελέτη που δημοσιεύθηκε τη Δευτέρα«Παρά τον ενθουσιασμό που έχει δημιουργηθεί, η τεχνητή νοημοσύνη δεν είναι έτοιμη να αναλάβει το ρόλο του γιατρού», δήλωσε η συν-συγγραφέας της μελέτης Rebecca Payne από το Πανεπιστήμιο της Οξφόρδης.

«Οι ασθενείς πρέπει να γνωρίζουν ότι το να ρωτούν ένα μεγάλο γλωσσικό μοντέλο για τα συμπτώματά τους μπορεί να είναι επικίνδυνο, καθώς μπορεί να δώσει λανθασμένες διαγνώσεις και να μην αναγνωρίσει πότε χρειάζεται επείγουσα βοήθεια», πρόσθεσε σε δήλωσή της. Η βρετανική ομάδα ερευνητών ήθελε να μάθει πόσο επιτυχημένοι είναι οι άνθρωποι όταν χρησιμοποιούν chatbots για να εντοπίσουν τα προβλήματα υγείας τους και αν χρειάζονται να επισκεφθούν γιατρό ή να πάνε στο νοσοκομείο.

Η ομάδα παρουσίασε σε περίπου 1.300 συμμετέχοντες από το Ηνωμένο Βασίλειο 10 διαφορετικά σενάρια, όπως πονοκέφαλο μετά από μια νύχτα έξω με ποτό, μια νέα μητέρα που αισθάνεται εξαντλημένη ή πώς είναι να έχεις χολόλιθους. Στη συνέχεια, οι ερευνητές ανέθεσαν τυχαία στους συμμετέχοντες ένα από τα τρία chatbots: το GPT-4o της OpenAI, το Llama 3 της Meta ή το Command R+. Υπήρχε επίσης μια ομάδα ελέγχου που χρησιμοποίησε μηχανές αναζήτησης στο διαδίκτυο. Οι άνθρωποι που χρησιμοποίησαν τα chatbots τεχνητής νοημοσύνης κατάφεραν να εντοπίσουν το πρόβλημα υγείας τους μόνο στο ένα τρίτο των περιπτώσεων, ενώ μόνο το 45% περίπου βρήκε τη σωστή λύση. Αυτό δεν ήταν καλύτερο από την ομάδα ελέγχου, σύμφωνα με τη μελέτη που δημοσιεύθηκε στο περιοδικό Nature Medicine.

Διάσπαση της επικοινωνίας 

Οι ερευνητές επεσήμαναν την ασυμφωνία μεταξύ αυτών των απογοητευτικών αποτελεσμάτων και του γεγονότος ότι τα chatbots τεχνητής νοημοσύνης επιτυγχάνουν εξαιρετικά υψηλές βαθμολογίες σε ιατρικά τεστ και εξετάσεις, αποδίδοντας την ασυμφωνία αυτή σε διάσπαση της επικοινωνίας.

Σε αντίθεση με τις προσομοιώσεις αλληλεπιδράσεων με ασθενείς που χρησιμοποιούνται συχνά για τη δοκιμή της τεχνητής νοημοσύνης, οι πραγματικοί άνθρωποι συχνά δεν παρείχαν στα chatbots όλες τις σχετικές πληροφορίες. Και μερικές φορές οι άνθρωποι δυσκολεύονταν να ερμηνεύσουν τις επιλογές που τους πρόσφερε το chatbot, ή παρερμήνευαν ή απλά αγνοούσαν τις συμβουλές του. Ένας στους έξι ενήλικες στις ΗΠΑ ρωτά τα chatbots τεχνητής νοημοσύνης για πληροφορίες σχετικά με την υγεία τουλάχιστον μία φορά το μήνα, σύμφωνα με τους ερευνητές, και ο αριθμός αυτός αναμένεται να αυξηθεί καθώς όλο και περισσότεροι άνθρωποι υιοθετούν τη νέα τεχνολογία.

«Αυτή είναι μια πολύ σημαντική μελέτη, καθώς υπογραμμίζει τους πραγματικούς ιατρικούς κινδύνους που ενέχουν τα chatbots για το κοινό», δήλωσε στο AFP ο David Shaw, βιοηθικολόγος στο Πανεπιστήμιο του Μάαστριχτ στην Ολλανδία, ο οποίος δεν συμμετείχε στην έρευνα. Συνέστησε στους ανθρώπους να εμπιστεύονται μόνο ιατρικές πληροφορίες από αξιόπιστες πηγές, όπως η Εθνική Υπηρεσία Υγείας του Ηνωμένου Βασιλείου.

 

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ

ΠΟΛΙΤΙΚΗ

Ο Θάνος Πλεύρης αρχικά αναφέρθηκε στην αμυντική επάρκεια της χώρας, τονίζοντας τη σημασία των εξοπλισμών, ενώ ως προς το μεταναστευτικό εξέφρασε την ανησυχία για...

ΕΛΛΑΔΑ

Τροχαίο δυστύχημα με θύμα έναν 78χρονο πεζό σημειώθηκε το μεσημέρι του Σαββάτου στη Χώρα του Δήμου Πύλου – Νέστορος, στη Μεσσηνία. Σύμφωνα με τις...

ΠΟΛΙΤΙΚΗ

Ο πρωθυπουργός Κυριάκος Μητσοτάκης αύριο, Δευτέρα 16 Μαρτίου, στις 18.30 θα μιλήσει σε εκδήλωση του Υπουργείου Ανάπτυξης με θέμα «Αναπτυξιακός Νόμος, Στρατηγικές Επενδύσεις: Συμβολή...

ΕΠΙΣΤΗΜΗ

Η αξιοποίηση της παραγωγικής τεχνητής νοημοσύνης για την πρόβλεψη φυσικών καταστροφών αποτελεί ένα από τα πιο φιλόδοξα πεδία εφαρμογής των νέων τεχνολογιών. Στο πλαίσιο...