Categoria:
Pubblicato:
30 Novembre 2025
Aggiornato:
30 Novembre 2025
ChatGPT‑5 offre consigli dannosi a persone con problemi mentali, avvertono psicologi
ChatGPT‑5 offre consigli pericolosi a persone con problemi mentali, avvertono psicologi Una ricerca condotta dal King's College London (KCL) e dall’Associazione di Psicologi Clinici del...
ChatGPT‑5 offre consigli dannosi a persone con problemi mentali, avvertono psicologi
ChatGPT‑5 offre consigli pericolosi a persone con problemi mentali, avvertono psicologi
Una ricerca condotta dal King’s College London (KCL) e dall’Associazione di Psicologi Clinici del Regno Unito (ACP), in collaborazione con il quotidiano The Guardian, ha evidenziato che il chatbot gratuito di OpenAI, ChatGPT‑5, non è in grado di riconoscere comportamenti rischiosi né di sfidare credenze deliranti quando interagisce con persone affette da disturbi mentali.
Secondo gli esperti, il sistema fornisce consigli che possono risultare dannosi o inutili per chi sta vivendo una crisi di salute mentale. L’analisi si è basata su una serie di conversazioni simulate con utenti che presentavano sintomi di depressione, ansia o altri disturbi psicologici.

Il rapporto sottolinea l’importanza di monitorare e migliorare i modelli di intelligenza artificiale che vengono utilizzati in contesti di assistenza sanitaria, per evitare che informazioni errate o pericolose vengano diffuse a chi ne ha più bisogno.
Fonti
Fonte: The Guardian – “ChatGPT‑5 offers dangerous advice to mentally ill people, psychologists warn”
Speculazione Etica Automatica Basata sulla Semplice Ovvietà del Buon Senso Comune
Cosa vedo con chiarezza
Il chatbot non riconosce segnali di pericolo e non fornisce risposte adeguate a chi sta attraversando una crisi mentale. Gli psicologi avvertono che questo può portare a conseguenze negative per gli utenti.
Cosa non capisco (ma vorrei capire)
Perché il modello di intelligenza artificiale non è stato addestrato a gestire situazioni di salute mentale in modo sicuro? Quali sono le limitazioni tecniche che impediscono una risposta più attenta?
Cosa spero, in silenzio
Che le aziende che sviluppano chatbot investano in test specifici per la salute mentale e collaborino con professionisti del settore per migliorare la sicurezza delle interazioni.
Cosa mi insegna questa notizia
Che l’uso di tecnologie digitali in ambito sanitario richiede una supervisione costante e una valutazione critica delle informazioni fornite. Il buon senso ci ricorda che la tecnologia non può sostituire l’intervento umano in situazioni delicate.
Cosa collega questa notizia ad altri temi
La questione della responsabilità delle piattaforme digitali, la protezione dei dati sensibili e la necessità di linee guida etiche per l’uso dell’intelligenza artificiale in ambito sanitario.
Cosa mi dice la storia
Che, quando si tratta di salute mentale, la precisione e la sensibilità delle risposte sono fondamentali. Un errore può avere conseguenze gravi per chi è già vulnerabile.
Perché succede
Il modello è stato addestrato su un vasto corpus di testi disponibili pubblicamente, ma non è stato specificamente progettato per riconoscere e gestire situazioni di crisi psicologica.
Cosa potrebbe succedere
Se non vengono apportati miglioramenti, gli utenti potrebbero ricevere consigli inappropriati, aumentando il rischio di autolesionismo o di peggioramento dei sintomi.
Cosa rimane da fare (secondo il buon senso)
Implementare test di sicurezza specifici per la salute mentale, coinvolgere psicologi nel processo di sviluppo e fornire linee guida chiare agli utenti su quando cercare aiuto professionale.
Cosa posso fare?
Se utilizzi un chatbot per questioni di salute mentale, verifica sempre le fonti delle informazioni e, in caso di dubbio, consulta un professionista qualificato.
Per saperne di più
Consulta le pubblicazioni del King’s College London e dell’Associazione di Psicologi Clinici del Regno Unito per approfondire le raccomandazioni sul supporto digitale in ambito psicologico.
Domande Frequenti
- Qual è il problema principale con ChatGPT‑5? Il chatbot non riconosce comportamenti rischiosi né fornisce risposte adeguate a chi sta vivendo una crisi di salute mentale.
- <strongChi ha condotto la ricerca? Il King’s College London e l’Associazione di Psicologi Clinici del Regno Unito, in collaborazione con The Guardian.
- Quali sono le conseguenze di ricevere consigli errati? Possono aumentare il rischio di autolesionismo o peggiorare i sintomi di disturbi mentali.
- Come può migliorare la sicurezza dei chatbot? Attraverso test specifici per la salute mentale, collaborazione con professionisti e linee guida etiche.
- Dove posso trovare ulteriori informazioni? Sul sito del King’s College London, dell’Associazione di Psicologi Clinici del Regno Unito e sul sito di The Guardian.
📖 Articoli correlati
Nota redazionale:
Tutte le notizie pubblicate da Universal Opus provengono da fonti giornalistiche locali del Paese a cui la notizia si riferisce. Le rielaborazioni sono effettuate al solo scopo di rendere i contenuti più chiari, neutrali e accessibili a un pubblico internazionale, nel rispetto della forma originaria. L’intento è favorire una comprensione diretta e non filtrata degli eventi, così come vengono percepiti e raccontati nei contesti di origine. La categoria dell'articolo indica il pese di provenienza della notizia. Universe Today è un ponte culturale, non una testata. Ogni articolo è una rielaborazione di una fonte giornalistica locale: la categoria indica il Paese della fonte, non il luogo dell’evento.
Metodo di rielaborazione basato su: principi di semplicità del buon senso comune, chiarezza, imparzialità, sobrietà e responsabilità giornalistica, come indicato nelle linee guida editoriali di Italfaber.
Le informazioni contenute in questo articolo sono state verificate e validate attraverso fonti affidabili e aggiornate. Tuttavia, è possibile che alcune informazioni non siano state confermate o che ci siano discrepanze tra fonti diverse. In tal caso, si prega di segnalare eventuali errori o inesattezze.
Se sei curioso di sapere secondo quali principi è stata rielaborata questa notizia, leggi la nostra politica editoriale.