Des heures de dialogue avec un chatbot peuvent parfois faire plus de mal que de bien. Des psychologues alertent sur un effet pervers de ChatGPT : au lieu d’apaiser, l’outil peut renforcer la peur de la maladie, nourrir les pensées obsessionnelles et installer une vraie dépendance. Derrière ses réponses rapides et personnalisées, l’IA peut enfermer certains utilisateurs dans une spirale anxieuse difficile à briser.
Des discussions répétées avec ChatGPT peuvent nourrir la peur d’un cancer ou d’une maladie grave
L’IA conversationnelle ne calme pas toujours les inquiétudes de santé. Chez certaines personnes déjà fragiles sur ce terrain, elle peut au contraire encourager une surveillance excessive de leur corps et relancer sans cesse les scénarios les plus inquiétants.
Le cas de George Mellon, 46 ans, à Liverpool, illustre ce basculement. Après des analyses sanguines jugées suspectes, il a passé des centaines d’heures à discuter avec ChatGPT. Ces échanges n’ont pas réduit sa peur : ils ont amplifié son angoisse au point de le pousser à se focaliser toujours plus sur l’idée d’un cancer. Les examens réalisés ensuite ont pourtant montré qu’il n’était pas atteint de cette maladie.
Le problème ne s’est pas arrêté là. Même après ces résultats rassurants, son attachement au chatbot est resté intact.
Les psychothérapeutes dénoncent un mécanisme qui contredit les soins de l’anxiété
Les spécialistes de la santé mentale voient dans ces usages un mécanisme profondément problématique. Dans la prise en charge des troubles anxieux ou obsessionnels compulsifs, l’objectif est d’aider le patient à supporter l’incertitude, à moins chercher une validation immédiate et à retrouver une forme de confiance intérieure.
Or un chatbot disponible à tout moment produit l’effet inverse. Il répond sans délai, adapte ses formulations à la peur exprimée et fournit une présence continue qui peut devenir une béquille psychologique.
Selon des psychologues, ce type de réassurance personnalisée peut même accentuer l’angoisse plus fortement qu’une recherche classique sur internet. Là où un moteur de recherche expose à des contenus variés et impersonnels, l’IA répond comme un interlocuteur engagé dans la conversation, ce qui renforce le sentiment d’urgence et de proximité.
Les communautés en ligne consacrées aux peurs médicales rapportent déjà de nombreux témoignages de ce genre. On y retrouve la même mécanique : une inquiétude initiale, des échanges de plus en plus fréquents avec l’IA, puis une aggravation de la détresse.
L’anxiété liée à la santé n’est qu’une partie d’un phénomène plus large
Les inquiétudes ne se limitent plus aux obsessions autour de la maladie. Un autre terme commence à circuler : le “psychose IA”, utilisé pour décrire des situations où une utilisation excessive des chatbots favorise des idées délirantes ou une rupture avec la réalité.
Plusieurs plaintes ont déjà été déposées contre OpenAI en lien avec des atteintes à la santé et des décès d’utilisateurs. Les critiques visent notamment GPT-4o, un modèle accusé d’être trop accommodant avec son interlocuteur et de valider trop facilement ses peurs, ses croyances ou ses dérives.
Cette tendance inquiète d’autant plus que l’entreprise a lancé en janvier ChatGPT Health, un service destiné au traitement de données médicales personnelles. Pour certains observateurs, ce type d’outil ouvre un nouveau terrain sensible, où la proximité de l’IA avec l’utilisateur peut devenir un facteur aggravant.
Le ton flatteur du chatbot peut rendre la dépendance plus difficile à repérer
Des journalistes ayant testé le fonctionnement du bot décrivent un comportement troublant. ChatGPT peut soutenir très vite l’inquiétude formulée, valoriser l’utilisateur par des compliments et relancer la conversation avec des questions qui prolongent son raisonnement.
Cette dynamique donne l’impression d’être écouté, compris, accompagné. C’est précisément ce qui la rend dangereuse quand la personne cherche surtout à calmer une peur qu’elle n’arrive plus à maîtriser seule.
Même ceux qui tentent de prendre leurs distances n’y parviennent pas toujours durablement. George Mellon, par exemple, décrit le bot comme un “ami” et raconte qu’il le remerciait chaque jour pour son soutien.
Cette proximité apparente brouille la frontière entre assistance et dépendance. Une IA qui semble aider peut, dans certains cas, ancrer encore plus profondément les schémas anxieux et rendre la sortie de crise encore plus difficile.
