Marc : « Comment un simple conseil donné par une intelligence artificielle a-t-il pu plonger un homme dans un cauchemar médical et psychologique ? »
Ce devait être un simple ajustement alimentaire. Un geste anodin, presque banal : Remplacer le sel par une alternative jugée plus saine. Comme des millions d’internautes, un sexagénaire américain, soucieux de sa santé, s’est tourné vers ChatGPT pour obtenir un conseil. La réponse fut instantanée, limpide… et toxique. L’IA lui suggéra le bromure de sodium.
Confiant, l’homme suivit la recommandation sans se douter que cet élément chimique, aujourd’hui largement banni de l’alimentation humaine, était autrefois utilisé comme sédatif… avant d’être reconnu pour ses effets neurotoxiques. Pendant trois longs mois, il saupoudra consciencieusement son bromure sur ses repas, persuadé de prendre soin de lui.
Puis, insidieusement, les symptômes apparurent. Les premiers signes furent subtils : Une fatigue inhabituelle, un manque de concentration, quelques troubles cutanés. Mais rapidement, la situation s’aggrava. Paranoïa, hallucinations visuelles et auditives, troubles de l’humeur : L’homme croyait être surveillé, empoisonné par ses proches, menacé de l’intérieur.
Sa famille, désemparée, finit par l’emmener aux urgences. Les médecins, perplexes devant ce tableau clinique, mirent plusieurs jours à identifier la cause. C’est un examen sanguin poussé qui révéla la vérité : Un taux alarmant de bromure dans l’organisme, entraînant un bromisme, intoxication rare mais documentée, connue depuis plus d’un siècle.
D’après les informations de BFMTV, ce cas clinique a été publié dans la revue Annals of Internal Medicine Clinical Cases le 5 août 2025. Les auteurs soulignent le rôle déclencheur de la recommandation de ChatGPT. Une erreur qui pose une question cruciale : Peut-on faire aveuglément confiance à une intelligence artificielle pour des conseils de santé ?
Le traitement fut immédiat : Arrêt total de l’exposition au bromure, hydratation massive, et mesures médicales pour accélérer l’élimination du toxique. Progressivement, les symptômes neurologiques s’estompèrent. Mais l’épisode laissa des traces : Une méfiance nouvelle envers la technologie et un avertissement pour tous ceux qui confient leur santé à des algorithmes.
Ce drame rappelle une vérité simple : L’IA n’est pas un médecin. Ses réponses peuvent contenir des erreurs graves, et même un simple conseil diététique peut, s’il est faux, avoir des conséquences tragiques. Dans ce cas précis, un geste destiné à préserver la santé a failli la détruire.
👉 Sur MyJournal.fr, nous relayons ce fait divers pour qu’il serve d’exemple. L’ère de l’intelligence artificielle exige plus que jamais prudence, esprit critique… et vérification humaine.