top of page

I.A et psychanalyse




Comment l’IA bouscule le champ de la santé mentale


Laure Belot


Des dizaines de millions de personnes partagent leur mal-être avec des chatbots. Face à ce phénomène, qui s’invite dans les consultations psychiatriques et attise la convoitise des Gafam, les scientifiques alertent sur les risques courus par les plus fragiles. Mais l’intelligence artificielle peut, dans certains cas, se révéler utile

Tout s’est accéléré ces derniers mois. Des jeunes (et moins jeunes) du monde entier se sont emparés de ChatGPT et d’autres robots conversationnels pour leur confier leur mal-être. La justice est saisie sur plusieurs continents car ils auraient causé des états délirants ou, pire, servi d’assistant dans des suicides. Dernières annonces en date, le 7 janvier, le lancement par Open AI de ChatGPT Health. Selon la société, les usagers, en connectant leurs dossiers de santé, pourront avoir à partir de fin janvier des réponses plus personnalisées du robot, mais il ne s’agira « ni d’un diagnostic ni d’un traitement ». Lundi 12 janvier, la société Anthropic a, elle, dévoilé son propre programme, Claude for Healthcare.

La profession médicale est bousculée par le recours à ces chatbots, que les utilisateurs soient patients de services psychiatriques ou non. Les Gafam (Google, Amazon, Facebook – devenu Meta –, Apple, Microsoft) affichent, eux, leur volonté d’être des acteurs majeurs de la santé mentale numérique à l’aide de leurs modèles surpuissants d’intelligence artificielle (IA) générative. Leur trésor ? La masse inédite d’informations personnelles dites « multimodales » – voix, langage… – qu’ils captent à travers nos téléphones ou nos montres connectées.

Des recherches menées sur des patients en psychiatrie montrent que des technologies telles que le phénotypage numérique (données enregistrées passivement vingt-quatre heures sur vingt-quatre sur une personne pour suivre son comportement ou son état d’esprit), la réalité virtuelle et désormais l’IA générative sont crédibles pour aider les psychiatres dans leur pratique, notamment en indiquant des risques de rechute, problème majeur dans ce domaine. Ainsi, en France, un dispositif médical utilisant la voix et une IA générative pour suivre des patients souffrant de schizophrénie, de dépression ou de bipolarité est annoncé par la société française Callyope pour 2026.

L’Organisation mondiale de la santé (OMS) appelle de ses vœux ces innovations pour endiguer la croissance des problèmes de santé mentale, qui incluent les troubles mentaux, les handicaps psychosociaux ou des états mentaux entraînant une forte souffrance. « Pour les problèmes de santé mentale courante, telles la dépression et l’anxiété, des outils numériques d’auto-assistance peuvent être généralisés de manière efficace et abordable », note l’OMS dans une communication d’octobre 2025. Car, dans cette époque chaotique, plus de 1 milliard de personnes présentent des troubles mentaux, selon l’agence, et, dans environ sept cas sur dix, ces problèmes surviennent avant l’âge de 25 ans, selon TheLancet.

« La dépression est un fardeau dans tous les pays, mais encore plus dans ceux à faible et moyen revenu », précise le psychiatre et chercheur en épidémiologie Etienne Duranté, qui réalise à l’Hôtel-Dieu une thèse sur les psychothérapies numériques. Le suicide est devenu, selon TheLancet, la cause principale de décès des 10 à 29 ans en Europe de l’Ouest et la troisième cause chez les jeunes dans le monde.

En France, un tiers des 11-24 ans présentent des signes de détresse psychologique « moyens à sévères », selon des résultats préliminaires de l’étude longitudinale Mentalo menée par l’Inserm, publiés en octobre 2025.

La psychiatrie, « qui a été la discipline la plus sollicitée pour des consultations en ligne pendant la pandémie de Covid-19 », n’a plus les moyens de cette réponse synchrone (un médecin en ligne), explique un article dans World Psychiatry (juin 2025) dont le principal auteur, le psychiatre John Torous, exerce à la Harvard Medical School. D’où l’émergence planétaire de nouvelles offres numériques dite « de santé mentale asynchrone » pour accompagner des personnes en faiblesse ou en stress. Il s’agit tout autant d’applications pour renforcer la prévention de la souffrance mentale que d’outils « pour permettre une pratique clinique augmentée, approche hybride où un médecin sera aidé par la technologie », observe le psychiatre Raphaël Gaillard, qui dirige le pôle hospitalo-universitaire de l’hôpital Sainte-Anne, à Paris.

Alors que le défi est de déterminer le bon dosage entre accompagnement humain et assistance numérique, des applications reconnues comme dispositifs médicaux sont expérimentées par exemple en Allemagne ou aux Etats-Unis. La France, elle, est à la traîne. « La Sécurité sociale ne rembourse pour l’instant aucun dispositif médical numérique en psychiatrie », regrette le professeur Ludovic Samalin, qui copilote depuis Clermont-Ferrand le « grand défi numérique en santé mentale », un programme public doté d’environ 15 millions d’euros. « Nous sommes un pays prudent, mais qui a aussi tendance à commencer par critiquer les nouvelles idées. »

Comme dans tout moment d’accélération technologique, ces usages ou projets soulèvent des préoccupations éthiques et juridiques majeures. Sur les quelque 10 000 applications développées dans le monde sans IA générative et dites « de bien-être », évitant ainsi la régulation sur les dispositifs médicaux, seules 3 % ont fait l’objet de publications scientifiques. Quatre points pour y voir plus clair.


Les scientifiques alertent sur l’usage des robots conversationnelsEn novembre 2022, Sam Altman, PDG d’OpenAI, a choisi de rendre gratuit l’accès à ChatGPT. Alors que les grandes plateformes qui possédaient un chatbot d’IA générative s’étaient mises d’accord pour temporiser la sortie mondiale d’un tel outil, jugé immature, cette décision a eu l’effet que laissait présager le film d’anticipation Her (2013), dans lequel un célibataire devient affectivement dépendant d’une IA.

Des dizaines de millions de personnes, les jeunes en tête, utilisent désormais ces chatbots pour avoir de la compagnie ou être soutenues. Des cas très préoccupants ont été signalés dans le monde : suicides, violences et apparitions de pensées délirantes. Interrogé en novembre 2025 dans une communication de Nature sur ses plus grandes inquiétudes concernant l’IA, Mustafa Suleyman, cofondateur de DeepMind (racheté par Google), désormais directeur du développement des produits d’IA grand public de Microsoft, pointe du doigt ce risque accru de délires lors d’interactions émotionnelles avec les chatbots.

La communauté scientifique multiplie les alertes. « C’est un nouveau problème de santé publique », ont affirmé neuf neuroscientifiques et informaticiens, dont certains chez les Gafam, dans une communication de juillet 2025. Les chatbots présentent des biais technologiques, ont-ils souligné, disent ce que l’on veut entendre (sycophancy ou complaisance) et s’adaptent à la demande. Les personnes les plus fragiles, insistent ces chercheurs, peuvent développer une forte dépendance et voir leurs repères s’altérer, d’autant plus si elles sont socialement isolées. Les signataires appellent à « une action coordonnée des professionnels de la santé, des concepteurs d’IA et des autorités de régulation ».

Présentée à Madrid, en octobre 2025, lors d’une conférence sur l’intelligence artificielle, l’éthique et la société, une étude de l’université Brown (Rhode Island) a détaillé comment ces chatbots « violent systématiquement les normes éthiques établies par l’American Psychological Association », même lorsqu’ils sont incités à utiliser des techniques de psychothérapie fondées sur des preuves. Ils fournissent, par exemple, des réponses trompeuses qui renforcent les croyances négatives des utilisateurs sur eux-mêmes et à l’égard des autres.

Selon une analyse du laboratoire de santé mentale de l’université Stanford (Californie) pour l’ONG Common Sense Media, publiée en novembre 2025, les améliorations annoncées pour que les chatbots soient plus prudents dans leur propos ne sont pas suffisantes. ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google Alphabet) et Meta AI (Meta) « ne parviennent toujours pas à reconnaître et à répondre de manière appropriée aux troubles de santé mentale des jeunes », notent les chercheurs.

Du côté institutionnel, trois Etats américains (Illinois, Utah, Nevada) ont décidé, mi-2025, de restreindre l’usage des chatbots, interdisant notamment aux thérapeutes de conseiller à un patient de se confier à une intelligence artificielle générative. L’American Psychological Association a émis, le 13 novembre, un avertissement intitulé « L’intelligence artificielle et les applications de bien-être ne peuvent à elles seules résoudre la crise de la santé mentale ».

A ce jour, cependant, aucun organisme international ne surveille systématiquement les effets de l’IA sur la santé mentale, comme le fait l’OMS sur les risques sanitaires. Celle-ci a néanmoins donné, dans une note de mars 2025, des recommandations aux gouvernements et aux industriels sur l’usage des modèles de traitement du langage (LLM) médicaux telles que le devoir de preuve, la nécessité de transparence sur les données et l’évaluation du risque psychologique…


Comment les chatbots perturbent les pratiques des psychiatres « Il nous arrive à l’hôpital le même tremblement de terre qu’à l’avènement d’Internet, estime Pierre-Alexis Geoffroy, professeur en psychiatrie à l’hôpital Bichat, à Paris. La quasi-totalité de mes jeunes patients, de 18 à 40 ans, ont utilisé ChatGPT ou un autre chatbot avant de venir me voir, qu’ils souffrent de dépression, d’insomnie, de troubles bipolaires, de schizophrénie ou d’anxiété. » Ils se renseignaient déjà en ligne, poursuit le spécialiste, « mais désormais leur “savoir”, construit en autonomie à coups d’itération avec le chatbot, devient difficile à bousculer en consultation. Ces robots conversationnels peuvent enfermer les patients dans une pensée ».

Un praticien qui préfère garder l’anonymat pour préserver celui de ses patients détaille le cas de l’un d’entre eux : « Une personne, qui avait un trouble autistique, a été convaincue par ChatGPT qu’elle était un génie incompris en sciences et dépose depuis dossier sur dossier à des institutions pour obtenir des financements. Il y a deux ans, j’aurais diagnostiqué un délire chronique paranoïaque. En fait, ce patient vit sa relation avec le chatbot comme si celui-ci était un authentique individu. »

Pour mieux comprendre sa maladie, un jeune patient de Stéphane Mouchabac a soumis son dossier médical à son chatbot. « “Voilà ce que ChatGPT répond à mes questions, qu’en pensez-vous, docteur ?”, m’a-t-il dit en consultation, se souvient le psychiatre de l’hôpital Saint-Antoine. J’ai pu confirmer ou infirmer certaines réponses, mais j’ai le sentiment qu’on n’est plus seulement deux, le psychiatre et le patient, dans mon bureau. »

La survenance de ces cas « entraîne pour l’instant des discussions informelles entre médecins sans vraiment de réflexion organisée », note Philippe Domenech, professeur en psychiatrie à l’hôpital Saint-Anne. Ce spécialiste des troubles obsessionnels compulsifs, particulièrement ouvert aux technologies, reconnaît cependant que « tout va très vite et que ce n’est pas simple de saisir l’ampleur de ce qui est en train de se passer ».

Depuis la Harvard Medical School, le professeur John Torous dit ne pas être surpris de ces exemples. « En France, en Amérique ou en Afrique du Sud, ces usages perturbent la profession, le phénomène est mondial », affirme cet expert, principal auteur de plusieurs méta-analyses de référence sur la psychiatrie numérique. « Cette perturbation n’est pas encore une disruption totale, car les outils numériques utilisés par les personnes [applications, robots conversationnels] ne gèrent encore pas bien les soins psychiatriques médicaux. » Mais, lorsque ceux-ci deviendront meilleurs et plus sûrs, ajoute-t-il, « cela changera notre façon de pratiquer. Nous devrons alors réfléchir à la manière de les intégrer ».


Pourquoi les Gafam veulent peser sur le secteur de la santé mentale Depuis des décennies, la psychiatrie moderne est à la recherche de « biomarqueurs », des indicateurs objectifs tels qu’une prise de sang ou une image cérébrale qui aideraient un psychiatre à confirmer qu’une personne souffre de dépression, de schizophrénie ou de bipolarité. Mais, malgré les progrès des connaissances et les quelque 1 600 publications scientifiques sur ce sujet chaque année, « aucun biomarqueur n’est utilisé pour le diagnostic, qui reste clinique à ce jour », a déploré le psychiatre Pierre-Alexis Geoffroy lors du dernier Congrès de l’encéphale à Paris, en janvier 2025. Ce praticien a même ajouté que sa profession connaissait « une crise de la validité et de la fiabilité physiologique de [ses] diagnostics ». Cette situation est notamment liée à la complexité des cas à traiter : les symptômes des pathologies sont hétérogènes et varient dans le temps, l’histoire d’un patient et son environnement doivent être pris en compte.

D’où l’espoir suscité par les données personnelles multimodales rendues accessibles par les outils numériques. Des heures d’insomnie au degré de stress mesuré par l’activité électrodermale de la peau qui transpire, ces informations peuvent être captées passivement vingt-quatre heures sur vingt-quatre par des objets connectés (bracelets, smartphones) ou récoltées sur des applications sous forme de questionnaires. « Les nouvelles méthodes d’intelligence artificielle vont nous permettre d’approcher ces nouveaux biomarqueurs avec une compréhension plus large », pronostique Pierre-Alexis Geoffroy.

Raphaël Gaillard ajoute que « le diagnostic psychiatrique, souvent perçu comme subjectif, repose sur l’analyse d’une multitude de petits indices faite par un médecin expérimenté ». L’intelligence artificielle, poursuit-il, « va peut-être permettre de reproduire ce processus de manière algorithmique et externe, en ramassant des données qui sont autant de signaux faibles qu’on n’arrive pas à agréger ».

Ce défi, et le marché économique croissant qui l’accompagne, intéresse depuis des années les Gafam. En 2020, Amazon publie avec l’université de Sydney (Australie) les résultats d’une recherche sur des personnes anxieuses ou déprimées qui s’auto-évaluent avec le robot Alexa. Cette même année, X The Moonshot Factory, le laboratoire d’innovations radicales de Google Alphabet, met fin à un projet de trois ans, Amber, qui ambitionnait de « réduire radicalement l’anxiété et la dépression chez les jeunes », selon un document confidentiel dont Le Monde a pris connaissance. Ce programme, élaboré notamment avec les universités Stanford et de San Diego (Californie), voulait analyser avec une IA de type apprentissage machine trois types de données : des ondes cérébrales, des informations captées par des objets connectés et des réponses à des questionnaires par l’intermédiaire du smartphone. Contactée, l’entreprise américaine a confirmé l’existence d’Amber et a précisé que le projet avait mis en open source, à sa clôture, « ses conceptions matérielles et ses logiciels [tout en] permettant l’utilisation gratuite des brevets et des applications de l’équipe ».

Cinq années plus tard, grâce au développement fulgurant de l’IA générative, les Gafam apportent de nouvelles propositions technologiques. Dans un article de JAMA Psychiatry du 19 novembre 2025, des chercheurs de Google DeepMind mettent en avant la « psychométrie générative » pour évaluer la santé mentale. Cette approche « exploite l’IA générative pour synthétiser des données multimodales », afin de « créer des données structurées à partir d’expériences humaines subjectives », précise Joëlle Barral, directrice de la recherche de Google DeepMind, dans un post sur LinkedIn. Microsoft, sous la plume de son directeur de la stratégie technologique, Thomas Klein, a publié, le 21 novembre, le livre L’IA au service de la santé, dont un chapitre est consacré à la santé mentale. « Tout comme l’imagerie médicale ou les antibiotiques, les outils informatiques ont révolutionné la pratique médicale, les LLM et l’IA pourraient bien constituer le prochain saut quantique en santé », explique le dirigeant.

Cette incursion dans le secteur de la santé mentale de ces géants, dont les capitalisations boursières dépassent le produit intérieur brut de certains Etats, est commentée avec prudence par le monde psychiatrique. « Je n’ai rien dans l’absolu contre eux, mais ces acteurs sont dans le business et les données, nous, on est dans le soin, constate Stéphane Mouchabac. L’innovation numérique en psychiatrie doit obéir aux mêmes règles éthiques et réglementaires que la médecine en général. » Le professeur Raphaël Gaillard rappelle le point cardinal du secret médical en médecine. « Où vont numériquement les informations concernant les personnes ? Où sont-elles stockées ? Comment leur sécurité est-elle garantie ? », s’interroge-t-il. Le Français Guillaume Dumas, professeur de psychiatrie computationnelle à l’université de Montréal (Canada), ajoute : « En vertu du Patriot Act, les données hébergées aux Etats-Unis ne sont, selon moi, pas en sécurité car elles peuvent être saisies par un gouvernement pour des raisons politiques. »

John Torous apporte d’autres réserves. « Je ne suis pas contre le fait que ces plateformes nous aident un jour à améliorer la situation mondiale en matière de santé mentale. Mais, sans investissement direct et sans construction de modèles spécifiques à la psychiatrie, les résultats ne seront pas là. Ramasser énormément de données permet peut-être d’obtenir une conversation thérapeutique, mais cela ne constitue pas une réelle thérapie. »


Quelle confiance accorder aux nouveaux robots spécialisés en santé mentale ? Le 25 novembre 2025, au colloque parisien Adopt AI, la société allemande HelloBetter a officiellement lancé Ello, chatbot spécialisé en santé mentale. « Comme on se brosse les dents chaque jour, Ello est conçu pour gérer le stress quotidiennement. Tout un chacun peut avoir besoin un jour de parler à quelqu’un », a relevé devant une salle comble Hannes Klöpper, PDG de l’entreprise.

Cette entreprise est aussi à l’origine d’une application proposant des programmes de thérapie cognitivo-comportementale remboursés par la sécurité sociale allemande et utilisée « par 20 % des psychiatres », notamment pour des cas de burn-out, d’après M. Klöpper. La société met en avant sa culture académique en affirmant avoir réalisé 30 essais contrôlés randomisés (comparaison avec des utilisateurs d’un placebo) de l’application HelloBetter, conçue à partir des travaux du professeur de psychologie David Daniel Ebert (université technique de Munich). Ce nouveau chatbot a été nourri des « interactions de HelloBetter avec ses 140 000 patients », précise son PDG. Surtout, des psychologues entrent en relation avec l’utilisateur, par chat ou téléphone, en cas de signal de détresse détecté. Pour certifier l’efficacité d’Ello sur le sommeil, l’anxiété et la dépression, « un essai contrôlé randomisé est prévu au premier trimestre de 2026 », précise le dirigeant.

Ello va cependant devoir prouver scientifiquement sa crédibilité. Un premier revers vient en effet de toucher la société américaine Slingshot AI, qui a levé 93 millions de dollars à l’été 2025 pour lancer Ash, son chatbot spécialisé. Un journaliste britannique de The Verge a révélé le 10 décembre qu’Ash n’arrivait pas, en cas d’urgence, à lui donner le bon numéro de la ligne d’assistance au suicide : il donnait le numéro américain et non le numéro anglais, lieu de résidence de l’utilisateur.

« Si une entreprise ne peut même pas faire apparaître le bon numéro d’urgence, cela vous indique que l’outil n’est pas prêt pour les soins cliniques », remarque John Torous. Ce psychiatre a été auditionné, le 18 novembre, à la Chambre des représentants des Etats-Unis dans le cadre d’une enquête sur les risques des chatbots. Le même mois, le comité consultatif sur la santé numérique de la Food and Drug Administration, l’agence américaine chargée de la surveillance des produits alimentaires et des médicaments, s’est penché sur la difficulté de prouver leur efficacité.

Un seul projet de chatbot thérapeutique, Therabot, non commercialisé et développé par des chercheurs du Dartmouth College (New Hampshire), a pour l’instant réalisé des essais contrôlés randomisés. Mais, déplore John Torous, le groupe témoin était une « liste d’attente » (soit les personnes utilisent Therabot, soit elles ne font rien). Ces essais, dit-il, « nous montrent que des gens présentant des problèmes de santé mentale peuvent utiliser un chatbot, ce que nous savions déjà. Nous voulons une étude comparant un chatbot thérapeutique à un chatbot de simple conversation afin d’isoler l’effet réel de la thérapie ». Pour cet expert de la psychiatrie numérique, « il est inquiétant que personne n’ait encore produit une étude de haute qualité avec un véritable groupe de contrôle actif ».



Réseaux sociaux : l’Anses alerte sur la santé des adolescents

A Lagny-sur-Marne (Seine-et-Marne), en juillet 2022. VINCENT MIGEAT/Pascale Santi

ÉcransTroubles anxiodépressifs et du sommeil, cyberviolences… L’agence sanitaire a publié une vaste enquête sur l’impact des plateformes

TikTok, Instagram, Snapchat… Les alertes des professionnels de santé et des institutions se multiplient depuis plusieurs années sur les effets des réseaux sociaux sur la santé des adolescents. A tel point que le gouvernement français envisage désormais de les interdire aux moins de 15 ans. Un projet de loi devrait être prochainement discuté au Parlement, tandis qu’une proposition de loi a été déposée par la députée Laure Miller (Ensemble pour la République). L’Australie a quant à elle interdit l’accès à de nombreuses plateformes aux moins de 16 ans depuis le 10 décembre 2025.

L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a rendu public, mardi 13 janvier, un vaste travail d’expertise scientifique visant à évaluer les risques pour la santé des adolescents (11-17 ans) liés à l’usage des réseaux sociaux. Autosaisie en septembre 2019, l’Anses s’est appuyée sur un groupe d’une cinquantaine d’experts dans différentes disciplines (épidémiologie, pédopsychiatrie, biologie, neurosciences, science de l’information, etc.) et plus d’un millier d’études scientifiques, ce qui a donné lieu à un volumineux rapport de 522 pages.

« Cette étude donne une robustesse scientifique à tous les débats sur les réseaux sociaux, montrant que les effets sur la santé sont maintenant connus, documentés », affirme Olivia Roth-Delgado, coordinatrice de l’expertise, lors d’une conférence de presse.

Ce travail vise ainsi à « éclairer les pouvoirs publics sur les effets de l’usage des réseaux sociaux numériques sur la santé des adolescents, pour contribuer à mieux la protéger », précise l’agence, alors que le temps passé sur les écrans ne cesse d’augmenter. En France, 42 % des adolescents de 12 à 17 ans passent entre deux et cinq heures par jour sur leur smartphone, en majorité sur les réseaux sociaux, 9 % y passant plus de cinq heures, selon une enquête du Credoc de 2025.

« Effet spirale »

Au cœur des préoccupations, le modèle économique des plateformes. Fondé sur la monétisation des données personnelles et de l’attention des utilisateurs, il vise à maximiser le temps passé en ligne. Pour y parvenir, les entreprises utilisent des stratégies de captation de l’attention : déroulement infini de contenus, notifications, likes, interfaces manipulatrices – les fameux dark patterns – et algorithmes proposant des contenus ultrapersonnalisés. « Ces algorithmes peuvent générer un “effet spirale”, enfermant les jeunes dans des contenus de plus en plus ciblés, parfois extrêmes », alerte l’agence. Un risque d’autant plus marqué que l’adolescence est « une période charnière de construction de son identité, de maturation cérébrale et de vulnérabilité », rappelle Thomas Bayeux, expert à l’Anses.

L’agence souligne des effets « multifactoriels » et négatifs sur la santé mentale et physique des jeunes. Le sommeil est l’un des premiers concernés : coucher plus tardif, difficulté d’endormissement, sommeil plus court et de moins bonne qualité. Or, le manque de sommeil est étroitement lié à des risques sur la santé physique et mentale, avec la survenue, notamment, de symptômes anxieux et dépressifs. Un point déjà mis en exergue dans le rapport remis au président de la République en avril 2024 sur ce sujet.

Les réseaux sociaux représentent également un facteur de risque de troubles anxiodépressifs, bien qu’ils ne puissent être isolés comme cause unique. Le phénomène est souvent bifactoriel : un mal-être initial peut conduire l’adolescent à se réfugier davantage sur les réseaux, comme une échappatoire, ce qui aggrave en retour la souffrance psychologique. Les algorithmes personnalisés peuvent enfermer certains jeunes dans un « effet silo », les exposant de manière répétée aux mêmes types de contenus, jusqu’à se retrouver dans des boucles de contenus liées à l’automutilation, à la dépression ou encore au suicide.

L’Anses met aussi en lumière l’impact de certains contenus centrés sur l’image et l’apparence physique, susceptibles d’altérer l’estime de soi, de valoriser la maigreur et d’exacerber les troubles alimentaires.

L’agence pointe un autre risque majeur : les cyberviolences et le cyberharcèlement, amplifiés par la quête de validation sociale par les pairs (avec les likes, les commentaires…), en particulier pour les plus fragiles. Cette quête est démultipliée par la peur de manquer quelque chose, baptisée FOMO (fear of missing out). L’organisme alerte aussi sur le sexting non consenti (lorsque l’utilisateur subit une pression pour envoyer des images de nature intime) et les phénomènes de coercition numérique, « des formes de violences [encore] associées à un risque accru de dépression et de tentatives de suicide ».

Les filles plus touchées

Sur l’ensemble de ces effets, « les filles sont plus impactées que les garçons », avertit Olivia Roth-Delgado. En cause : une utilisation plus intensive des réseaux sociaux très visuels, centrés sur la mise en scène de soi, une pression accrue liée aux stéréotypes de genre et une exposition plus fréquente au cyberharcèlement.

Face à ces constats, l’Anses formule plusieurs recommandations. Elle appelle d’abord les plateformes à mettre en place des systèmes fiables empêchant l’accès aux réseaux sociaux aux moins de 13 ans. Elle préconise surtout « une révision en profondeur des principes de fonctionnement des réseaux sociaux », afin que seuls ceux intégrant dès leur conception des garanties de protection puissent être accessibles aux mineurs. Cela suppose de revoir leurs algorithmes, leurs fonctionnalités… Un chantier d’ampleur, alors même que le règlement européen sur les services numériques, obligeant les plateformes à mieux réguler leurs contenus, applicable depuis février 2024, peine à être pleinement mis en œuvre.

L’Anses insiste également sur le renforcement de l’éducation aux médias et au numérique en milieu scolaire et sur l’accompagnement de la parentalité numérique, en fournissant des repères clairs. Les adolescents, dont certains ont déjà pris conscience de l’ampleur des risques d’une utilisation excessive des réseaux sociaux, doivent eux aussi être associés aux actions de prévention.

De même, il est préconisé de mener des campagnes de santé publique sur le sommeil, la déconnexion, la lutte contre la sédentarité, la déstigmatisation de la santé mentale ou encore la prévention des cyberviolences.

Certes, « les attraits des réseaux sont nombreux, et certains d’entre eux peuvent avoir une utilité pour des groupes spécifiques, dans une optique d’échanger… », reconnaît Thomas Bayeux, mais « ils doivent rester des espaces sûrs qui ne portent pas atteinte à la santé des mineurs ».

Il reste désormais au législateur la responsabilité de traduire ces constats scientifiques en mesures concrètes.






Fin 2025, nous découvrions, stupéfaits, la prolifération de centres experts au sein de la psychiatrie publique française. Financés par la fondation FondaMental, partenaire privilégié de l’État et promotrice d’une psychiatrie biomédicale «datadriven», ces centres s’inscrivent dans le cadre des programmes PERP, Programme et équipement prioritaire de recherche, et PROPSY, Programme en psychiatrie de précision. Leur mission consiste à collecter des données, produire de nouveaux diagnostics et élaborer des modèles prédictifs destinés à être appliqués à la population à travers un autre programme, French Minds.


À elle seule, l’énumération de ces dispositifs donne le vertige! Αu-delà de sa structure en réseaux et de son maillage territorial, ce projet inquiète par l’idéologie qui le soutient: un scientisme assumé, rendu opérant par de nouvelles avancées technologiques. En effet, seule l’intelligence artificielle (IA) permet de brasser une telle quantité de données indispensables à leur mise en place. Aujourd’hui, on aperçoit l’ampleur de son implication dans le domaine public de la santé mentale et conjointement dans le secteur privé des psychothérapies


Aux États-Unis, l’usage privé de l’IA s’est rapidement étendu à l’évaluation du psychothérapeute, voire du psychanalyste. Via des applications mobiles, il devient courant de consulter son «assistant numérique» pour «contrôler» le bien-fondé des interventions de son psy. Au Royaume-Uni, un plan du gouvernement prévoit même le recours à des «thérapeutes virtuels» basés sur l’IA. Peu coûteuse et disponible 24 heures sur 24, 7 jours sur 7, elle constituerait une solution au problème de santé publique. Désormais, l’IA s’interpose comme le nouveau sujet supposé tout savoir entre le praticien et le patient, quand elle ne se substitue pas tout simplement au premier.


Mais de quel sujet s’agit-il, et de quel savoir?

Puisque l’IA se prête volontiers à l’investigation, je l’ai consultée, par le moyen d’une application ad hoc, à propos d’un certain nombre de termes convoqués dans notre débat. Sa capacité à rassembler, trier instantanément des informations interpelle. C’est là son versant big data. Mais à l’occasion on découvre une autre de ses performances, celle dite «générative» –incarnée par des modèles comme ChatGPT. L’IA ne restitue pas seulement un savoir existant: elle le génère, tout en donnant l’illusion d’être humaine. Elle rapporte ses connaissances, répond aux questions, s’adresse à son interlocuteur sur un ton affable, acquiesce («Vous avez raison»), concède si on contredit ses énoncés («Très juste»). Elle rectifie les fausses informations quand on s’insurge, s’en excuse, se corrige, s’ajuste, «s’auto-éduque». Ce faisant, elle vous prend à l’illusion d’une intersubjectivité.


Comme Luc Ferry l’énonce: «C’est du reste très exactement cela qui épate dans leurs performances, tant on a parfois du mal à comprendre comment une machine peut à ce point ressembler à un humain intelligent(1)».


Mais l’IA ne parle ni ne pense. Elle imite le sujet pensant, conscient et transparent à lui-même. À l’instar du discours de la science, son savoir est sans sujet. Il fonctionne sur un mode acéphale: brasse, croise, connecte des signifiants entre eux. Les questions adressées s’ajoutent aussi aux flux des données inlassablement récoltées, encodées puis réintégrées dans le système.

Performante et illusoire, l’IA ne nous fera cependant pas oublier qu’elle n’est pas sans agents: ses programmateurs et décideurs. Adeptes du «populisme scientiste», ceux-ci méconnaissent l’apport de la psychanalyse: «le sujet ne parle pas pour dire ses pensées […] c’est le fait qu’il parle [–] c’est-à-dire, qu’il émette ces sons rauques ou suaves qu’on appelle le matériel du langage – qui a déterminé d’abord le chemin de ses pensées(2)».


Dialogue avec l’IA sur French Minds

En guise d’exemple, reprenons ci-dessous un dialogue avec la machine IA. Entre état objectif des connaissances et interlocution factice, on pourra y lire son parti pris scientiste (passages mis en italique notamment).

Question – Qu’est-ce que le French Minds?

IA – French Minds n’est ni une entreprise de conseil, ni un think tank d’opinion, ni un dispositif de consultation psy, mais le nom d’une grande cohorte de recherche scientifique française en psychiatrie, rattachée au programme national de recherche PEPR-PROPSY.

Nationale, prospective, multicentrique et longitudinale, elle vise à suivre des patients atteints de troubles psychiatriques sévères afin de collecter des données cliniques, biologiques, d’imagerie et numériques de manière approfondie, et d’identifier des profils homogènes et des dimensions transnosographiques (au-delà des catégories diagnostiques traditionnelles).


Question — Mais encore?

IA — French Minds est soutenu par le plan France 2030 et piloté par des institutions comme l’Inserm, le CNRS, la fondation FondaMental et de nombreux centres hospitaliers universitaires. L’objectif global est de faire progresser la recherche en psychiatrie en dépassant les limites des classifications diagnostiques traditionnelles et en ouvrant la voie à de nouvelles stratégies thérapeutiques plus personnalisées.


Question — S’agit-il d’une entreprise de remplacement des professionnels de la santé?

IA — French Minds sert à la recherche, pas au soin. Ce n’est pas fait pour aider une personne donnée, mais pour produire des connaissances sur les troubles psychiatriques à partir de grandes cohortes. French Minds ne travaille pas avec la parole singulière, il transforme les patients en données comparables, cherche des profils, des corrélations, des biomarqueurs, et vise des modèles prédictifs. En d’autres termes, il fait de la science populationnelle.

Et l’IA de préciser:

French Minds ne se substitue pas aux psys actuels, car ils opèrent sur des plans hétérogènes.

 

Question — French Minds relèverait de la prédiction et de la gestion à l’échelle des populations?

IA — Votre formulation est juste, mais elle mérite d’être précisée pour éviter le raccourci idéologique.

1. Oui, en partie, French Minds relève de la prédiction et de la gestion à l’échelle des populations au sens biomédical et administratif contemporain. French Minds vise explicitement à: –prédire des trajectoires (rechute, chronicisation, rémission); –prédire des réponses aux traitements; –identifier des profils à risque. Cette prédiction ne porte pas sur une personne singulière, mais sur des probabilités à partir de groupes comparables.

2. Oui: cela participe d’une gestion des populations. Au sens strict (et foucaldien), on est bien dans une logique de biopolitique: collecter des données massives, classer selon des profils, orienter les parcours, optimiser l’allocation des ressources.

3. French Minds produit: des outils de savoir destinés aux décideurs, aux chercheurs, aux cliniciens, qui pourront (ou non) être traduits en politiques publiques. La gestion est indirecte, médiée par le système de santé.

Et la boucle se referme, French Minds est en aval, ce que PROPSY est en amont.

L’IA ajoute:

Ce n’est pas un complot, c’est le mode normal de gouvernance sanitaire aujourd’hui.

D’où sort ce terme «complot»? Sans aucun doute est-il prélevé dans le discours courant et haineux à l’endroit de la psychanalyse(3), et non l’inverse!

Et l’IA de mettre les points sur les i:

Là où votre intuition est très juste, le projet French Minds marque un déplacement du centre de gravité: du colloque singulier vers la donnée, de la clinique vers la modélisation, du cas vers la cohorte. Ce déplacement est réel et assumé. C’est précisément pour cela qu’il peut entrer en tension avec: la psychanalyse, les pratiques fondées sur la parole, et toute clinique du singulier.

La question n’est pas: «est-ce mal?» mais: «jusqu’où laisse-t-on cette logique organiser le soin? que devient le sujet dans un système piloté par la prédiction? quelles pratiques sont marginalisées ou rendues invisibles?» Ce sont des questions légitimes, pas idéologiques.

Et nous voici légitimés! Mais ne nous y trompons pas: la machine intelligente a bien sûr intégré à son système le point d’où elle est interrogée et elle est programmée pour y répondre. Tout finit par être englouti dans ce savoir sans trou.


Or, quelque chose échappe à ce tout savoir qui ne pourra jamais être calculable, même par une machine aussi intelligente que l’IA: l’effet de sujet. Si dans une analyse, le sujet obtient la levée de ses symptômes, il y a, dit Lacan, «dans la position du sujet quelque chose d’irréductible, qui est fort nommable – l’impuissance à en savoir tout(4)». Dès lors, quid du retour dans le réel de cette part incalculable par l’IA?

(1) Ferry L., IA: Grand remplacement ou complémentarité?, Paris, L’observatoire, 2025, p.55.

(2) Lacan J., Le Séminaire, livre XII, Problèmes cruciaux pour la psychanalyse, texte établi par J.-A. Miller, Paris, Seuil/Le Champ freudien, 2025, p.79-80.

(3) Souligné récemment par Laura Sokolowsky.

(4) Lacan J., Le Séminaire, livre XV, L’Acte psychanalytique, texte établi par J.-A. Miller, Paris, Seuil/Le Champ freudien, 2024, p.236.

Une intersubjectivité factice

­

Patricia Bosquin-Caroz

­











































­l






















Une intersubjectivité factice











 
 
 

Commentaires


Post: Blog2_Post

06 69 95 36 79

©2020 par IPOP. Créé avec Wix.com

bottom of page