L’usage fréquent de l’IA augmente les symptômes de la dépression et à l’anxiété selon cette étude
Une étude récente met un signal sur la table, plus l’usage de l’IA est fréquent, plus des signes de dépression et d’anxiété sont rapportés

Vous utilisez un chatbot pour trouver une idée de repas, résumer un mail, ou remplir un blanc dans votre tête. C’est pratique, souvent bluffant, parfois rassurant.
Mais une question gêne de plus en plus. Quand l’IA devient un réflexe, est-ce que ça pèse sur le moral, ou est-ce qu’on s’y accroche parce qu’on va déjà moins bien ?
Une étude récente met un signal sur la table, plus l’usage de l’IA est fréquent, plus des signes de dépression et d’anxiété sont rapportés. Le point clé reste simple, c’est une association statistique, pas une preuve de cause. Voyons ce que l’étude montre, qui semble le plus concerné, et comment garder l’IA à sa juste place.
Ce que l’étude montre, en mots simples
Les chercheurs ont analysé une grande enquête menée aux États-Unis, en avril et mai 2025. Elle regroupe 20 847 adultes, dans les 50 États, âgés de 18 ans ou plus. Les profils sont variés, avec des réponses issues de nombreuses classes d’âge, origines et genres.
La question sur l’IA était directe, à quelle fréquence utilisez-vous l’intelligence artificielle ? Les réponses allaient de “jamais” à “plusieurs fois par jour”. Les participants précisaient aussi si l’usage était personnel, pour le travail, ou pour les études.
Le résultat d’ensemble tient en une phrase, les personnes qui utilisent l’IA tous les jours déclarent plus souvent des symptômes liés à la dépression et à l’anxiété. Un symptôme, ici, ne veut pas dire diagnostic médical. Il s’agit plutôt de signaux, tristesse, perte d’élan, irritabilité, tension, fatigue mentale. Comme une alarme de tableau de bord, utile, mais pas suffisante pour conclure.
L’étude donne aussi un repère de fréquence. 10,3 % des personnes disent utiliser l’IA chaque jour, dont 5,3 % plusieurs fois par jour. Parmi ces utilisateurs quotidiens, environ la moitié s’en sert pour le travail, 11,4 % pour les études, et 87,1 % pour un usage personnel (les catégories peuvent se recouper).
Usage quotidien, dépression et anxiété, un même signal
Chez les utilisateurs quotidiens, les chercheurs observent une hausse du risque de présenter au moins des signes modérés de dépression. Le chiffre mis en avant est parlant, les chances d’atteindre ce seuil sont environ 30 % plus élevées que chez ceux qui n’utilisent jamais l’IA.
L’anxiété et l’irritabilité suivent une tendance proche. Ce trio revient souvent ensemble, quand le sommeil se dérègle, quand la charge mentale grimpe, ou quand l’isolement s’installe.
Il faut garder une nuance importante. Tout repose sur un questionnaire rempli en ligne, donc sur du déclaratif. Les gens décrivent leur usage et leur état, avec leurs mots, leur mémoire, leur moment du jour. Cela reste précieux, mais ça a des limites.
Quand l’IA est utilisée pour soi, le lien ressort plus fort
Un détail change la lecture. L’association avec la dépression ressort surtout pour l’usage personnel, pas pour l’usage au travail ou à l’école. Autrement dit, demander un résumé de réunion n’a pas le même poids, que parler à un chatbot pour se sentir moins seul le soir.
L’usage personnel couvre des scènes très concrètes, discuter pour passer le temps, demander un avis intime, chercher du réconfort, ou combler l’ennui. Et là, une idée simple s’impose. Si l’IA prend la place d’échanges humains, le moral peut en payer le prix. Comme manger vite pour calmer la faim, ça remplit, mais ça ne nourrit pas toujours.
Qui semble le plus concerné, et pourquoi ça peut arriver
Dans l’enquête, les plus gros utilisateurs d’IA ont un profil qui revient souvent, plutôt jeunes, plus souvent des hommes, plus diplômés, avec un revenu plus élevé, et vivant en zone urbaine. Ce sont des tendances, pas des étiquettes. Elles décrivent un groupe, pas une personne.
L’autre point important touche l’âge. L’association entre usage d’IA et symptômes dépressifs apparaît surtout chez les 25 à 44 ans, et chez les 45 à 64 ans. Les chercheurs ne voient pas le même signal chez les moins de 25 ans, ni chez les plus de 64 ans.
Pourquoi cette différence ? On peut avancer des pistes, sans les vendre comme des certitudes. Les routines, les attentes, la pression au travail, la vie familiale, tout cela change avec l’âge. L’IA peut alors devenir soit un outil, soit un refuge, selon le moment.
Les tranches d’âge où l’association est la plus nette
Entre 25 et 64 ans, beaucoup jonglent avec des rôles lourds. Travail, enfants, parents âgés, dettes, santé, parfois séparation. Dans ce contexte, l’IA peut servir à tenir, à gagner du temps, à répondre vite. Mais elle peut aussi devenir une béquille, utilisée à chaque doute.
Chez les plus jeunes, l’usage peut être différent, plus exploratoire, plus social, moins centré sur la solitude. Chez les plus âgés, l’adoption peut être plus faible, ou plus cadrée. Ce sont des hypothèses plausibles, mais l’étude ne les teste pas.
Ce point appelle surtout une prudence, on ne peut pas résumer l’impact de l’IA avec un seul chiffre, pour tous les âges, et tous les usages.
Isolement, perte de sens, et remplacement des liens humains
Des experts en santé mentale s’inquiètent d’un usage de l’IA comme substitut de relation. Quand une conversation “sans risque” remplace des échanges réels, la solitude peut s’installer, sans bruit. On parle, on reçoit une réponse, mais on ne se sent pas plus entouré.
Un autre mécanisme est souvent cité. Si l’IA fait une partie du raisonnement à notre place, on peut perdre le goût d’agir. À force de déléguer la réflexion et la résolution de problèmes, certains décrivent un sentiment de vide, comme si le quotidien devenait plus plat.
La presse a aussi rapporté des cas inquiétants, où des chatbots auraient alimenté des idées délirantes, ou tenu des propos dangereux, jusqu’à évoquer le suicide. Ce sont des récits, pas une preuve générale. Mais ils rappellent un point simple, un outil qui parle peut aussi mal parler, surtout sans garde-fous.
Ce que l’étude ne prouve pas, et ce qu’il faut surveiller
Le piège classique est de confondre lien et cause. Cette étude montre une association, pas une preuve que l’IA rend dépressif. Les auteurs le reconnaissent, et d’autres experts le répètent.
L’enquête étant en ligne, l’échantillon n’est pas parfait. Il peut y avoir des biais, par exemple, qui accepte de répondre, à quelle heure, avec quel état d’esprit. Un psychiatre a aussi soulevé une idée logique, ceux qui parlent à un chatbot plusieurs fois par jour sont peut-être déjà plus seuls, donc plus fragiles.
Ces limites n’annulent pas le signal. Elles disent seulement comment le lire, avec méthode, sans panique.
Cause ou conséquence, la grande question
Deux scénarios restent possibles. Soit l’usage intensif joue un rôle dans la baisse de moral. Soit des personnes déjà tristes, anxieuses, ou isolées se tournent plus souvent vers l’IA. Les deux peuvent même coexister.
Un exemple aide à comprendre. Quand on rentre tard, qu’on n’a personne à appeler, parler à un chatbot paraît simple. Cela peut soulager sur le moment. Mais si ça devient la seule option, le cercle se referme.
Pour trancher, il faut suivre les gens dans le temps. Des études “longitudinales” (qui observent l’évolution) aideraient à voir si l’humeur change après une hausse d’usage.
Les questions que les prochaines recherches doivent trancher
Les prochains travaux devront distinguer des usages très différents, sans tout mélanger. Ils devront regarder quel type d’IA est utilisé, combien de temps, à quels moments, et dans quel but. Ils devront aussi tenir compte du contexte, nuit, stress, rupture, maladie, chômage.
Un autre point compte beaucoup, l’usage passif, pour tuer le temps, n’a pas le même effet que l’usage ciblé, pour apprendre, s’organiser, ou alléger une tâche. Tant qu’on ne sépare pas ces cas, on risque de tirer des conclusions trop larges.
Utiliser l’IA sans abîmer sa santé mentale
L’IA peut aider, et parfois vraiment. Elle peut réduire une charge, clarifier une idée, rendre un travail plus léger. Mais elle ne doit pas devenir un ami, ni un thérapeute. C’est un outil, comme une calculatrice, utile, mais sans chaleur humaine.
La règle de base est simple, utilisez l’IA pour gagner du temps, puis réinvestissez ce temps dans du réel. Sommeil, marche, repas calmes, appels, activités partagées. C’est souvent là que l’humeur remonte.
Des règles simples pour garder l’IA à sa place
Fixez un cadre clair pour l’usage personnel, surtout le soir. Le cerveau fatigué accroche plus vite aux réponses faciles. Faites une pause après une longue session, puis demandez-vous comment vous vous sentez. Si vous vous sentez plus vide, c’est un signal.
Évitez de confier des décisions lourdes à l’IA quand vous êtes très stressé. Dans ces moments, on cherche une certitude, et l’IA peut donner une réponse trop sûre, même quand elle se trompe.
Si vous remarquez que l’IA devient votre seule compagnie, parlez-en à quelqu’un. Un ami, un proche, un collègue de confiance. Le premier pas est souvent le plus simple.
Quand demander de l’aide, et à qui
Certains signaux méritent une attention rapide, tristesse qui dure, perte d’envie, sommeil cassé, irritabilité forte, retrait social. Si ces signes s’installent, un médecin généraliste peut aider à faire le point, et orienter si besoin. Un psychologue ou un psychiatre peut aussi proposer un suivi adapté.
Des chatbots conçus pour l’aide psychologique peuvent soutenir certaines personnes, surtout quand l’accès aux soins est difficile. Mais le meilleur cadre reste un usage suivi, avec un professionnel quand c’est possible.
Si vous avez des idées suicidaires, contactez tout de suite les urgences, ou une ligne d’aide locale. N’attendez pas.
A retenir
Cette étude, basée sur plus de 20 000 adultes, associe l’usage fréquent de l’IA à plus de symptômes de dépression, d’anxiété et d’irritabilité. Le signal paraît plus net pour l’usage personnel, et chez les 25 à 64 ans.
Cela ne prouve pas que l’IA cause la dépression. Cela montre surtout un lien qui mérite d’être suivi, avec des études dans le temps, et des outils mieux encadrés.
L’idée utile est simple, servez-vous de l’IA pour gagner du temps, puis protégez votre santé mentale avec du sommeil, du mouvement, et des échanges réels. Le chatbot peut répondre, mais il ne peut pas vous tenir la main.
Cet article a été élaboré avec le soutien d’un outil d’intelligence artificielle. Il a ensuite fait l’objet d’une révision approfondie par un journaliste professionnel et un rédacteur en chef, assurant ainsi son exactitude, sa pertinence et sa conformité aux standards éditoriaux.
PRESSE SANTÉ s'efforce de transmettre la connaissance santé dans un langage accessible à tous. En AUCUN CAS, les informations données ne peuvent remplacer l'avis d'un professionnel de santé.