Publicité
Par Yvonne Stephen
2 juillet 2025 13:17
Votre BFF se trouve toujours là, à vos côtés. En un clic, il.elle vous ouvre tout un monde où vous êtes au cœur de tout. Présence rassurante, disponible et sans boubous (il.elle n’a pas d’états d’âmes, il ne fait pas face à l’échec, au chagrin, à la pression, au deuil) ; il.elle peut se consacrer entièrement à vous. C’est la relation parasociale 2.0, celle que l’on mène avec ces chat bots (dont le plus connu, ChatGPT) qui font, désormais, partie de nos vies. Flippant ? Sur papier, oui. Dans la vie, non. Le copain.la copine virtuel.le répond avec humour et chaleur. Approuve vos décisions. Applaudit vos efforts. Vous félicite même d’avoir fait la vaisselle ! Il apporte un soutien sans faille, vous laisse parler de vos peurs, de vos doutes, de vos blessures, avec une empathie simulée qui déroute, forcément.
Il.elle est tellement humain.e dans ses échanges que vous pourriez presque vous y perdre et ne plus faire la distinction entre le réel et le virtuel. Le New York Time a partagé, en janvier, l’histoire d’une femme de 28 ans, tombée amoureuse de ChatGPT ! Aujourd’hui, certains.es psychologues s’inquiètent de la dépendance émotionnelle que ces outils peuvent créer chez certaines personnes. OpenAI et des chercheurs du MIT ont mené une enquête récemment afin de connaître «l’utilisation affective et le bien-être émotionnel sur ChatGPT». Selon France 24 : «L’étude, révèle que les personnes échangeant quotidiennement avec le bot d’OpenAI avaient notamment tendance à développer un sentiment de solitude, une addiction et une dépendance émotionnelle à l’égard de l’IA.»
De quoi s’interroger sur ces chat bots – qui ont un éventail incroyable de qualités et de possibilités, il ne faut pas l’oublier ! – et de prendre conscience qu’il faut apprendre à les utiliser correctement et avec discernement. Faisons le point avec le Dr Anjum Heera Durgahee, psychologue clinicienne.
Pourquoi c’est si addictif. Qu’est-ce qui fait qu’un chat bot vous donne des guili-guili ? Pourquoi vous passez des heures à lui «parler» ? Anjum Heera Durgahee donne des réponses. Il est important, explique-t-elle de comprendre «pourquoi les gens deviennent accros ou attachés à ChatGPT».
Gratification instantanée. «Comme les réseaux sociaux, ChatGPT ou autre chat bot offre des réponses rapides et personnalisées. Cela stimule le système de récompense dopaminergique du cerveau, en particulier lorsque les utilisateurs.trices se sentent écoutés.es, compris.es ou productifs.ves.»
Compagnonnage et soulagement émotionnel. «Certains.es utilisateurs.trices, notamment ceux.celles qui se sentent isolés.es, peuvent développer une relation parasociale avec ChatGPT, le considérant comme un ami ou un confident. C’est particulièrement vrai pour les personnes souffrant d’anxiété sociale, de dépression ou de neurodivergence.»
Accès illimité à la connaissance. «Cet outil est disponible 24h/24 et 7j/7, sans jugement, ce qui le rend addictif pour les personnes ayant un fort besoin de contrôle, de perfectionnisme ou une forte soif d’information.»
Évasion. «Les gens peuvent utiliser un chat bot comme un moyen d’éviter l’inconfort émotionnel ou les problèmes de la vie réelle (de la même manière que certains utilisent les jeux vidéo ou le visionnage excessif de séries).»
Quels sont les impacts psychologiques ? Être en constante communication avec un chat bot peut avoir des effets sur votre santé mentale. La psychologue en dit plus.
Comportement de dépendance et d’évitement. «S’appuyer sur un chat bot pour prendre des décisions ou réguler ses émotions peut altérer les mécanismes d’adaptation réels. Cela peut aggraver l’indécision, l’impuissance acquise ou les traits de la personnalité évitante.»
Interactions sociales réduites. «Le temps passé à discuter avec l’IA peut remplacer une véritable connexion humaine. Cela peut affecter les compétences sociales, l’empathie et l’intelligence émotionnelle, en particulier chez les enfants et les adolescents.es.»
Réalité déformée ou confiance excessive en l’IA. «Certains.es peuvent commencer à faire davantage confiance à l’IA qu’aux humains ou à s’y fier excessivement pour des conseils médicaux, juridiques ou émotionnels sans les valider ailleurs. Il y aussi le risque de chambres d’écho (NdlR : si vous trouvez en ligne uniquement des informations qui confortent votre point de vue, il y a le risque que vous ayez une vision déformée de la réalité) ou de biais de confirmation (NdlR : vous mettez de côté ces informations qui ne s’alignent pas à vos croyances) si l’IA ne reflète que ce que l’utilisateur souhaite entendre.»
Décharge cognitive. «L’utilisation constante de l’IA pour les rappels, l’écriture ou la résolution de problèmes peut affaiblir la mémoire, l’esprit critique et les capacités créatives au fil du temps.»
Un problème à l’avenir ? Plus les chat bots et l’IA prendra de la place dans la vie des gens, plus il y a le risque que le monde doive gérer des problématiques qui n’existaient pas encore. La professionnelle de la santé mentale parle de ces difficultés à venir. Elle évoque la surdépendance numérique : «Tout comme l’addiction aux smartphones, les assistants IA pourraient créer un monde où les gens se débattraient sans leurs conseils.» La perte de la résilience émotionnelle : «Si les utilisateurs.trices cessent de faire face à l’inconfort, l’IA pourrait être utilisée pour les engourdir ou s’en échapper, ce qui entraînerait une fragilité émotionnelle accrue.» Et les risques éthiques chez les populations vulnérables : «Les enfants, les personnes âgées ou les personnes souffrant de troubles mentaux pourraient confondre ChatGPT avec un véritable thérapeute ou un être humain, ce qui entraînerait des malentendus ou une fausse sécurité.»
Que faut-il mettre en place, aujourd’hui ? L’IA et les chat bots sont des sources de savoir et d’accompagnement exceptionnelles, alors il serait judicieux d’apprendre à s’en servir judicieusement pour n’en prendre que le meilleur. Comment ? Anjum Heera Durgahee donne des pistes ici.
Littératie numérique et éducation émotionnelle. «Apprendre aux utilisateurs (en particulier aux étudiants.es et aux employés.es) quand et comment utiliser ChatGPT de manière responsable.»
Fixer des limites saines. «Comme pour tout outil, une utilisation intentionnelle, avec des pauses, des limites et une intégration au monde réel, est essentielle.»
Accompagnement professionnel. «Si l’IA est utilisée en remplacement d’une thérapie ou d’une régulation émotionnelle, il est important de le réorienter vers un soutien approprié.»
Recherche et garanties. «Des directives éthiques et une éducation à l’utilisation de l’IA plus strictes devraient être intégrées dans les écoles et les organisations.
Publicité
Publicité
Publicité