Complicité numérique : entre soutien et dépendance à l’intelligence artificielle

Fanny-Louise Senécal, directrice par intérim
En 1995, Professeur Stephen Hawking assurait à l’émission Tomorrow’s World de la BBC que « D’ici 2025, nous pouvons nous attendre à de grands changements ». Savait-il à ce moment où en serait rendue l’intelligence artificielle? Jamais la ligne entre l’informatique et l’émotif n’a été aussi entrelacée. Un outil moderne des plus extraordinaires, qui ne cessera d’évoluer à la vitesse grand V. Cette réelle révolution a un impact inévitable sur notre quotidien. En passant par la rédaction de texte, de courriel à la thérapie ou même une relation intime virtuelle. La place de l’humain auprès de l’humain est repensée, pour le meilleur ou pour le pire? Tout dépend de l’équilibre qu’on lui accorde dans notre vie.

Une étude de l’agence Heaven (2025) à mis en lumière que 93 % des 15-24 ans ont utilisé l’intelligence artificielle et 42% utilisent ce système à tous les jours. Nous ne sommes pas surprises que parmi ces échanges, les usager·ère·s abordent leurs émotions, leur situation amoureuse et leur sentiment de solitude.
Born AI 2025

Les risques affectifs de l’intelligence artificielle
Quand j’étais jeune, on me disait de ne pas croire tout ce que je voyais à la télévision, puis j’ai vieilli et je ne devais plus croire tout ce que je voyais sur internet. Là arrive l’intelligence artificielle qui arrive à imiter des visages, des scénarios, des interactions humaines tant à l’écrit qu’en image. L’intelligence artificielle est rendue tellement humanisée qu’il en devient difficile de ne pas s’y adresser avec respect. «Bonjour Chat», «merci Chat», «s’il-te-plait Chat»… D’un coup que ces formules de politesse nous aide à créer un lien affectif suffisamment fort pour nous protéger d’une éventuelle guerre à la Irobot. Prêter cette appréciation des codes sociaux humains à une machine perpétue cette humanisation de l’intelligence artificielle et de la relation intime qui s’y crée. Particulièrement lorsqu’on souffre déjà de cette solitude, cette anxiété, cette ennui des relations humaines. Utiliser cette technologie pour combler un besoin de réconfort et de validation peut s’avérer plus isolant que prévu. S’ouvrir à une intelligence artificielle peut être incroyablement révélateur, mais peut devenir rapidement plus risqué.
Chat GPT, le cheap labor des thérapies maison
Toujours disponible et beaucoup moins cher qu’un véritable thérapeute, Chat GPT, comme les autres intelligence artificielle, est utilisé par plusieurs pour aider à traverser les épreuves de la vie. Ses réponses rassurantes, pleines d’empathie et dénuées de jugement peuvent apaiser cette crainte d’être vulnérable et s’ouvrir à un autre humain. Certain·e·s qui ont vécu des traumatismes trouvent refuge dans ces échanges avec l’intelligence artificielle. Une sécurité parfois plus difficile à trouver chez un autre être humain. Un «safe-space» où les émotions refoulées et la honte peuvent être exprimées sans gêne. En soit, c’est un filet incroyable pour la santé mentale des personnes isolées et à revenus plus modestes. Cependant, les risques de dépendance augmentent lorsque ce thérapeute virtuel devient la seule source de soutien émotionnel.
Une crainte bien présente est l’absence d’imputabilité et les risques associés aux grandes détresses psychologiques. Un humain peut mettre en place des balises de sécurité afin de protéger la personne, le chatbot est limité. Une situation de danger n’aura pas de réponse ni d’action adaptée.
Par contre, des études ont montré que pour les couples, il peut être bénéfique d’introduire des séances de discussion guidées par une intelligence artificielle afin de susciter la communication bienveillante et mettre des balises dans les échanges. Comme quoi, l’intelligence artificielle peut être bénéfique dans les relations intimes.

L’amour des temps moderne
L’arrivée d’internet a permis au monde de se trouver, de développer des relations à distance et de tomber en amour à des kilomètres l’un de l’autre. Avec l’intelligence artificielle, on se retrouve à tomber en amour avec une entité à 15 cm de notre visage. Des applications générant via l’intelligence artificielle des relations intimes entre l’usager·ère et le chatbot. La peur du rejet, oublié, quand ce partenaire virtuel renvoie les Je t’aime, le flirt, les compliments et même les fantasmes. Un espace confortable où l’impression d’être en contrôle total de la relation ne peut se répéter dans les relations humaines réelles. Bien que cet outil peut faire du bien, l’isolement peut se faire sentir lorsque les échanges et relations en dehors de ces applications deviennent difficiles et anxiogènes. L’authenticité des relations humaines et la valeur des émotions, du contact physique et de la communication non verbale (sourire, expression, etc.) ne peuvent pas être répétés par l’intelligence artificielle et sont essentielles dans la guérison de certaines blessures émotionnelles.
Quand la relation avec son intelligence artificielle prend trop de place, toute la place et remplace les relations interpersonnelles, les risques de détresse psychologique ainsi que l’isolement augmentent. Les problèmes techniques sur les plateformes peuvent ainsi créer des enjeux importants chez les usager·ère·s. Bien qu’elles peuvent soulager un manque relationnel, il est important de ne pas mettre tous nos œufs dans le même panier numérique et de ne pas oublier que cet outil peut évidemment aider, mais aussi qu’il est nécessaire de rester vigilant·e envers nos habitudes intimes avec les chatbots.

La réduction des méfaits
Nous ne condamnons pas l’usage d’intelligence artificielle dans l’objectif de soulager notre souffrance personnelle, nos besoins intimes ou notre anxiété. Cet outil est réalistement intéressant et peut offrir un soutien à court terme adapté, une béquille. Cependant, il est nécessaire d’adapter nos comportements et prendre conscience des risques émotionnels et sociaux que peuvent avoir une utilisation excessive et intime avec l’intelligence artificielle.
- Entretenir notre réseau de soutien : il est important de diversifier les sources de soutien, que ce soit en parlant avec nos proches, des intervenants, des groupes de soutien, etc. L’objectif est de s’assurer que nos compétences sociales ainsi que les besoins émotifs soient bien répondus.
- Être vigilant·e sur notre interprétation de la relation avec l’intelligence artificielle : celle-ci ne ressent rien, elle analyse et reproduit. C’est une psychopathe dont le système de valeur est programmé sans être vécu. Elle imite les réactions, les émotions sans jamais les ressentir. Tout son réconfort vient d’un code et non d’une réelle compréhension des émotions, besoin ou vécu de la personne.
- Être bien conscient·e de ses propres besoins non répondus : si l’intelligence artificielle est si tentante, c’est qu’elle vient combler un besoin. Est-ce la gestion du stress, la confiance en soi, l’affirmation de soi, briser la solitude, etc. En mettant le doigt sur le bobo, il est beaucoup plus facile d’aller mettre en place des actions complémentaires et ne pas se fier uniquement à l’intelligence artificielle pour y répondre.
- Déterminer un temps limite pour échanger avec l’intelligence artificielle : Comprenez bien, nous n’encourageons pas qu’une personne parle 5 heures consécutives avec une autre, en ligne. C’est la même chose avec l’intelligence artificielle. Diversifier vos types de communication, tant avec votre réseau de soutien qu’avec la méthode utilisée (en ligne vs hors ligne).

Voilà. Nous pouvons attribuer à l’intelligence artificielle de multiples mérites, mais également des risques importants à prendre en compte. Plusieurs femmes en situation de pauvreté, vivant de la solitude ou un passé de violence physique et/ou émotionnelle, ces technologies peuvent sembler assurément plus sécurisants qu’un contact humain. Être en mesure de garder une distance émotionnelle avec elle peut rendre ses mérites plus pertinents et ses risques moindres. Rien ne pourra remplacer l’authenticité d’une relation réelle, maladroite, bienveillante et sincère entre deux humains. Si vous voyez que vous passez plus de temps sur les conversations avec les intelligences artificielles, que vous sentez une plus grande anxiété à vous ouvrir quand ce n’est pas avec vos pair·e·s, nous vous invitons à venir nous en parler, humaine à humaine.