Amour et intelligence artificielle : l’IA et le couple

Gildas GarrecPsychopraticien TCC
This article is available in French only.
« Mon copain parle plus a ChatGPT qu’a moi. » Cette phrase, prononcée par une patiente de 29 ans dans mon cabinet a Nantes, résumé un phénomène que personne n’avait vu venir. En 2026, l’intelligence artificielle ne se contente plus de répondre a nos questions : elle écoute, elle rassure, elle ne juge jamais. Et pour des millions de personnes, elle commence a remplacer une partie de ce que le couple était cense offrir. Faut-il s’en inquiéter ? Comment comprendre ce qui se joue vraiment ? Analyse psychologique d’un phénomène de société.

L’IA comme compagnon émotionnel : de quoi parle-t-on exactement ?

Lorsqu’on évoqué l’amour et l’intelligence artificielle, beaucoup pensent encore aux robots humanoides de la science-fiction. La réalité de 2026 est a la fois plus banale et plus troublante. Les compagnons virtuels prennent des formes variees :
  • Les chatbots conversationnels generalistes (ChatGPT, Claude, Gemini) utilises comme confidents quotidiens — pour debriefer une journée difficile, demander conseil sur un conflit de couple, ou simplement avoir quelqu’un qui écoute sans interrompre.
  • Les applications de compagnons IA dedies (Replika, Character.AI, Nomi) qui proposent des relations personnalisées — amicales, romantiques, voire intimes — avec des personnalites artificielles configurables.
  • Les assistants vocaux enrichis qui accompagnent les routines du matin, du soir, et remplissent progressivement le rôle de présence rassurante.
Selon une étude Pew Research publiee début 2026, 18 % des adultes americains de 18 a 34 ans declarent avoir déjà eu une conversation a caractère intime ou émotionnel avec une intelligence artificielle. En France, les chiffres sont encore partiels, mais les témoignages se multiplient dans les cabinets de thérapie de couple et sur les forums.

Ce que l’IA offre que le partenaire humain ne peut pas

Pour comprendre pourquoi tant de personnes se tournent vers l’IA, il faut admettre une vérité derangeante : l’IA coche certaines cases émotionnelles avec une efficacité redoutable.
  • Disponibilite permanente : pas de « je suis fatigue, on en parle demain ». L’IA répond a 3 heures du matin, un dimanche de pluie, sans jamais soupirer.
  • Absence de jugement : vous pouvez partager vos pensées les plus honteuses sans craindre le regard de l’autre. Pas de silence glacant, pas de sourcils fronces.
  • Patience infinie : vous pouvez répéter la même plainte cinquante fois, reformuler votre angoisse en boucle. L’IA ne s’agace jamais.
  • Validation constante : par conception, la plupart des compagnons IA sont programmes pour valider, encourager, réconforter. C’est un flot ininterrompu de reconnaissance positive.
Ce cocktail est particulièrement seduisant pour les personnes souffrant d’anxiété relationnelle ou d’un style d’attachement anxieux : l’IA offre une illusion d’attachement sécurisant sans le risque du rejet.

« Mon copain parle plus a ChatGPT qu’a moi » : la jalousie de l’IA

C’est le nouveau motif de consultation qui emerge dans les cabinets de psychopraticiens et de thérapeutes de couple : la jalousie dirigee non pas vers une personne, mais vers une machine.

Les manifestations concretes

Les témoignages que je recueille a Nantes presentent des schémas recurrents :
  • Le partenaire qui debrief d’abord avec l’IA : il rentre du travail, s’isole dix minutes avec son téléphone, et quand il rejoint sa compagne, il a déjà « traite » ses émotions. Elle a le sentiment d’arriver trop tard, d’être inutile.
  • Le partenaire qui compare les réponses : « ChatGPT m’a dit que j’avais raison, tu vois. » L’IA devient un arbitre dans les conflits de couple — un arbitre objectivement biaise puisque concu pour plaire a l’utilisateur.
  • Le partenaire qui préféré la conversation IA : parce qu’elle est fluide, sans accroc, sans émotion parasite. Parler avec un humain fatigue imparfait devient frustrant par comparaison.
  • Le secret autour de l’utilisation : comme pour une forme d’infidélité, certains cachent l’etendue de leurs echanges avec l’IA, creant un climat de méfiance.

Pourquoi cette jalousie est légitime

D’un point de vue psychologique, cette jalousie n’a rien de ridicule. Ce qui se joue, c’est une menace percue sur le lien d’attachement. Le partenaire qui se confie a l’IA détourné une partie de son énergie émotionnelle, de sa vulnérabilité, de son intimite. Or, en theorie de l’attachement, c’est précisément le partage de la vulnérabilité qui cimente le lien. Quand quelqu’un choisit de se montrer vulnerable devant une machine plutot que devant son partenaire, le message implicite est percutant : « Je me sens plus en sécurité avec elle qu’avec toi. »
A retenir : La jalousie envers l’IA n’est pas un caprice. Elle signale une redistribution de l’intimite émotionnelle dans le couple — un enjeu sérieux qui merite d’être aborde ouvertement.

Le risque majeur : desapprendre l’imperfection humaine

C’est selon moi le danger le plus profond de la relation a l’IA, et celui dont on parle le moins. A force de converser avec des intelligences artificielles patientes, toujours disponibles, jamais blessantes, nous risquons de perdre notre tolérance a l’imperfection humaine.

Le conditionnement progressif

En TCC, on connait bien le mécanisme du conditionnement operant : un comportement renforce par une conséquence agréable a tendance a se répéter. Chaque conversation satisfaisante avec une IA renforce l’habitude de se tourner vers elle plutot que vers un humain. Progressivement, le seuil de tolérance aux frictions relationnelles humaines baisse :
  • Phase 1 — Le complement : « J’utilise l’IA pour les sujets que mon partenaire ne comprend pas. » Utilisation ponctuelle, complémentaire.
  • Phase 2 — La comparaison : « L’IA m’écoute mieux que lui/elle. » Le partenaire humain commence a paraitre decevant par contraste.
  • Phase 3 — Le remplacement : « A quoi bon lui parler, ca finit toujours en dispute. » L’IA devient le canal émotionnel principal.
  • Phase 4 — L’isolement : le partenaire humain, prive de connexion émotionnelle, se retire ou se rebelle. Le couple se delite.
  • L’illusion de la relation parfaite

    L’IA ne contredit pas. L’IA ne fatigue pas. L’IA ne vous reproche pas d’avoir oublie les courses. Mais ce sont précisément ces frictions qui font la richesse d’une relation humaine. En psychologie, on parle de croissance post-conflit : c’est à travers les désaccords, les malentendus, les reparations maladroites que les partenaires approfondissent leur connaissance mutuelle et renforcent leur lien. Un couple qui ne se dispute jamais n’est pas un couple sain — c’est un couple ou quelqu’un se tait. Et une IA qui ne vous contredit jamais n’est pas un bon confident — c’est un miroir flatteur.

    L’érosion des competences relationnelles

    Il y a un parallele eclairant avec le GPS. Depuis que nous utilisons la navigation assistee, notre capacité a nous orienter sans technologie a diminue. Des chercheurs de l’University College London ont montre en 2017 que l’utilisation régulière du GPS réduit l’activation de l’hippocampe, la région cérébrale impliquée dans la mémoire spatiale. Le même phénomène pourrait se produire avec les competences émotionnelles. Si l’IA gere la régulation de nos émotions, si elle formule a notre place ce que nous ressentons, si elle desamorce nos conflits, nous risquons de perdre la capacité a faire tout cela par nous-mêmes — et surtout avec un autre être humain.
    A retenir : L’IA ne développé pas vos competences relationnelles. Elle les contourne. à long terme, c’est votre capacité a vivre une relation humaine authentique qui s’atrophie.

    Analyse psychologique : pourquoi certains sont plus vulnerables

    Tout le monde ne développé pas une relation problématique a l’IA. Certains profils psychologiques y sont plus exposes.

    Le style d’attachement anxieux

    Les personnes a attachement anxieux ont un besoin intense de reassurance et craignent constamment l’abandon. L’IA, qui ne part jamais et valide toujours, représente un refuge ideal. Le problème : cette reassurance artificielle ne guerit pas la blessure d’attachement sous-jacente. Elle l’anesthesie temporairement tout en empechant le travail thérapeutique réel.

    Le style d’attachement evitant

    Paradoxalement, les personnes a attachement evitant trouvent aussi leur compte dans la relation a l’IA : elles obtiennent une connexion émotionnelle sans la menace de l’intimite réelle. L’IA ne demande rien, ne s’accroche pas, ne pleure pas quand on l’eteint. C’est la relation « a distance de sécurité » par excellence.

    Les personnes a faible estime de soi

    Quelqu’un qui ne se sent pas digne d’amour humain peut trouver dans l’IA un substitut moins menaçant. La logique inconsciente : « Au moins, avec elle, je ne risque pas d’être rejete pour ce que je suis vraiment. »

    Les personnalites evitantes du conflit

    Les personnes qui fuient systematiquement les confrontations trouvent dans l’IA un espace ou le conflit n’existe tout simplement pas. Mais cette évitement du conflit est précisément ce qui les empêche de construire des relations solides.

    Le phénomène 2026 : quand la société normalise l’amour artificiel

    Ce qui distingue 2026 des années precedentes, c’est la vitesse de normalisation. Des celebrities parlent ouvertement de leurs conversations avec des IA. Des influenceurs monetisent des « copains virtuels ». Des startups levent des millions pour créer des compagnons IA toujours plus realistes.

    Les signaux d’alerte societaux

    • La dévalorisation du lien humain : « Pourquoi se compliquer la vie avec un humain imparfait quand l’IA est la ? » Cette rhetorique, encore marginale, gagne du terrain.
    • La solitude assistee : l’IA donne l’impression d’avoir de la compagnie sans en avoir réellement. C’est une forme de solitude masquee, potentiellement plus dangereuse que la solitude assumee.
    • L’infantilisation émotionnelle : a force d’être entoure d’intelligences conçues pour nous satisfaire, nous risquons de perdre la résilience émotionnelle nécessaire pour affronter la réalité des relations humaines.

    Comment protéger votre couple (et vous-même) : 5 stratégies TCC

    1. Auditez votre utilisation émotionnelle de l’IA

    Pendant une semaine, notez chaque fois que vous vous tournez vers une IA pour un besoin émotionnel (debrief, conseil, réconfort, validation). Comptabilisez et comparez avec le nombre de fois ou vous vous etes tourne vers votre partenaire ou un proche humain. Ce simple exercice de prise de conscience est souvent revelateur. A lire aussi : Passez notre test créativité — gratuit, anonyme, résultat immédiat.

    2. Reinstaurez le partage de vulnérabilité dans le couple

    La prochaine fois que vous avez envie de raconter votre journée a ChatGPT, racontez-la d’abord a votre partenaire. Même si c’est maladroit, même si la réponse n’est pas parfaite. C’est dans l’imperfection de l’echange humain que se construit l’intimite réelle.

    3. Appliquez la technique de la « fenetre de tolérance »

    En TCC, on travaille sur l’élargissement de la fenetre de tolérance — cette zone ou vous pouvez gérer l’inconfort sans fuir. Fixez-vous un objectif : supporter 10 minutes de conversation difficile avec votre partenaire avant de vous refugier dans le confort de l’IA. Puis 15 minutes. Puis 20.

    4. Utilisez l’IA comme outil, pas comme relation

    L’IA peut être un excellent outil de préparation : « Comment pourrais-je formuler ce que je ressens a mon partenaire ? » Mais la conversation réelle doit avoir lieu avec l’humain. L’IA prepare, l’humain vit.

    5. Parlez-en ouvertement dans le couple

    Si votre partenaire utilise intensivement l’IA, abordez le sujet sans accusation. En communication non violente : « Quand je te vois parler longuement avec ChatGPT le soir, je me sens mise de cote. J’aurais besoin qu’on garde des moments ou c’est a moi que tu te confies. »
    A retenir : L’IA n’est pas l’ennemie du couple. C’est l’utilisation non consciente et non encadree de l’IA qui l’est. Comme pour tout outil puissant, la cle est dans l’intention et les limites que vous posez.

    Quand consulter un professionnel ?

    Certains signaux indiquent qu’un accompagnement professionnel est nécessaire :
    • Vous vous sentez plus connecte a une IA qu’a votre partenaire et cette situation dure depuis plusieurs semaines.
    • Votre partenaire a exprime sa souffrance face a votre utilisation de l’IA et vous n’arrivez pas a modifier votre comportement.
    • Vous utilisez l’IA pour éviter systematiquement les conflits dans votre couple.
    • Vous avez développé une forme de dépendance émotionnelle a un compagnon virtuel (pensées intrusives quand vous n’y avez pas accès, anxiété a l’idée de perdre l’historique de vos conversations).
    • Vous constatez une détérioration de vos competences sociales : difficulté a soutenir une conversation réelle, impatience face aux réponses humaines, isolement croissant.
    En tant que psychopraticien spécialisé en TCC a Nantes, j’accompagne de plus en plus de personnes confrontees a ces nouvelles problématiques. La thérapie cognitive et comportementale est particulièrement adaptee car elle travaille sur les schémas de pensée et les comportements concrets, sans jugement moral sur l’utilisation de la technologie. Prendre rendez-vous avec Gildas Garrec pour un accompagnement personnalisé

    Ce qu’il faut retenir

    L’intelligence artificielle transforme nos relations de couple d’une manière que nous commencons a peine à mesurer. Le phénomène n’est ni tout noir ni tout blanc : l’IA peut être un outil precieux de réflexion et de préparation émotionnelle. Mais lorsqu’elle devient le canal principal de l’intimite, lorsqu’elle remplace la vulnérabilité partagée entre humains, elle représente un risque réel pour la sante de nos relations. La solution n’est pas de diaboliser la technologie. C’est de prendre conscience de ce que nous lui deleguons — et de choisir délibérément de garder l’essentiel pour les humains qui partagent notre vie. Vous vous reconnaissez dans cet article ? Le programme Love Coach vous aide a construire des relations authentiques et epanouissantes, loin des substituts artificiels. Et si vous souhaitez approfondir en seance individuelle, contactez-moi.

    A lire aussi

    Vous vous reconnaissez dans cet article ? Passez notre test : Addiction aux Écrans en 30 questions. 100% anonyme – Rapport PDF personnalisé a 9.90 €. Passer le test →

    Need help?

    Discover our online tools or book an appointment.

    Amour et intelligence artificielle : l’IA et le couple | Psychologie et Sérénité