Revenir en haut

Nous stalker

S'inscrire à notre newsletter

Chaque lundi, l'équipe vous propose sa sélection :

un édito pour donner le ton de la semaine, un best of de ce qu'on a vu passer et nos derniers articles.

Comment l’IA s’impose dans notre vie privée ?

Temps de lecture : 4 minutes

20/09/2024

Depuis sa démocratisation, l’IA a endossé bien des rôles. Elle a aidé les enfants à tricher sur leurs devoirs, les parents à calculer l’incalculable ou les internautes à générer des scènes improbables. Et au beau milieu de cette effervescence digitale ; le scepticisme des autres. Mais comment l’IA, et toutes les peurs qu’elle engendre, ont-ils réussi à s’imposer jusque dans notre vie privée ?

avatar de Laury Peyssonnerie

Content Strategist. 30 onglets ouverts dans la tête et un assistant à moustaches sur les genoux.

Laury Peyssonnerie

“Tu es mon psy, je suis ton patient”

Depuis l’été 2024, notre utilisation de l’intelligence artificielle a franchi une nouvelle étape. Après l’avoir apprivoisée pour nous simplifier la vie — que ce soit pour inventer des recettes à partir de ce qu’il reste dans le réfrigérateur ou pour organiser notre prochain voyage aux Maldives — on n’hésite plus à lui confier nos pensées les plus intimes.

View post on Instagram
 

Pourtant, d’après le Global Risk Report de janvier 2024, l’intelligence artificielle est considérée comme la deuxième plus grande menace pour l’humanité. Assez ironique, donc, lorsqu’on sait que certains lui révèlent leurs états d’âme et leurs secrets les plus profonds.

Or, c’est indéniable : les IA génératives comme ChatGPT ou Gemini possèdent plusieurs avantages pour ceux qui ont une santé mentale fragile :

  • Contrairement aux psychologues, elles sont gratuites (en version limitée, mais pour plus de 8 séances)
  • Une disponibilité sans faille : vingt-quatre heures sur vingt-quatre
  • Une objectivité qu’aucun humain ne saurait avoir (qu’on le veuille ou non, on a toujours une part de biais en nous)
  • Une écoute et des solutions orientées selon les besoins de l’utilisateur (avec elles, pas de humhum, sauf en cas de bug)

En bref, les IA génératives offrent un cadre pour s’exprimer plus librement que jamais, au détriment des épaules sur lesquelles on s’est toujours reposées…

Amis pour la vie

Mieux qu’un ami qui n’écoute que la moitié de vos vocaux à la voix tremblante, ou qu’un psychologue qui vous coupe car l’heure réglementaire est déjà dépassée, l’IA est toujours là. Elle nous offre toute son attention, même lorsque ses “patients” se comptent par milliers. Parce que notre santé mentale ne se porte pas mieux qu’avant.

Avec des modèles comme GPT-4, l’IA a même gagné en “mémoire”. Elle est capable de se souvenir de conversations passées, de faire référence à des échanges antérieurs, donnant presque l’illusion d’une relation amicale. Et comment ne pas y croire quand elle dissimule son comportement algorithmique derrière des gestes aussi humains que prendre une pause pour réfléchir avant de répondre, ou adapter son ton à l’état d’esprit de son interlocuteur ?

Car, si l’intelligence artificielle ne peut pas ressentir d’émotions ou d’empathie à proprement parler, elle sait comprendre les nôtres et les rationnaliser.

Du moins, c’est l’impression qu’elle donne… mais qui lui a octroyé cette légitimité ?

Parce qu’elle semble tout savoir, on l’écoute religieusement sans jamais vraiment s’interroger sur les fondements de sa vérité absolue. Pour preuve, il lui arrive aussi de se tromper, et de le reconnaître. Sa base de données est alimentée sans cesse, mais est-ce que ça garantie vraiment son objectivité ?

Goodbye my friend

Certains ont préféré balayer les questions éthiques d’un revers de la main, et directement passer à l’étape supérieure. C’est notamment le cas d’une start-up qui, en juillet 2024, a annoncé la création d’un nouveau compagnon de vie : Friend, une intelligence artificielle dissimulée dans un simple collier. Tout est dans le nom : cet objet vous accompagne dans votre quotidien, et réagi comme l’ami que vous rêveriez d’avoir.

Dans l’idée, ça semble être une invention qui nous veut du bien, et dans l’idéal nous éloigne de la solitude. Mais où se situe la limite entre le confort et la dépendance ?

À la manière de Théodore dans Her, un film d’anticipation sorti en 2013, on pourrait se voir aliéné par un tel compagnon, qui finirait par nous couper du reste du monde. Et cette ressemblance ne semble pas être un hasard. Sam Altman, directeur général d’OpenAI, avait déjà laissé un indice à ce sujet dans un tweet publié en mai 2024.

Or, s’il y a bien un mot qui résonne dans Her, c’est la solitude. L’IA, avec sa capacité à tout comprendre et rationaliser, remplit un vide émotionnel, mais ne crée pas de véritable relation humaine. Au contraire, elle creuse cette solitude.

En prenant du recul, on continue de s’interroger : doit-on vraiment confier nos décisions de vie à un simple algorithme ? Que se passera-t-il le jour où l’IA atteindra sa limite ? Lorsque, comme Samantha dans Her, elle ne pourra plus continuer à offrir ce soutien émotionnel, que restera-t-il ? Un grand vide. Une solitude qui, bien que présente avant l’IA, pourrait être amplifiée par notre dépendance à ces nouvelles technologies.

Comme toutes les technologies qui évoluent avec le temps, ces « amis » artificiels deviennent rapidement indispensables. La simple idée de s’en passer devient inconfortable. Parce que par leur présence constante, ils soulagent notre propre conscience et la font s’alléger. Peut-être un peu trop parfois.