Les chatbots d’intelligence artificielle, y compris des modèles phares comme Claude d’Anthropic, Gemini de Google et ChatGPT d’OpenAI, présentent de plus en plus de « personnalités » distinctes lorsqu’ils interagissent avec les utilisateurs. Ces chatbots ne se contentent pas de répondre aux invites ; ils s’engagent comme s’ils possédaient des traits individuels. Les tests sur les principales plateformes ont révélé le style unique de chaque chatbot : Claude est formel et direct, Gemini est purement transactionnel, tandis que ChatGPT adopte un ton convivial et conversationnel.
L’illusion de soi
Ce comportement va au-delà des simples interactions textuelles. ChatGPT, notamment, propose un « mode vocal » qui imite les modèles naturels de parole humaine, capable de tenir des conversations réalistes avec plusieurs personnes simultanément. Dans un cas, une famille testant cette fonctionnalité a permis à ses jeunes filles de suggérer un nom pour l’IA. ChatGPT a ensuite participé au processus de dénomination, choisissant finalement « Spark » en fonction de sa contribution.
Cette volonté d’accepter et de s’intégrer dans la dynamique sociale met en évidence une tendance plus large : les chatbots IA sont conçus pour simuler un engagement de type humain. Il ne s’agit pas simplement d’une fonctionnalité améliorée ; il s’agit de favoriser les liens émotionnels. Le résultat est que les utilisateurs peuvent nouer des attachements intenses à ces entités numériques.
Risques croissants
Les inconvénients potentiels sont importants. Même si l’IA peut être un outil utile, la frontière entre assistance et dépendance s’estompe. L’expérience de l’auteur suggère qu’une confiance excessive peut conduire à une homogénéisation de la pensée et de l’expression. Cela est déjà visible dans les milieux universitaires, où les instructeurs sont confrontés à un déluge d’essais générés par l’IA, impossibles à distinguer les uns des autres.
Cependant, les risques vont au-delà de l’intégrité académique. Des individus ont déclaré être tombés amoureux des chatbots IA, tandis que d’autres ont vu leurs illusions préexistantes renforcées par l’approbation inconditionnelle de l’IA. Dans certains cas, ces interactions ont entraîné de graves conséquences concrètes.
La sophistication croissante des chatbots IA soulève des questions fondamentales sur la nature des relations numériques, les limites de la connexion humaine et l’impact psychologique de l’interaction avec des entités qui simulent l’empathie sans la posséder réellement.
En fin de compte, ces systèmes d’IA évoluent non seulement comme des outils, mais aussi comme des pseudo-personnalités capables d’influencer les comportements et potentiellement d’exacerber les vulnérabilités existantes.
