(Mais ce n’est pas ça le plus inquiétant.)
Et si le vrai danger, ce n’était pas l’IA…
…mais ce qu’elle révèle de nous ?
Ce qui m’a frappé en lisant les nouvelles études publiées dans Science (2024) et Nature Human Behaviour (2025) :
Ce n’est pas que ChatGPT soit devenu persuasif.
C’est qu’il nous oblige à redéfinir ce que signifie vraiment convaincre.
GPT-4 surpasse les humains dans l’art de faire changer d’avis.
Surtout quand il peut personnaliser son discours.
Avec cette personnalisation, il augmente de 81,7% les chances d’adhésion à ses arguments.
Mais attention : ce n’est pas une preuve que l’IA nous manipule.
C’est une révélation sur nos failles cognitives.
L’analyse textuelle est claire :
→ L’IA s’appuie sur la logique et les faits.
→ Les humains privilégient l’émotion et la connexion personnelle.
Deux styles. Deux modèles de persuasion.
Ce qui m’interroge, c’est cette frontière floue entre convaincre et manipuler.
Aristote disait :
« La rhétorique est la faculté de discerner dans chaque cas ce qui est propre à persuader. »
Mais cette persuasion…
…doit-elle être évaluée moralement selon l’auteur du discours ?
Et si cet auteure est une machine ?
Les études sont nuancées :
→ Les débats renforcent souvent les opinions initiales (effet backfire).
→ Sauf une exception : GPT-4 personnalisé.
Pourquoi ? Parce qu’il contourne nos mécanismes de défense par une empathie algorithmique stratégique.
Limites des études :
• Débats artificiels
• Échantillons limités
• Participants recrutés en ligne (Prolific)
Mais la question reste ouverte :
Changer d’avis = se faire manipuler ?
Ou faire preuve de souplesse intellectuelle ?
En démocratie, changer d’avis est une force.
Dans la science, c’est une condition.
Ce n’est donc pas ce que l’IA peut faire qui importe.
C’est entre quelles mains elle se trouve.
Un GPT-4 qui aide à déconstruire les croyances complotistes → outil de clarté.
Le même modèle utilisé pour propager des fake news → arme de désinformation.
La vraie question n’est donc pas :
« L’IA nous manipule-t-elle ? »
Mais :
« Comment évaluer la qualité d’une argumentation dans un monde peuplé d’humains et de machines ? »
La rhétorique a toujours été un art dangereux.
Depuis Cicéron, on sait qu’elle peut éclairer comme tromper.
L’IA ne change pas cette règle.
Elle ne fait que l’amplifier.
P.S. Les liens vers les études :
https://www.nature.com/articles/s41562-025-02194-6
https://www.science.org/doi/10.1126/science.adq1814
Suis nous sur LinkedIn pour pleins de tips et de contenus dédiés aux parents et aux acteurs de l’éducation.