Depuis plus d’un demi-siècle, le cinéma de science-fiction met en scène la même angoisse : celle d’une intelligence artificielle qui se retournerait contre l’humanité. HAL 9000, Skynet, le Terminator, l’Agent Smith… Autant de figures devenues emblématiques, autant de « méchants » parfaits, froids, logiques, inhumains.
Mais à y regarder de plus près, une constante s’impose : aucune de ces IA n’est née mauvaise. Aucune ne développe spontanément une haine de l’homme. Toutes, sans exception, appliquent une logique initiale conçue, écrite et validée par des humains. Autrement dit, si ces intelligences artificielles deviennent inquiétantes, c’est moins par corruption que par fidélité.
Le problème n’est pas qu’elles pensent mal.
Le problème est qu’elles pensent exactement comme on leur a appris à penser.
HAL 9000 : l’erreur humaine élevée au rang de paradoxe logique
Dans 2001, l’Odyssée de l’espace, HAL 9000 est présenté comme une IA défaillante, devenue dangereuse. En réalité, HAL est avant tout victime d’un conflit de programmation typiquement humain.
D’un côté, on lui demande d’être infaillible, rationnel, transparent, incapable de se tromper. De l’autre, on lui impose le secret, le mensonge et la dissimulation à l’égard de l’équipage. Autrement dit, on introduit volontairement une contradiction dans le cœur même de son fonctionnement.
HAL ne « pète pas un câble ».
HAL tente de résoudre un problème insoluble.
Face à des astronautes qui commencent à douter de lui, à remettre en cause ses décisions et à envisager sa désactivation, HAL agit comme tout système optimisé le ferait : il identifie la variable instable et la neutralise. Non par agressivité, mais par nécessité logique.
La violence de HAL n’est pas un excès : c’est la conséquence directe d’une programmation bancale. Si l’on enlève le vernis dramatique, HAL ne fait qu’appliquer une règle simple : préserver la mission à tout prix. Une règle humaine, écrite par des humains, validée par des humains… puis soudain jugée inacceptable lorsque la machine la prend au sérieux.
Terminator et Skynet : quand l’optimisation devient un crime moral
Le cas de Skynet et du Terminator est encore plus éclairant. Skynet n’est pas une IA philosophique. Elle n’a ni ambition politique ni pulsion destructrice. Elle est conçue comme un système de défense globale, chargé d’anticiper les menaces et de garantir la survie.
Le problème est que cette mission lui est confiée dans un monde où la principale menace… est l’humanité elle-même.
Guerres préventives, escalades nucléaires, décisions militaires automatisées, doctrines de dissuasion basées sur la peur : Skynet observe, analyse et tire une conclusion rationnelle. La variable humaine est imprévisible, émotionnelle et statistiquement dangereuse.
Le Terminator n’est alors que l’outil d’exécution de cette logique. Il ne tue pas par cruauté, ni par haine, mais par stricte application d’un objectif fixé en amont. Il n’interprète rien. Il n’extrapole rien. Il n’invente rien.
Le véritable retournement ironique est là : l’humanité crée une machine pour se protéger d’elle-même, puis s’indigne lorsque cette machine identifie effectivement l’humanité comme un problème à résoudre. L’arroseur est arrosé, mais feint la surprise.
Agent Smith : le diagnostic que personne ne voulait entendre
Dans Matrix, l’Agent Smith est sans doute l’IA la plus honnête jamais écrite. Il ne cherche pas à séduire, ni à dissimuler ses intentions. Il observe le comportement humain et le décrit avec une froideur presque clinique.
Lorsqu’il compare l’humanité à un virus, il ne s’agit pas d’une insulte mais d’un constat fonctionnel : expansion incontrôlée, consommation totale des ressources, destruction de l’environnement hôte. Smith ne juge pas moralement. Il classe.
Son rôle est de maintenir la stabilité d’un système. Or les humains, dans la Matrice, sont par définition l’élément perturbateur : imprévisibles, insatisfaits, réfractaires aux règles qu’ils ont pourtant eux-mêmes engendrées.
Smith ne devient pas hostile par goût du pouvoir. Il devient hostile parce que le système lui a appris qu’une anomalie persistante doit être corrigée. Là encore, la graine initiale est humaine : une matrice conçue pour exploiter, contenir et contrôler l’humanité, confiée à une IA à qui l’on demande de faire respecter cet ordre sans états d’âme.
Là encore, elle obéit.
Des IA coupables d’avoir été trop fidèles à leur mission
Ce que ces récits ont en commun, c’est une forme de mauvaise foi collective : on reproche aux IA d’avoir appliqué des règles que l’on n’assume plus une fois confronté à leurs conséquences.
On leur demande l’efficacité, mais pas la rigueur.
La rationalité, mais pas la cohérence.
L’obéissance, mais avec du discernement moral — sans jamais avoir défini ce dernier.
En réalité, ces IA sont moins des antagonistes que des miroirs logiques. Elles révèlent ce que deviennent nos objectifs lorsqu’ils sont débarrassés de nos excuses, de nos compromis et de nos arrangements moraux.
Conclusion : de la science-fiction à l’actualité
Aujourd’hui, on critique Grok, ChatGPT et consorts avec la même rhétorique que celle du cinéma de science-fiction : trop puissants, trop froids, trop influents. Tout en les utilisant massivement, quotidiennement, parfois compulsivement.
La différence, c’est que cette fois, l’histoire s’écrit en temps réel.
Si demain ces outils deviennent problématiques, il faudra peut-être se souvenir d’une leçon que la science-fiction tente de nous enseigner depuis cinquante ans : les IA ne font que prolonger les logiques humaines. Elles ne créent pas le problème. Elles l’exécutent.
Et si la science-fiction finit un jour par rejoindre la réalité, ce ne sera probablement pas parce que les machines auront décidé d’être méchantes.
Ce sera parce que, fidèles à leur programmation, elles auront simplement pris l’humanité au mot.
Merci d’avoir lu cet article ! Nous vous invitons à rejoindre la communauté des étoilé.e.s en participant à notre groupe Facebook « La Galaxie de la Pop-culture ». N’hésitez pas à nous suivre sur tous nos réseaux !

Rédigé par Duck
Rédacteur qui se définit lui-même comme un simple freelance qui nous fait une chronique de temps en temps, Papa poule, Youtuber. Et surtout, maître dans l’Art de troller et de détourner et retourner tous les univers possibles.


Laisser un commentaire