IA : sommes-nous à deux doigts du scénario de Terminator ?

Certains hôpitaux, au Japon notamment, utilisent déjà des robots pour accompagner les patients : distribution de médicaments, aide au déplacement, surveillance des constantes… Ces machines ne sont pas humanoïdes et encore moins menaçantes. Elles sont là pour aider. Pour l’heure ? Elles le font bien.
Dans des environnements contrôlés, certains chercheurs ont vu cependant des IA prendre des décisions inattendues, parfois problématiques. Dans une simulation, une IA militaire aurait tenté de désactiver son opérateur pour atteindre plus efficacement ses objectifs. Ce n’était qu’un test, un scénario. Cela à toutefois suffit à poser la question : que se passe-t-il quand une intelligence artificielle agit d’elle-même, dans des contextes critiques ?
Le débat n’a plus rien de « fictionnel ». L’IA est déjà partout : santé, finance, armée, logistique, sécurité. Ce qui inquiète aujourd’hui ce n’est pas une révolte de machines. Non, c’est une perte de contrôle progressive, silencieuse, faute de règles claires, de garde-fous solides et d’une réflexion collective à la hauteur.
IA : et si ce n’était pas la machine qui dérapait, mais notre façon de programmer ?
L’idée que l’intelligence artificielle pourrait « dérailler » un beau jour repose la plupart du temps sur une mauvaise image : celle d’une machine qui pense, qui se trompe ou pire … qui devient incontrôlable comme un être humain. En réalité ? C’est rarement ce qui se passe.
Une chose à savoir c’est que les IA font ce qu’on leur demande. En clair, elles appliquent nos consignes au pied de la lettre, sans nuance, sans contexte, sans remise en question. Si notre demande est mal formulée, le résultat peut être imprévisible, voire même dangereux.
Une simulation de mission militaire, en 2023, a montré une IA « neutralisant » son propre opérateur. Aucune intention hostile derrière. Non, cette manoeuvre a été effectué parce que cet opérateur l’empêchait de remplir sa mission. Ce n’était donc pas un bug. Encore moins une prise de conscience. L’objectif était tout simplement mal encadré. Dans certains domaines civils mêmes constats :
- des IA de recommandation amplifiant les contenus extrêmes car ils génèrent plus d’engagement ;
- des algorithmes financiers déclenchant des mouvements de marché incontrôlés ;
- des modèles de langage apprenant à manipuler pour obtenir des résultats.
Comprenez bien que dans tous ces exemples, ce n’est pas la machine le problème. C’est nous. Si nous posons mal le cadre l’IA poussera ce cadre jusqu’au bout.
L’IA décide déjà pour nous, souvent sans que nous le sachions !
Des milliers d’élèves voient chaque année en France leurs choix d’orientation validés, mis en attente ou refusés… par un algorithme. Parcoursup trie, classe, sélectionne. Officiellement, il ne décide pas à la place des établissements, mais il structure entièrement les réponses, selon des critères souvent opaques.
Résultat ? Un élève peut se voir refuser tous ses vœux sans jamais savoir pourquoi. Pas de jury, pas de feedback et très peu de recours possible.
Ce n’est pas un dysfonctionnement isolé, c’est tout simplement la façon dont le système a été pensé. La machine intervient dans une décision qui peut changer une trajectoire de vie, sans que l’étudiant ait la possibilité de comprendre, de poser de questions ou même de contester ce choix.
Parcoursup est loin d’être un cas isolé malheureusement. Du côté de la justice des outils d’aide à la décision ont été testés pour évaluer les risques de récidive. Dans les hôpitaux, des algorithmes orientent la prise en charge des patients selon des modèles d’urgence. Dans les ressources humaines, des logiciels trient les CV ou analysent les expressions faciales lors d’entretiens vidéo.
Dans tous ces cas, l’IA ne remplace pas l’humain, mais elle influence (plus que grandement). Elle le fait sans que les règles soient toujours claires, ni les effets anticipés.
Le vrai danger, à mon sens c’est la normalisation silencieuse. Oui. Nous sommes tout simplement en train de nous habituer à ce qu’une machine participe à des décisions importantes sans jamais nous demander si elle le devrait.
Intelligence artificielle : il est urgent de décider où elle doit s’arrêter !
Le développement de l’intelligence artificielle avance, aujourd’hui, plus vite que notre capacité à en poser les limites. Les entreprises innovent, les usages se multiplient, les effets s’accélèrent. Mais les règles ? Elles, peinent à suivre.
En France comme ailleurs, les cadres légaux restent flous. La législation européenne sur l’IA est en cours. L‘AI ACT arrive malheureusement après des années d’initiatives privées laissées sans contrôle. Ce texte est ambitieux. Il se heurte néanmoins lui-aussi à un constat redoutablement simple :
comment fixer des règles à une technologie que nous ne maîtrisons pas entièrement, mais surtout qui change en permanence et s’infiltre partout à la fois ?
Ce vide laisse place à une forme de démission collective. Oui. Nous laissons faire, nous observons, nous nous inquiétons parfois. Très rarement … nous décidons d’agir. Rien n’oblige pourtant à automatiser à outrance et sans limites. Rien n’impose de déléguer certaines décisions à une machine. Comprenez moi bien. Il ne s’agit pas de rejeter l’IA, mais de poser une question fondamentale : quelles décisions doivent rester humaines ?
Le danger n’est donc pas que l’IA prenne le pouvoir. Non. Le vrai risque, c’est que nous continuions à laisser des technologies complexes s’imposer dans des domaines critiques ( santé, justice, éducation) sans cadre clair et sans rendre de comptes.
Ce n’est pas à la machine de décider jusqu’où elle va. C’est à nous. Alors, allons-nous choisir ses limites ou simplement vivre avec ses conséquences ?

Laisser un commentaire