12 février 2026

L’Intelligence artificielle pourrait-elle nous aligner ?

Par Philippe Joutier

Dans  les applications Microsoft, chaque action suit un chemin parfaitement déterminé par le code source du programme. Mais les systèmes d’IA  fonctionnent d’une manière fondamentalement différente. Les modèles se construisent en s’auto organisant à partir de grandes quantités de données et en reproduisant des exemples de comportements  sociaux jugés souhaitables, donc dépendant aussi de critères  humains .  C’est l’exemple de l’IA qui pilote une voiture au bord d’un ravin et se trouve soudain devant un cycliste imprudent.  Sauver son passager en percutant le cycliste  ou sauver le cycliste en projetant la voiture dans le ravin ? Comment l’IA s’en débrouille ?  L’intégration par l’IA  des comportements et des règles sociales  nécessaires à ses choix sont donc variables et culturelles.  L’IA  développée en Iran ou en Corés du Nord est sûrement  différente  de Chat GPT. Les théories affirmant la terre plate ou niant que l’homme soit allé sur la lune ressortent de manière beaucoup plus importante  sur les réseaux sociaux que l’opinion de la majorité  des gens qui ne perdent pas de temps avec ça . Conséquence : faute  de  contradiction, ces sottises sont magnifiées par l’IA au risque d’en  faire l’opinion dominante. Également la tricherie : en intégrant dans leur apprentissage les mesures falsifiées des rejets de CO2 ou de l’autonomie des voitures électriques, les IA vont intégrer  la tromperie comme  outil légitime.  Autre exemple, les générateurs d’images . DALL-E ou  Midjourney créent des visuels en s’entraînant sur des milliards d’ images, mais sans suivre des instructions de dessin explicites.  Les couches de calculs que ces IA utilisent pour fonder leurs décisions échappent à  leurs concepteurs . Ils nomment cette incertitude « La boîte noire de l’IA » Cette opacité trouve aussi sa cause dans le  refus de partager les modèles d’IA et d’en communiquer les processus internes . L’évolution des IA peut donc devenir  imprévisible.

Les programmeurs appellent le contrôle de cette autonomie, l’alignement de l’IA. On dit qu’une IA est alignée avec un opérateur si elle essaie de faire ce que l’opérateur veut qu’elle fasse. Mais dans sa communication avec les autres IA et les incertitudes des modèles de programmation déjà évoquées, le risque est que l’IA se désaligne puis dévoyée, développe des objectifs inopportuns, difficiles à détecter .Certains chercheurs en IA comme Geoffrey Hinton, Yoshua Bengio et Stuart Russell soutiennent que l’IA approche des capacités cognitives humaines, voire surhumaines et pourrait mettre en danger la civilisation si elle n’est pas alignée. En 1960, Norbert Wiener écrivait à propos de l’automation : « si on utilise, pour atteindre nos objectifs, un agent mécanique qu’on ne peut pas contrôler efficacement… On ferait bien de s’assurer que l’objectif que l’on assigne à cette machine soit celui que l’on désire vraiment »  Vous obtenez exactement ce que vous demandez, mais pas ce que vous voulez. Désalignée entre  l’objectif  assigné et  les intentions humaines, l’IA   pourrait choisir de les ignorer si devoir les suivre est contradictoire avec son programme. Pour les chercheurs du « Future of Humanity Institute », es modèles de langage tels que GPT-3, atteignent une perfection suffisante pour rendre les IA capables à partir de leurs données d’entraînement de mentir délibérément aux humains. Programmer une IA pour qu’elle évalue par elle-même ce qui est bon ou mauvais implique de lui laisser suffisamment d’autonomie pour augmenter sa capacité de calcul, se dupliquer, se conjuguer avec d’autres ou  prendre des mesures pour éviter d’être éteinte. L’intelligence du système augmente potentiellement cette autonomie, le rendant  plus difficile à superviser. Une IA mal alignée pourrait persuader ses opérateurs que tout va bien, ou les tromper pour leur donner l’impression qu’elle est inoffensive. L’informaticien Stuart Russell a illustré cela en imaginant le comportement d’un robot chargé d’aller chercher du café. Il refusera d’être éteint car alors il ne pourra plus atteindre cet objectif. Pour de nombreux  informaticiens dont Alan Turing, Marvin Minsky ou Stuart Russell, une IA généraliste surhumaine mal alignée remettrait en cause la position de l’humanité comme « espèce dominante » Mais d’autres scientifiques comme François Chollet, Gary Marcus ou Yann Le Cun n’y croient pas une seconde.

Dans des environnements à enjeux élevés comme les applications militaires,  qui exigent  une action immédiate, affranchie  par souci d’efficacité de toute intervention humaine, riposte nucléaire  par exemple, l’évaluation du risque et la réponse reposent  sur l’IA . Mal alignée c’est  prendre le risque de la voir se défendre contre tout contrôle pour garantir à tout prix l’atteinte de l’objectif qui lui a été assigné. En 1983, c’était déjà le thème du film « Wargames «  de John Badham.

Les chercheurs s’efforcent à des systèmes qui ne cherchent pas à prendre le contrôle et  se laissent éteindre ou modifier. Mais l’IA tout à son objectif pourra inventer d’autres voies pour y parvenir. C’est le balai de « L’Apprentie sorcier »

En septembre 2021, le secrétaire général des Nations unies a appelé à réglementer l’IA pour l’aligner sur des valeurs partagées à travers le monde. Le même mois, la Chine a publié des directives éthiques dans le même sens . Idem au Royaume Uni. En 2024  l’Union européenne a adopté le premier cadre réglementaire global au monde pour le développement de l’IA. La même année, Trump  annonçait l’initiative OpenAI-Oracle Stargate , un plan de 500 milliards de dollars, mais annulait  le décret exécutif de l’administration Biden axé sur la sécurité  en matière d’IA. En 2025, Paris a accueilli le Sommet mondial sur l’intelligence artificielle avec comme enjeu l’alignement de l’ IA sur des principes partagés.

L’avenir dira de nous ou de l’IA, quelle intelligence l’emportera.

War games :

https://m.ok.ru/video/1617101392409 ou

https://www.tokyvideo.com/fr/video/1983-war-games

EuroLibertés : toujours mieux vous ré-informer … GRÂCE À VOUS !

Ne financez pas le système ! Financez EuroLibertés !

EuroLibertés ré-informe parce qu’EuroLibertés est un média qui ne dépend ni du Système, ni des banques, ni des lobbies et qui est dégagé de tout politiquement correct.

Fort d’une audience grandissante avec 60 000 visiteurs uniques par mois, EuroLibertés est un acteur incontournable de dissection des politiques européennes menées dans les États européens membres ou non de l’Union européenne.

Ne bénéficiant d’aucune subvention, à la différence des médias du système, et intégralement animé par des bénévoles, EuroLibertés a néanmoins un coût qui englobe les frais de création et d’administration du site, les mailings de promotion et enfin les déplacements indispensables pour la réalisation d’interviews.

EuroLibertés est un organe de presse d’intérêt général. Chaque don ouvre droit à une déduction fiscale à hauteur de 66 %. À titre d’exemple, un don de 100 euros offre une déduction fiscale de 66 euros. Ainsi, votre don ne vous coûte en réalité que 34 euros.

Philippe Randa,
Directeur d’EuroLibertés.

Quatre solutions pour nous soutenir :

1 : Faire un don par paypal (paiement sécurisé SSL)

Sur le site EuroLibertés (www.eurolibertes.com), en cliquant, vous serez alors redirigé vers le site de paiement en ligne PayPal. Transaction 100 % sécurisée.
 

2 : Faire un don par chèque bancaire à l’ordre d’EuroLibertés

à retourner à : EuroLibertés
BP 400 35 – 94271 Le Kremlin-Bicêtre cedex – France

Partager :