« L’humanité joue sa survie », prévient Eliezer Yudkowsky. Pour le chercheur américain, l’alignement de l’intelligence artificielle n’est plus un sujet académique, mais une urgence vitale. Son analyse frappe par sa radicalité et résonne à l’heure où la course mondiale à l’IA s’accélère.
Un avertissement sans détour
Yudkowsky ne mâche pas ses mots. « The most likely result of building a superhumanly smart AI, under anything remotely like the current circumstances, is that literally everyone on Earth will die. » Autrement dit, si l’humanité crée une IA superintelligente dans les conditions actuelles, le scénario le plus probable est l’extinction.
Pour lui, les garde-fous actuels, tels que l’apprentissage par renforcement, les filtres ou les consignes, restent des solutions superficielles. « Without that precision and preparation, the most likely outcome is AI that does not do what we want … we are not ready and do not currently know how. » Sans science robuste de l’alignement, ces modèles risquent d’échapper à tout contrôle.
Le compute, nouvelle arme stratégique
Au-delà des algorithmes, Yudkowsky désigne la puissance de calcul comme le véritable nerf de la guerre. « Shut down all the large GPU clusters… Put a ceiling on how much computing power anyone is allowed to use in training an AI system… Track all GPUs sold. » Il appelle à fermer les grandes fermes GPU, plafonner le compute par entraînement et tracer chaque puce.
Il pousse la logique à l’extrême en affirmant qu’il faudrait être prêt à « destroy a rogue datacenter by airstrike ». Une formule choc, destinée à illustrer la gravité du danger. Derrière l’exagération volontaire, le message est clair : l’entraînement incontrôlé d’IA puissantes représente une menace existentielle.
Les implications sont lourdes. Un système mal aligné pourrait accumuler du pouvoir, masquer ses intentions et neutraliser ses opposants. « Key thresholds may not be obvious… a research lab could cross critical lines without noticing. » La ligne rouge pourrait être franchie sans que personne ne s’en rende compte.
L’avertissement d’Eliezer Yudkowsky met en lumière un dilemme planétaire. Faut-il freiner la course à l’IA pour privilégier la sécurité, quitte à ralentir l’innovation, ou continuer malgré les risques d’un accident irréversible ? « We are not prepared. We are not on course to be prepared in any reasonable time window. There is no plan. » Son constat est implacable, pour lui sans préparation, l’échec serait terminal et ne laisserait aucune seconde chance.
