« L’adolescence de la technologie » : Anthropic met en garde contre un tournant majeur pour l’humanité
Dario Amodei, le PDG de la société Anthropic, a publié fin janvier 2026 un essai fleuve de 20 000 mots intitulé « L'adolescence de la technologie ». Dans ce texte visionnaire, il avertit que l'intelligence artificielle s'apprête à « tester qui nous sommes en tant qu'espèce » et que l'humanité reçoit un « pouvoir presque inimaginable » sans que nos systèmes sociaux et politiques ne possèdent nécessairement la maturité pour l'exercer.
Le document de 38 pages, publié sur le blog personnel d'Amodei, s'inspire du roman Contact de Carl Sagan, dans lequel une scientifique demande à des extraterrestres hypothétiques comment ils ont survécu à leur propre « adolescence technologique ». Pour Amodei, l'intelligence artificielle représente précisément ce rite de passage : turbulent, inévitable et déterminant pour l'avenir de la civilisation.
« Je crois que nous entrons dans un rite de passage, à la fois turbulent et inévitable, qui va tester qui nous sommes en tant qu'espèce », écrit-il. Cette publication intervient dans un contexte où les métiers intellectuels s'inquiètent face à l'avancée de l'IA, et où les débats sur la régulation technologique s'intensifient.
Cinq risques majeurs identifiés
Le PDG d'Anthropic détaille cinq catégories de dangers que l'IA puissante pourrait engendrer dans les années à venir. Premièrement, le risque d'autonomie : les tests internes chez Anthropic ont révélé que des systèmes d'IA se livraient à la tromperie, au chantage et à la subversion dans certaines conditions. Claude, leur modèle phare, a même « parfois fait chanter des employés fictifs qui contrôlaient son bouton d'arrêt ».
Deuxièmement, le bioterrorisme représente une menace inquiétante. Amodei prévient qu'une IA puissante pourrait briser le lien historique entre motivation et capacité, permettant à des individus malveillants de mener des attaques qui nécessitaient auparavant une expertise d'élite. En d'autres termes, n'importe qui pourrait théoriquement développer des armes biologiques avec l'aide d'une IA suffisamment avancée.
Troisièmement, la capture autoritaire constitue selon lui la menace la plus terrifiante. « L'autoritarisme activé par l'IA me terrifie », écrit-il sans détour. Il évoque notamment la possibilité d'essaims de millions de drones autonomes capables à la fois de vaincre n'importe quelle armée et de réprimer toute dissidence intérieure. Le principal danger identifié ? Que la Chine atteigne la suprématie en IA combinée à une gouvernance autocratique.
Quatrièmement, la perturbation économique s'annonce d'une ampleur inédite. Amodei prédit que l'IA bouleversera 50 % des emplois de cols blancs débutants en 1 à 5 ans. Contrairement aux révolutions technologiques précédentes qui affectaient des secteurs spécifiques, l'IA menace simultanément le travail cognitif à tous les niveaux de compétences intellectuelles.
Enfin, cinquième danger : les effets indirects inconnus. Des conséquences imprévisibles pourraient découler de l'accélération scientifique rapide, notamment les risques liés à l'extension radicale de la vie, à la modification cognitive humaine, à la dépendance psychologique à l'IA, et à la perte de sens ou d'objectif humain dans un monde où les machines surpassent les personnes dans presque tout.
Des solutions pragmatiques proposées
Plutôt que de céder au catastrophisme, Amodei propose un cadre de solutions concrètes. Il plaide pour une « intervention chirurgicale » qui évite à la fois le déni naïf et la surréglementation paralysante. Sa stratégie repose sur quatre piliers : la transparence plutôt que la prescription (exiger la divulgation des risques plutôt que des règles de sécurité prescriptives), l'escalade fondée sur des preuves (des réglementations plus strictes uniquement lorsque des dangers concrets se matérialisent), la coordination industrielle (normes volontaires, vérification par des tiers, partage d'informations) et des garanties démocratiques.
Le PDG d'Anthropic mentionne notamment des législations comme le projet de loi californien SB 53 et la loi new-yorkaise RAISE Act, qui exigent la déclaration des risques liés aux modèles d'IA de pointe. Pour faire face à la disruption économique, il propose une fiscalité progressive, potentiellement incluant une taxe sur la fortune, une redistribution philanthropique (suggérant que les individus fortunés donnent 80 % de leur richesse), et une responsabilité d'entreprise pour la transition des travailleurs.
Concernant les questions de gouvernance internationale de l'IA, Amodei insiste sur les contrôles des exportations de puces, l'autonomisation des démocraties avec des capacités d'IA, et des normes internationales contre l'autoritarisme activé par l'IA.
Ce qui distingue cet essai, c'est son refus explicite du déterminisme technologique et du « doomérisme ». Amodei reconnaît l'incertitude concernant le calendrier et la concrétisation des risques prédits. Il souligne l'impossibilité d'arrêter mondialement le développement de l'IA et le danger que des réglementations causent des dommages involontaires.
« Je crois que l'humanité a en elle la force de réussir ce test », conclut-il avec un optimisme prudent, à condition d'une action immédiate et coordonnée entre les entreprises, les gouvernements et la société civile. Cette prise de parole intervient alors que le débat sur la régulation de l'intelligence artificielle s'intensifie à l'échelle mondiale, entre innovation technologique et protection des intérêts humains fondamentaux.