PARTAGER | IMPRIMER | E-MAIL
Avant la Covid, je me serais décrit comme un optimiste technologique. Les nouvelles technologies arrivent presque toujours au milieu de craintes exagérées. On pensait que les chemins de fer allaient provoquer des crises de nerfs, que les vélos rendaient les femmes stériles ou folles, et que les débuts de l'électricité étaient responsables de tous les maux, de la décadence morale à l'effondrement physique. Avec le temps, ces angoisses se sont dissipées, les sociétés se sont adaptées et le niveau de vie s'est amélioré. Ce schéma était suffisamment familier pour que l'intelligence artificielle semble susceptible de suivre le même chemin : perturbatrice, parfois mal utilisée, mais finalement maîtrisable.
Les années Covid ont ébranlé cette confiance, non pas à cause d'une défaillance technologique, mais à cause d'une défaillance institutionnelle.
Dans une grande partie du monde, les gouvernements et les instances d'experts ont réagi à l'incertitude par des interventions sociales et biomédicales sans précédent, justifiées par des scénarios pessimistes et appliquées avec une assurance déconcertante. Les hypothèses concurrentes ont été marginalisées plutôt que débattues. Les mesures d'urgence se sont transformées en politiques à long terme. Lorsque les données ont évolué, les aveux d'erreur étaient rares, et la responsabilisation encore plus. Cette expérience a révélé un problème plus profond qu'une simple erreur politique : les institutions modernes semblent mal préparées à gérer l'incertitude sans abus de pouvoir.
Cette leçon pèse désormais lourdement dans les débats sur l'intelligence artificielle.
Le fossé des risques liés à l'IA
De manière générale, les inquiétudes concernant l'IA avancée se divisent en deux camps. Un groupe, associé à des penseurs comme Eliezer Yudkowsky et Nate Soares, soutient qu'une IA suffisamment avancée est par nature catastrophique. Dans leur formulation délibérément radicale, Si quelqu'un le construit, tout le monde meurt.Le problème ne réside pas dans les mauvaises intentions, mais dans les incitations : la concurrence garantit que certains prendront des raccourcis, et une fois qu'un système échappe à tout contrôle significatif, les intentions n'ont plus d'importance.
Un deuxième groupe, comprenant des personnalités telles que Stuart Russell, Nick Bostrom et Max Tegmark, prend également les risques liés à l'IA au sérieux, mais se montre plus optimiste quant à la capacité de l'alignement, d'une gouvernance rigoureuse et d'un déploiement progressif à maintenir les systèmes sous contrôle humain.
Malgré leurs divergences, les deux camps s'accordent sur un point : le développement incontrôlé de l'IA est dangereux et une forme de contrôle, de coordination ou de limitation est nécessaire. Leurs points de désaccord portent sur la faisabilité et l'urgence. Or, on examine rarement si les institutions censées exercer cette limitation sont elles-mêmes aptes à assumer ce rôle.
La Covid-19 suscite des doutes.
La Covid-19 n'était pas qu'une simple crise sanitaire ; c'était une expérience grandeur nature de gouvernance par des experts en situation d'incertitude. Face à des données incomplètes, les autorités ont systématiquement opté pour des interventions maximales, justifiées par des risques hypothétiques. La dissidence était souvent perçue comme une faute morale plutôt que comme une nécessité scientifique. Les politiques étaient défendues non pas par une analyse coûts-avantages transparente, mais par des arguments d'autorité et la crainte d'un avenir hypothétique.
Ce schéma est important car il révèle le comportement des institutions modernes lorsque les enjeux sont perçus comme existentiels. Les incitations se déplacent vers la prise de décision rapide, la maîtrise du récit et la certitude morale. La correction des erreurs devient coûteuse en termes de réputation. La précaution cesse d'être un outil et devient une doctrine.
La leçon à tirer n'est pas que les experts soient fondamentalement erronés. Elle est que les institutions récompensent bien plus souvent la confiance excessive que l'humilité, surtout lorsque la politique, les financements et la peur du public convergent. Une fois que des pouvoirs extraordinaires sont revendiqués au nom de la sécurité, ils sont rarement abandonnés de bon gré.
Ce sont précisément ces dynamiques qui sont aujourd'hui visibles dans les discussions sur la supervision de l'IA.
La machine du « Et si »
Une justification récurrente de l'interventionnisme étatique extensif est l'hypothétique acteur malveillant : Et si un terroriste construisait ça ? Et si un État voyou faisait ça ? De ce postulat découle l'argument selon lequel les gouvernements doivent agir de manière préventive, à grande échelle et souvent en secret, pour éviter une catastrophe.
Pendant la pandémie de Covid, une logique similaire a justifié des programmes de recherche biomédicale de grande envergure, des autorisations d'urgence et des contrôles sociaux. Le raisonnement était circulaire : parce que quelque chose est dangereux pourrait Si cela se produit, l'État doit prendre des mesures extraordinaires dès maintenant – des mesures qui comportent elles-mêmes des risques importants et mal compris.
La gouvernance de l'IA est de plus en plus souvent conçue de la même manière. Le danger ne réside pas seulement dans le comportement imprévisible potentiel des systèmes d'IA, mais aussi dans la crainte que cette éventualité ne légitime une gouvernance d'urgence permanente – un contrôle centralisé des calculs, de la recherche et des flux d'information – sous prétexte qu'il n'existe aucune alternative.
Risque privé, risque public
Une distinction souvent négligée dans ces débats concerne les risques engendrés par les acteurs privés et ceux engendrés par l'autorité étatique. Les entreprises privées sont soumises à des contraintes – imparfaites, certes, mais significatives – liées à leur responsabilité, à la concurrence, à leur réputation et à la discipline du marché. Ces contraintes n'éliminent pas les préjudices, mais elles créent des mécanismes de rétroaction.
Les gouvernements fonctionnent différemment. Lorsque les États agissent au nom de la prévention des catastrophes, le dialogue s'affaiblit. Les échecs peuvent être requalifiés de nécessités. Les coûts peuvent être externalisés. Le secret peut être justifié par la sécurité. Des préjudices futurs hypothétiques deviennent des leviers politiques dans le présent.
Plusieurs experts en IA le reconnaissent implicitement. Bostrom a mis en garde contre les effets de « verrouillage », non seulement liés aux systèmes d'IA, mais aussi aux structures de gouvernance créées dans la panique. L'appel d'Anthony Aguirre à la retenue mondiale, bien que logiquement cohérent, repose sur des instances de coordination internationales dont les récents résultats en matière d'humilité et de correction des erreurs laissent à désirer. Même les propositions les plus modérées supposent des régulateurs capables de résister à la politisation et à la dérive de leurs missions.
La Covid-19 nous donne peu de raisons d'avoir confiance en cette hypothèse.
Le paradoxe de la surveillance
Cela conduit à un paradoxe troublant au cœur du débat sur l'IA. Si l'on croit sincèrement que le développement des IA avancées doit être encadré, ralenti, voire stoppé, ce sont les gouvernements et les institutions transnationales qui ont le plus de chances de détenir le pouvoir d'agir. Or, ce sont précisément ces acteurs dont le comportement récent inspire le moins confiance dans un usage mesuré et réversible de ce pouvoir.
La notion d'urgence est tenace. L'autorité acquise pour gérer des risques hypothétiques tend à perdurer et à s'étendre. Les institutions minimisent rarement leur propre importance. Dans le contexte de l'IA, cela soulève la possibilité que la réponse aux risques liés à l'IA renforce des systèmes de contrôle fragiles et politisés, plus difficiles à démanteler que n'importe quelle technologie prise individuellement.
Autrement dit, le danger ne réside pas seulement dans le fait que l'IA échappe au contrôle humain, mais aussi dans le fait que la peur de l'IA accélère la concentration du pouvoir dans des institutions déjà reconnues pour leur lenteur à admettre leurs erreurs et leur hostilité envers la dissidence.
Repenser le risque réel
Il ne s'agit pas ici de prôner la complaisance envers l'IA, ni de nier que les technologies puissantes puissent causer de réels dommages. Il s'agit plutôt d'élargir notre perspective. La défaillance institutionnelle est en elle-même une variable existentielle. Un système qui suppose une gouvernance bienveillante et autorégulatrice n'est pas plus sûr qu'un système qui suppose une superintelligence bienveillante et alignée sur les intérêts de l'IA.
Avant la Covid, il était raisonnable d'attribuer la plupart du pessimisme technologique au biais de négativité humain — la tendance à croire que les défis de notre génération sont particulièrement insurmontables. Après la Covid, le scepticisme apparaît moins comme un biais et davantage comme une expérience.
La question centrale du débat sur l'IA n'est donc pas seulement de savoir si les machines peuvent être alignées sur les valeurs humaines, mais aussi si l'on peut faire confiance aux institutions modernes pour gérer l'incertitude sans l'amplifier. Si cette confiance s'est érodée — et la Covid-19 semble le confirmer —, alors les appels à une surveillance accrue de l'IA méritent au moins autant d'attention que les affirmations d'une fatalité technologique.
Le plus grand risque n’est peut-être pas que l’IA devienne trop puissante, mais que la peur de cette éventualité justifie des formes de contrôle dont on découvre plus tard qu’elles sont bien plus difficiles à supporter – ou auxquelles il est impossible de s’échapper.
-
Roger Bate est Brownstone Fellow, Senior Fellow au Centre international de droit et d'économie (de janvier 2023 à aujourd'hui), membre du conseil d'administration d'Africa Fighting Malaria (de septembre 2000 à aujourd'hui) et Fellow à l'Institute of Economic Affairs (de janvier 2000 à aujourd'hui).
Voir tous les messages