PARTAGER | IMPRIMER | E-MAIL
Il devient de plus en plus évident que beaucoup craignent le développement rapide de l'intelligence artificielle (IA), pour diverses raisons, notamment sa supériorité supposée sur les humains en matière de traitement et de manipulation de l'information, ainsi que son adaptabilité et son efficacité au travail, ce qui, selon beaucoup, entraînerait le remplacement de la plupart des êtres humains sur le marché de l'emploi. Amazon a récemment annoncé le remplacement de 14 000 personnes par des robots dotés d'IA, par exemple. Valdés écrit:
Les licenciements seraient les suivants plus grande de l'histoire d'Amazonet ce, quelques mois seulement après le départ du PDG Andy Jassy décrit sa vision pour la manière dont l'entreprise accélérerait rapidement son développement de IA générative et Agents d'IACes coupes budgétaires sont les dernières en date. une vague de licenciements cette année alors que les géants de la technologie, dont Microsoft, Accenture, Salesforce et l'indien TCS, ont réduit leurs effectifs de plusieurs milliers de personnes dans une course effrénée à l'investissement dans l'IA.
Pour éviter que cela ne soit trop perturbant, comparons cela à la déclaration rassurante, émanant qui plus est d'un développeur d'IA, selon laquelle les agents IA ne pourraient pas remplacer les êtres humains. Brian Shilhavy souligne que:
Andrej Karpathy, l'un des membres fondateurs d'OpenAI, a douché vendredi les espoirs d'une intelligence artificielle générale imminente. Il a également remis en question plusieurs hypothèses avancées par les plus fervents défenseurs de l'IA, tels que Dario Amodei d'Anthropic et Sam Altman d'OpenAI.
Karpathy, chercheur très respecté, a qualifié l'apprentissage par renforcement – sans doute le domaine de recherche le plus important actuellement – de « terrible », a déclaré que les agents de codage basés sur l'IA ne sont pas aussi passionnants que beaucoup le pensent, et a dit L'IA ne peut raisonner sur rien sur lequel elle n'a pas déjà été entraînée..
Ses propos, tirés d'une interview podcast avec Dwarkesh Patel, ont trouvé un écho favorable auprès de certains chercheurs en IA avec lesquels nous échangeons, notamment ceux ayant travaillé chez OpenAI et Anthropic. Ils faisaient également écho aux commentaires entendus par des chercheurs lors de la Conférence internationale sur l'apprentissage automatique qui s'est tenue plus tôt cette année.
Bon nombre des critiques que Karpathy adresse à son propre domaine semblent se résumer à un seul point : Même si nous avons tendance à anthropomorphiser les grands modèles de langage, leur apprentissage n'est pas comparable à celui des humains, ni même à celui des animaux..
Par exemple, les zèbres se lèvent et marchent quelques minutes seulement après leur naissance, ce qui suggère qu'ils naissent avec un certain niveau d'intelligence innée, tandis que les limaces doivent passer par d'innombrables essais et erreurs pour apprendre une nouvelle compétence, souligne Karpathy.
C'est déjà rassurant, mais pour dissiper toute crainte persistante vis-à-vis de l'IA, il convient d'approfondir les différences entre l'IA et les êtres humains. Une bonne compréhension de ces différences permettrait de réaliser que ces angoisses sont en grande partie infondées (même si certaines ne le sont pas, comme je le démontrerai plus loin). La différence la plus évidente réside dans le fait que l'IA (par exemple, ChatGPT) dépend d'une vaste base de données sur laquelle elle s'appuie pour répondre aux questions, questions qu'elle formule de manière prédictive grâce à la reconnaissance de formes. Ensuite, comme indiqué précédemment, même l'IA la plus sophistiquée doit être « entraînée » pour fournir l'information recherchée.
De plus, contrairement aux humains, il lui manque un accès « direct » à la réalité expérientielle en termes perceptifs et spatio-temporels – une situation que j'ai souvent constatée face à des personnes qui utilisent ChatGPT pour remettre en question certains arguments. Par exemple, lors d'une récente conférence où j'expliquais comment les travaux de Freud et d'Hannah Arendt – sur la civilisation et le totalitarisme respectivement – permettent de saisir la nature de l'offensive mondialiste contre la société existante, visant à établir un gouvernement mondial centralisé et contrôlé par une IA, un membre du public a imprimé la réponse de ChatGPT à la question de savoir si ces deux penseurs pouvaient effectivement apporter des éléments probants.
Comme prévu, le document résumait assez bien les travaux pertinents de ces deux penseurs, mais se heurtait à la nécessité de démontrer leur application à la menace croissante de contrôle totalitaire en temps réel. Mon interlocuteur s'en est servi pour remettre en question mes propres affirmations à ce sujet, partant du principe que la réponse du chatbot indiquait l'inexistence d'une telle menace. Il va sans dire qu'il a été facile de réfuter cette affirmation en lui rappelant que ChatGPT dépend de la fourniture de données pertinentes, alors que nous, humains, y avons accès par l'expérience, ce que je me suis empressé de lui expliquer.
La peur de l'IA s'exprime également dans la science-fiction, avec des allusions à de possibles modes de résistance aux machines-IA qui pourraient – et probablement tenteraient – d'exterminer leurs créateurs humains, comme cela a été imaginé dans le cinéma de science-fiction, notamment dans les œuvres de Moore. Battlestar Galactica et Cameron Terminator films. Il n'est pas difficile de démontrer que de tels produits de la culture populaire encadrent les symptômes actuels de peur liés à l'IA en termes imaginaires, ce qui peut être considéré comme une cristallisation d'une anxiété refoulée et inconsciente, liée à ce que Freud appelait « l'inquiétante étrangeté » (effrayant, en allemand ; plus de détails ci-dessous).
Moore et Cameron développent tous deux la probabilité que les créatures engendrées par l'ingéniosité technologique humaine finissent par se retourner contre leurs créateurs pour les anéantir. Dans l'ouvrage d'Alex Garland, Ex Machina (2014), on y voit à nouveau une « fembot » dotée d'une intelligence artificielle, nommée Ava, manipuler subtilement ses homologues humaines jusqu'à s'échapper et provoquer leur propre destruction. Indéniablement, ces exemples, et bien d'autres, cas similairesCes craintes constituent une preuve irréfutable d'une peur latente chez l'humanité : celle que l'IA représente une menace potentielle pour sa propre existence. Toutefois, précisément parce qu'elles sont enfouies dans l'inconscient humain, elles ne constituent pas la principale raison de prendre au sérieux toute menace posée par l'IA, même si elles représentent une mise en garde importante.
La principale raison de considérer l'IA comme une source légitime d'intimidation est pas Les problèmes ne découlent pas de l'IA en tant que telle, comme beaucoup de lecteurs le savent probablement déjà. Il s'agit plutôt de la manière dont les mondialistes entendent utiliser l'IA pour contrôler ceux qu'ils considèrent comme les « bouches inutiles » – autrement dit, le reste d'entre nous. Et ceux d'entre nous qui ne se plient pas à leurs plans grandioses de contrôle total du monde seraient victimes d'être…reprogrammé transformer en « moutons » dociles grâce à l'IA :
Yuval Noah Harari est sorti de l'ombre pour se vanter de la nouvelle technologie développée par les scientifiques du WEF, technologie qui, selon lui, a le pouvoir de détruire tous les êtres humains au monde en les transformant en entités transhumaines.
Harari a clairement indiqué qui survivra à la grande dépopulation dont l'élite nous met en garde depuis des années.
Selon Harari, l'élite mondiale survivra grâce à une « arche de Noé technologique », tandis que le reste d'entre nous sera voué à périr.
Dans ce monde largement dépeuplé, l'élite sera libre de se transformer en entités transhumaines et de devenir les dieux qu'elle se prend déjà pour tel.
Mais d'abord, l'élite doit éliminer les masses non conformes, celles qui s'opposent au programme anti-vie et athée du Forum économique mondial, et comme Harari s'en vante, l'élite contrôle désormais la technologie de l'IA pour détruire « éthiquement » les humains non conformes en piratant leur cerveau.
De façon inquiétante, les affirmations d'Harari sont fondées sur des faits réels, et le Forum économique mondial déploie actuellement cette technologie de contrôle mental. Davos affirme que cette technologie peut transformer des criminels, y compris ceux accusés de délits d'opinion, en citoyens mondialistes parfaitement dociles qui ne contesteront plus jamais rien.
Voilà le constat : si les mondialistes parviennent à leurs fins, l'IA sera l'instrument de notre soumission. Il va sans dire que cela ne se produira que si un nombre suffisant de personnes ne résistent pas à leurs plans, et vu le nombre de personnes qui manifestent leur opposition aux aspirants dirigeants du monde, cela n'arrivera pas.
Une autre façon de comprendre la peur de l'IA consiste à la comparer à ce que l'on appelle communément le « croquemitaine ». Comme certains le savent peut-être, le «croquemitaine Le croque-mitaine (ou « épouvantail ») – créature mythique aux proportions variées, qui prend différentes formes et tailles selon les cultures, souvent pour effrayer les enfants et ainsi les inciter à bien se comporter – est diversement présenté comme une créature monstrueuse, grotesque ou informe. D'après quelques recherches, le mot dérive du moyen anglais « bogge » ou « bugge », qui signifie « épouvantail » ou « spectre effrayant ».
Phénomène essentiellement humain, il n'est pas surprenant qu'il porte des noms équivalents dans de nombreuses traditions folkloriques et langues à travers le monde. À l'instar des langues, les représentations de cette figure effrayante divergent considérablement, tirant souvent son caractère inquiétant et terrifiant de son aspect informe, comme en témoignent la figure d'« El Coco » dans les pays hispanophones, l'« Homme au sac » en Amérique latine et le « Babau » en Italie, parfois imaginé comme un homme grand et vêtu de noir.
La figure du croquemitaine peut être considérée comme une sorte d'archétype jungien, rencontré dans l'inconscient collectif, qui trouve probablement son origine il y a des siècles dans le besoin des parents d'effrayer leurs enfants pour les soumettre à l'autorité, au moyen d'une version de l'inconnu. En Afrique du Sud, où je vis, elle prend parfois la forme de ce que les populations autochtones appellent le « croquemitaine ».tikoloshe' – une figure naine malveillante, parfois espiègle, dotée d'un appétit sexuel insatiable. Archétype du genre, elle s'est également immiscée dans un genre populaire comme le film d'horreur, se manifestant à travers des personnages grotesques tels que Freddy Krueger, le héros éponyme.Nightmare on Elm Street.
En quoi l'IA ressemble-t-elle donc au croquemitaine ? Ce dernier est lié à ce que Sigmund Freud a nommé de façon mémorable « l'inquiétante étrangeté », dont il parle (dans L'œuvre psychologique complète de Sigmund Freud(traduit par James Strachey, 1974 : 3676) : « …l’inquiétante étrangeté est cette catégorie de choses effrayantes qui renvoie à ce qui est connu depuis longtemps et familier depuis des temps immémoriaux. »
Cela laisse déjà entrevoir ce qu'il découvre plus tard dans cet essai, après avoir révélé le fait surprenant que le mot allemand pour « familier », à savoir, «Heimlich« », s’avère être ambivalent dans son usage, de sorte qu’il signifie parfois le contraire de « familial », à savoir « inquiétant (« inquiétant », qu’il serait plus juste de traduire par « étrange »). Que le concept d’« inquiétante étrangeté » soit approprié pour saisir ce que j’ai en tête lorsque j’évoque la « peur de l’IA » devient évident dans ce passage où Freud écrit (en référence à un autre auteur dont il considérait l’œuvre sur l’« inquiétante étrangeté » comme importante ; Freud 1974 : 3680) :
Lorsqu'on entreprend d'examiner les choses, les personnes, les impressions, les événements et les situations susceptibles de susciter en nous un sentiment d'inquiétante étrangeté de manière particulièrement forte et précise, il faut d'abord choisir un exemple pertinent. Jentsch prend pour exemple les doutes quant à la réalité de la vie d'un être apparemment animé, ou inversement, quant à la possibilité qu'un objet inanimé ne soit pas en réalité animé. Il évoque à ce propos l'impression produite par les figures de cire, les poupées ingénieusement conçues et les automates. À cela, il ajoute l'effet inquiétant des crises d'épilepsie et des manifestations de folie, car celles-ci suscitent chez le spectateur l'impression de processus automatiques et mécaniques à l'œuvre derrière l'apparence ordinaire de l'activité mentale.
On retrouve ici déjà un trait de l'inquiétante étrangeté qui s'applique particulièrement à l'IA : l'impression qu'elle donne d'être en quelque sorte « vivante ». C'était déjà le cas des premiers ordinateurs, « primitifs », comme celui de l'épisode consacré au Premier Commandement dans la série télévisée de Krzysztof Kieslowski de 1989, Le Décalogue, où les mots « Je suis là » apparaissent sur l'écran lorsque le père et son fils l'utilisent. L'implication inquiétante de cet épisode est que si l'humanité remplaçait Dieu par une IA, ce serait catastrophique. En effet, le père, suffisamment « rationaliste », fait confiance aux calculs de l'ordinateur concernant l'épaisseur de la glace sur laquelle patine son fils, calculs qui s'avèrent erronés et qui entraînent la mort de l'enfant.
Freud poursuit son exploration de la nature de l'inquiétante étrangeté en s'intéressant de près à l'œuvre d'E.T.A. Hoffmann, dont les contes sont réputés pour susciter un fort sentiment d'inquiétante étrangeté, notamment celui du « Marchand de sable » – « qui arrache les yeux des enfants » – qui met en scène, parmi plusieurs autres figures inquiétantes (et de façon très significative), une poupée d'une beauté et d'un réalisme saisissants nommée Olympia. Il l'explique ensuite en la reliant, en termes psychanalytiques, au complexe de castration – lié à la figure paternelle – par la peur de perdre la vue (Freud 1974 : 3683-3685). Freud poursuit son interprétation de l'inquiétante étrangeté de manière révélatrice en invoquant plusieurs autres aspects de l'expérience pertinents d'un point de vue psychanalytique, dont le suivant semble s'appliquer à l'IA (1974 : 3694) :
…un effet d’étrangeté se produit souvent et facilement lorsque la distinction entre imagination et réalité s’estompe, par exemple lorsqu’une chose que nous considérions jusqu’alors comme imaginaire apparaît devant nous dans la réalité, ou lorsqu’un symbole s’approprie pleinement les fonctions de la chose qu’il symbolise, etc. C’est ce facteur qui contribue largement à l’effet d’étrangeté qui entoure les pratiques magiques.
Il n'est pas difficile de se souvenir, selon Freud, d'exemples survenus dans son enfance où l'on a imaginé des objets inanimés, comme des jouets (ou des objets animés, comme un chien de compagnie), capables de vous parler ; mais lorsque cela semble réellement se produire (ce qui serait une hallucination, par opposition à une imagination délibérée), cela produit inévitablement un effet étrange.
On pourrait s'attendre à ce qu'il en soit de même avec l'IA, qu'elle prenne la forme d'un ordinateur ou d'un robot, et, en temps normal – peut-être à un stade antérieur de son développement –, cela aurait probablement été le cas. Mais aujourd'hui, la situation semble différente : les gens, et notamment les jeunes, sont tellement habitués à interagir avec des logiciels, et plus récemment avec des chatbots comme ChatGPT, que ce qui pouvait autrefois paraître étrange ne l'est plus, en pratique. À cet égard, l’« inquiétante étrangeté » semble avoir été domestiquée..
Dès 2011, en Seuls ensemble, Sherry Turkle Elle a indiqué être préoccupée par la tendance croissante des jeunes à privilégier les interactions avec les machines plutôt qu'avec d'autres êtres humains. Dès lors, il n'est guère surprenant que les chatbots dotés d'intelligence artificielle se soient imposés comme un élément « normal » de la communication (sans pour autant remettre en question le statut de cette fameuse « communication »).
De plus – et c’est là que la crainte de ce que l’IA pourrait engendrer chez des individus trop confiants refait surface –, des rapports récents (comme celui-ci) montrent clairement que les jeunes, en particulier, sont extrêmement sensibles aux « conseils » et suggestions des chatbots concernant leurs propres actions, comme l’a souligné Michael. Snyder fait remarquer:
Nos enfants sont massivement ciblés par les chatbots, et la plupart des parents ignorent tout de ce phénomène. À l'adolescence, lorsqu'on est influençable, entendre ce qu'on veut entendre peut s'avérer très séduisant. Les chatbots sont devenus extrêmement sophistiqués, et des millions d'adolescents américains tissent des liens très étroits avec eux. Simple divertissement inoffensif ou danger extrême ?
Une toute nouvelle étude publiée par le Centre pour la démocratie et la technologie contient des statistiques. Cela m'a absolument choqué...
Une nouvelle étude publiée le 8 octobre par le Center for Democracy & Technology (CDT) révèle qu'un lycéen sur cinq a déjà interagi avec un chatbot d'intelligence artificielle ou connaît quelqu'un qui l'a fait. Selon un rapport de Common Sense Media datant de 2025, 72 % des adolescents avaient utilisé un assistant virtuel, et un tiers d'entre eux déclaraient avoir choisi de discuter de sujets importants ou sérieux avec des assistants virtuels plutôt qu'avec des personnes réelles.
We On ne parle plus que de quelques cas isolés.
At ceci. À ce stade, des millions et des millions d'adolescents américains entretiennent des relations très importantes avec des chatbots dotés d'intelligence artificielle.
Malheureusement, de nombreux exemples montrent que ces relations ont des conséquences tragiques. Après que Sewell Setzer, âgé de 14 ans, a développé une « relation amoureuse » avec un chatbot sur Character.AI, il a décidé de se suicider...
Comme le montre la discussion précédente, il existe des domaines d'activité humaine où l'IA n'est pas source de crainte, tandis que dans d'autres, ces craintes sont légitimes, notamment en raison de la manière dont des personnes sans scrupules instrumentalisent l'IA contre autrui. Quoi qu'il en soit, la meilleure façon d'aborder ce terrain complexe que représentent les capacités de l'IA reste de s'appuyer sur une approche pragmatique. vis-à-vis Il convient de rappeler que, comme indiqué dès le début de cet article, l'IA dépend d'énormes quantités de données sur lesquelles s'appuyer et d'être « entraînée » par des programmeurs pour ce faire. Les humains ne le font pas.
-
Bert Olivier travaille au Département de philosophie de l'Université de l'État libre. Bert fait des recherches en psychanalyse, poststructuralisme, philosophie écologique et philosophie de la technologie, littérature, cinéma, architecture et esthétique. Son projet actuel est « Comprendre le sujet en relation avec l'hégémonie du néolibéralisme ».
Voir tous les messages