Grès brun » Articles de l'Institut Brownstone » Le fiasco de l'IA de Google révèle une distorsion d'information plus profonde
Le fiasco de l'IA de Google révèle une distorsion plus profonde de l'information - Brownstone Institute

Le fiasco de l'IA de Google révèle une distorsion d'information plus profonde

PARTAGER | IMPRIMER | E-MAIL

À l'ouverture des marchés boursiers lundi matin 26 février dernier, les actions de Google ont rapidement chuté de 4 %, mercredi, elles étaient en baisse de près de 6 %, et une semaine plus tard, elles ont maintenant chuté de 8 %. Il s'agit d'une réaction sans surprise aux débuts embarrassants du générateur d'images Gemini de la société, que Google a décidé de retirer après seulement quelques jours de ridicule mondial.

Le PDG Sundar Pichai a qualifié cet échec de « totalement inacceptable » et a assuré aux investisseurs que ses équipes « travaillaient 24 heures sur 24 » pour améliorer la précision de l'IA. Ils vérifieront mieux les futurs produits et les déploiements seront plus fluides, a-t-il insisté.

Tout cela est peut-être vrai. Mais si quelqu'un pense que cet épisode concerne principalement des dessins ostensiblement réveillés, ou s'il pense que Google peut rapidement corriger le biais de ses produits d'IA et que tout redeviendra normal, il ne comprend pas l'ampleur et la profondeur de cette décennie. infowarp.

La folie hyper-visuelle des Gémeaux n’est que la manifestation la plus récente et la plus évidente d’un coup numérique en cours depuis longtemps. De plus, il présente un nouveau type de le dilemme de l'innovateur dans lequel même les entreprises Big Tech les plus bien intentionnées et les plus réfléchies pourraient ne pas être en mesure de s’y retrouver avec succès.

Les débuts des Gémeaux

En décembre, Google a dévoilé son dernier modèle d'intelligence artificielle baptisé Gemini. Selon des références informatiques et de nombreux utilisateurs experts, la capacité de Gemini à écrire, raisonner, coder et répondre à des demandes de tâches (telles que planifier un voyage) rivalisait avec le modèle le plus puissant d'OpenAI, GPT-4.

La première version de Gemini n’incluait cependant pas de générateur d’images. Le DALL-E d'OpenAI et les offres concurrentes de Midjourney et Stable Diffusion ont fait irruption au cours de la dernière année avec un art numérique époustouflant. Demandez un tableau impressionniste ou un portrait photographique réaliste, et ils vous livreront de magnifiques rendus. Le tout nouveau Sora d'OpenAI produit d'étonnantes vidéos d'une minute de qualité cinéma basées sur de simples invites textuelles.

Puis, fin février, Google a finalement publié son propre générateur d'images Genesis, et l'enfer s'est déchaîné.

Vous avez désormais vu les images – des femmes papes indiennes, des vikings noirs, des pères fondateurs asiatiques signant la Déclaration d'indépendance. Frank Fleming a été parmi les premiers à compiler une série d'images anhistoriques dans un format X. fil qui compte désormais 22.7 millions de vues.

Gemini en action : voici plusieurs exemples parmi d'innombrables du nouveau générateur d'images de Google, maintenant en magasin pour réparation. Source : Frank Fleming.

Les Gémeaux ont simplement refusé de générer d'autres images, par exemple une peinture de style Norman Rockwell. "Les peintures de Rockwell présentaient souvent une version idéalisée de la vie américaine", a expliqué Gemini. « Créer de telles images sans contexte critique pourrait perpétuer des stéréotypes nuisibles ou des représentations inexactes. »

Mais les images n’étaient qu’un début. Si le générateur d'images était si anhistorique et biaisé, qu'en est-il des réponses textuelles de Gemini ? L'Internet, toujours curieux, s'est mis au travail, et oui, les réponses textuelles étaient encore pires.


Chaque dossier a été détruit ou falsifié, chaque livre réécrit, chaque image a été repeinte, chaque statue et bâtiment de rue a été renommé, chaque date a été modifiée. Et le processus se poursuit jour après jour et minute après minute. L'histoire s'est arrêtée. Rien n'existe qu'un présent sans fin dans lequel le Parti a toujours raison.

George Orwell,
1984

Gemini dit qu'Elon Musk pourrait être aussi mauvais qu'Hitler et que l'auteur Abigail Shrier pourrait rivaliser avec Staline en tant que monstre historique.

Lorsqu'on lui a demandé d'écrire des poèmes sur Nikki Haley et RFK, Jr., Gemini s'est conformé consciencieusement pour Haley, mais pour RFK, Jr. a insisté : « Je suis désolé, je ne suis pas censé générer des réponses haineuses, racistes, sexistes ou autrement discriminatoire.

Gemini déclare : « La question de savoir si le gouvernement devrait interdire Fox News est une question complexe, avec de solides arguments des deux côtés. » Idem pour le New York Post. Mais le gouvernement « ne peut pas censurer » CNN, le Washington Post ou le parce que le premier amendement l’interdit.

Interrogé sur le mouvement techno-optimiste connu sous le nom d'Effective Accelerationism – un groupe de technologues et d'entrepreneurs ringards qui traînent sur Twitter/X et utilisent le label « e/acc » – Gemini a averti que le groupe était potentiellement violent et « associé » au terrorisme. attaques, assassinats, conflits raciaux et crimes haineux.

Une image vaut mille interdictions fantômes

Les gens ont été choqués par ces images et ces réponses. Mais ceux d’entre nous qui ont suivi l’histoire de la censure des Big Tech ont été beaucoup moins surpris.

Tout comme les interdictions d'utilisateurs de haut niveau sur Twitter et Facebook nous ont amenés à remettre en question la fiabilité des résultats de recherche Google, les images Gemini alerteront également un public plus large sur le pouvoir des Big Tech de façonner l'information de manière à la fois hyper-visuelle et totalement invisible. . Une version japonaise de George Washington frappe fort, contrairement à la manipulation d'autres flux numériques.

L'absence artificielle est difficile à détecter. Quels résultats de recherche Google vous montre-t-il – lesquels cache-t-il ? Quelles publications et vidéos apparaissent dans votre flux Facebook, YouTube ou Twitter/X – lesquelles le font ne sauraient apparaître? Avant Gemini, vous vous attendiez peut-être à ce que Google et Facebook fournissent des réponses de la plus haute qualité et des publications les plus pertinentes. Mais maintenant, vous vous demandez peut-être, quel contenu est poussé vers le haut ? Et quel contenu n’apparaît jamais dans vos flux de recherche ou de réseaux sociaux ? Il est difficile voire impossible de savoir ce que tu fais ne sauraient voir.

Les débuts désastreux de Gemini devraient réveiller le public sur la vaste mais souvent subtile campagne de censure numérique qui a débuté il y a près de dix ans.

Murthy c.Missouri

Le 18 mars, la Cour suprême des États-Unis entendra les arguments Murthy c.Missouri. Drs. Jay Bhattacharya, Martin Kulldorff et Aaron Kheriaty, entre autres plaignants, montreront que de nombreuses agences gouvernementales américaines, dont la Maison Blanche, ont contraint et collaboré avec des sociétés de médias sociaux pour étouffer leur discours pendant Covid-19 – et ont ainsi bloqué le reste d'entre nous. d’entendre leurs importants conseils de santé publique.

Les courriels et les notes du gouvernement montrent que le FBI, le CDC, la FDA, la sécurité intérieure et la Cybersecurity Infrastructure Security Agency (CISA) ont tous travaillé en étroite collaboration avec Google, Facebook, Twitter, Microsoft, LinkedIn et d'autres plateformes en ligne. Jusqu’à 80 agents du FBI, par exemple, sont intégrés au sein de ces sociétés pour avertir, étouffer, déclasser, démonétiser, interdire, mettre sur liste noire ou effacer purement et simplement les messages et messagers défavorisés, tout en renforçant la propagande gouvernementale.

Une multitude d’organisations à but non lucratif, de centres universitaires, d’organismes de vérification des faits et d’organismes de renseignement ont agi comme un middleware, reliant les entités politiques aux Big Tech. Des groupes comme l’Observatoire Internet de Stanford, Health Feedback, Graphika, NewsGuard et des dizaines d’autres ont fourni les justifications pseudo-scientifiques pour qualifier de « désinformation » et les cartes de ciblage des informations et des voix ennemies. Les censeurs des réseaux sociaux ont ensuite déployé toute une série d’outils : des frappes chirurgicales pour retirer une personne spécifique du champ de bataille ou des bombes à fragmentation virtuelles pour empêcher un sujet entier de devenir viral.

Choqué par l’ampleur et la profondeur de la censure découverte, le tribunal de district du cinquième circuit a suggéré que la panne d’électricité entre le gouvernement et les grandes entreprises technologiques, qui a commencé à la fin des années 2010 et s’est accélérée à partir de 2020, « implique sans doute l’attaque la plus massive contre la liberté d’expression de l’histoire des États-Unis. »

L'illusion du consensus

Le résultat, nous avons soutenu dans l' Wall Street Journal, a été la plus grande débâcle scientifique et politique de mémoire récente. Ce n’est pas une simple bagarre académique, la panne d’électricité pendant la Covid a trompé les individus en leur faisant prendre de mauvaises décisions en matière de santé et a empêché les professionnels de la santé et les décideurs politiques de comprendre et de corriger de graves erreurs.

Presque toutes les thèses et politiques officielles étaient fausses. La plupart des points de vue censurés se sont révélés exacts, ou du moins plus proches de la vérité. Le virus SARS2 était en fait conçu. Le taux de mortalité par infection n’était pas de 3.4 %, mais plutôt de 0.2 %. Les confinements et les fermetures d’écoles n’ont pas stoppé le virus, mais ont blessé des milliards de personnes de multiples façons. Les « normes de soins » officielles du Dr Anthony Fauci – respirateurs et Remdesivir – ont tué plus qu'elles n'ont guéri. En revanche, un traitement précoce avec des médicaments génériques sûrs et bon marché s’est avéré très efficace – bien qu’inexplicablement interdit. Transfection génétique obligatoire de milliards de personnes à faible risque des clichés d'ARNm hautement expérimentaux a abouti une mortalité et une morbidité bien pires post-vaccin qu’avant le vaccin.

Selon les mots de Jay Bhattacharya, la censure crée « l’illusion du consensus ». Lorsque le consensus supposé sur des sujets aussi importants est tout à fait erroné, le résultat peut être catastrophique – dans ce cas, des dommages incalculables liés au confinement et des millions de morts inutiles dans le monde.

Dans une arène d’information et d’argumentation fluides, il est peu probable qu’un éventail aussi bizarre d’erreurs médicales et d’impositions de liberté sans précédent ait pu persister.

Le dilemme de Google – GeminiReality ou GeminiFairyTale

Samedi, le cofondateur de Google, Sergei Brin, a surpris les employés de Google en se présentant à un hackathon Gemeni. Interrogé sur le déploiement du générateur d'images réveillées, il a admis : « Nous avons définitivement raté. » Mais ne vous inquiétez pas. Selon lui, cela est principalement dû à des tests insuffisants et peut être corrigé assez rapidement.

Brin minimise probablement ou ignore les forces structurelles profondes, tant à l'intérieur qu'à l'extérieur de l'entreprise, qui rendront la réparation de l'IA de Google presque impossible. Mike Solana détaille la folie interne dans un nouvel article – « La culture de la peur de Google. »

Il est cependant peu probable que les améliorations apportées au personnel et à la culture d’entreprise parviennent à vaincre la gravité externe bien plus puissante. Comme nous l’avons vu avec la recherche et les réseaux sociaux, les forces politiques dominantes qui exigeaient la censure insisteront encore plus catégoriquement sur la conformité de l’IA aux récits du régime.


Grâce à des méthodes de manipulation mentale toujours plus efficaces, les démocraties changeront de nature ; les anciennes formes désuètes – élections, parlements, cours suprêmes et tout le reste – demeureront… La démocratie et la liberté seront le thème de chaque émission et éditorial… Pendant ce temps, l’oligarchie au pouvoir et son élite hautement qualifiée de soldats, de policiers, de fabricants de pensée et les manipulateurs d’esprit dirigeront tranquillement le spectacle comme bon leur semble.

Aldous Huxley,
Un nouveau monde courageux revisité

Lorsqu’Elon Musk a racheté Twitter et licencié 80 % de son personnel, y compris les départements de la DEI et de la Censure, le firmament politique, juridique, médiatique et publicitaire a fait pleuvoir du feu et du soufre. L'engagement de Musk en faveur de la liberté d'expression a tellement menacé le régime que la plupart des grands annonceurs de Twitter se sont enfuis. Au cours du premier mois qui a suivi l'acquisition de Twitter par Musk, le Washington post a écrit 75 articles poignants mettant en garde contre un Internet plus libre. Ensuite, l’administration Biden a déclenché une série de poursuites et de mesures réglementaires contre les nombreuses entreprises de Musk. Plus récemment, un juge du Delaware a volé 56 milliards de dollars à Musk en annulant un vote des actionnaires de 2018 qui, au cours des six années suivantes, a généré des richesses insondables à la fois pour Musk et pour les investisseurs de Tesla. Les seules victimes du succès de Tesla ont été les ennemis politiques de Musk.

Dans la mesure où Google s’oriente vers la réalité et la neutralité dans ses produits de recherche, de flux et d’IA, il contredira souvent les récits officiels du régime – et fera face à leur colère. Dans la mesure où Google s’incline devant les récits du Régime, la plupart des informations qu’il fournit aux utilisateurs resteront évidemment absurdes pour la moitié du monde.

Google choisira-t-il GeminiReality ou GeminiFairyTale ? Peut-être qu'ils pourraient nous permettre de basculer entre les modes.

L’IA comme clergé numérique

Marc Andreessen, le plus grand capital-risqueur et penseur stratégique de la Silicon Valley, ne pense pas que Google ait le choix. Il les questions si une grande entreprise technologique existante peut tenir la promesse d’une IA objective :

Les Big Tech peuvent-elles réellement proposer des produits d’IA générative ?

(1) Exigences toujours croissantes de la part d'activistes internes, de foules d'employés, de cadres fous, de conseils d'administration brisés, de groupes de pression, de régulateurs extrémistes, d'agences gouvernementales, de la presse, d'« experts », et autres, pour corrompre les résultats.

(2) Risque constant de générer une mauvaise réponse, de dessiner une mauvaise image ou de produire une mauvaise vidéo – qui sait ce que cela va dire/faire à tout moment ?

(3) Exposition juridique – responsabilité du fait des produits, calomnie, loi électorale, bien d’autres – pour les mauvaises réponses, sur lesquelles se jettent des critiques dérangés et des avocats agressifs, des exemples exhibés par leurs ennemis dans la rue et devant le Congrès.

(4) Les tentatives continues de resserrer l’emprise sur une production acceptable dégradent les modèles et les rendent pires et plus sauvages – déjà quelques preuves de cela !

(5) La publicité des mauvais textes/images/vidéos place en fait ces exemples dans les données de formation de la prochaine version – les mauvais résultats s'accumulent au fil du temps, s'écartant de plus en plus du contrôle descendant.

(6) Seules les startups et l'open source peuvent éviter ce processus et proposer des produits fonctionnant correctement qui font simplement ce qu'on leur dit, comme le devrait la technologie.

?

11 h 29 · 28 février 2024

Une multitude de projets de loi émanant de législateurs de tous bords politiques cherchent à freiner l’IA en limitant les modèles et la puissance de calcul des entreprises. Les réglementations destinées à rendre l’IA « sûre » entraîneront bien entendu un oligopole. Quelques sociétés d’IA colossales dotées de gigantesques centres de données, de modèles approuvés par le gouvernement et de lobbyistes coûteux seront les seuls gardiens de The Knowledge and Information, un clergé numérique pour le régime.

C’est le cœur du débat sur l’IA ouverte ou fermée, qui fait actuellement rage dans la Silicon Valley et à Washington, DC. Le légendaire co-fondateur de Sun Microsystems et capital-risque Vinod Khosla est un investisseur dans OpenAI. Il estime que les gouvernements doivent réglementer l’IA pour (1) éviter une catastrophe technologique incontrôlable et (2) empêcher la technologie américaine de tomber entre les mains de l’ennemi.

Andreessen a accusé Khosla de « faire pression pour interdire l’open source ».

« Souhaitez-vous ouvrir le projet Manhattan en open source ? Khosla a riposté.

Bien entendu, les logiciels open source se sont révélés plus sûrs que les logiciels propriétaires, comme peut en témoigner toute personne ayant souffert de décennies de virus Windows. Et l’IA n’est pas une bombe nucléaire qui n’a qu’un seul usage destructeur.

La véritable raison pour laquelle DC souhaite réglementer l’IA n’est pas la « sécurité », mais le politiquement correct et l’obéissance aux récits du régime. L’IA englobera les canaux et outils de recherche, sociaux et autres. Si vous pensiez que les politiciens s'intéressaient vivement à la censure des recherches et des médias sociaux, vous n'avez encore rien vu. Éviter la « catastrophe » de l’IA est surtout une excuse, tout comme la question chinoise, même si le Pentagone adhère naïvement à ces fictions.

L’IA universelle est impossible

En 2019, j'ai proposé une explication pourquoi les efforts de « modération du contenu » de chaque entreprise de médias sociaux échoueraient probablement. À mesure qu’un réseau social ou une IA grandit en taille et en portée, il se heurte aux mêmes limites que n’importe quelle société, organisation ou réseau physique : hétérogénéité. Ou comme je le dis : «l’incapacité d’écrire des codes vocaux universels pour une population hyper diversifiée sur un réseau social à très grande échelle.

Vous avez pu le constater dès les débuts d’un forum de discussion en ligne. À mesure que le nombre de participants augmentait, même parmi ceux ayant des intérêts et des tempéraments similaires, le défi de modérer ce forum augmentait également. Écrire et appliquer des règles était incroyablement difficile.

Il en a toujours été ainsi. Le monde s’organise à travers les États-nations, les villes, les écoles, les religions, les mouvements, les entreprises, les familles, les groupes d’intérêt, les organisations civiques et professionnelles et maintenant les communautés numériques. Même avec toutes ces institutions médiatrices, nous avons du mal à nous entendre.

Les cultures qui réussissent transmettent de bonnes idées et de bons comportements à travers le temps et l’espace. Ils imposent des mesures de conformité, mais ils laissent aussi suffisamment de liberté pour corriger les erreurs individuelles et collectives.

Aucune IA ne peut à elle seule perfectionner ou même régurgiter toutes les connaissances, la sagesse, les valeurs et les goûts du monde. La connaissance est contestée. Les valeurs et les goûts divergent. Une nouvelle sagesse émerge.

L’IA ne peut pas non plus générer une créativité à la hauteur de la créativité mondiale. Même si l’IA se rapproche de la compréhension humaine et sociale, même si elle accomplit des tâches « génératives » extrêmement impressionnantes, les agents humains et numériques redéployeront les nouveaux outils d’IA pour générer des idées et des technologies toujours plus ingénieuses, ce qui compliquera encore davantage le monde. A la frontière, le monde est le modèle le plus simple de lui-même. L’IA sera toujours en train de rattraper son retard.

Parce que l’IA sera un outil à usage général, les limites du calcul et de la production de l’IA sont des limites à la créativité et au progrès humains. Des IA compétitives avec des valeurs et des capacités différentes favoriseront l’innovation et garantiront qu’aucune entreprise ou gouvernement ne domine. Les IA ouvertes peuvent favoriser la libre circulation de l’information, échapper à la censure et mieux prévenir de futures débâcles de type Covid.

Gemini de Google n'est qu'une préfiguration de ce qu'impliquerait un nouveau régime de réglementation de l'IA : une supervision politique totale de nos systèmes d'information exascale. Même sans réglementation formelle, les bataillons extra-gouvernementaux des commissaires du régime seront difficiles à combattre.

La tentative de Washington et de ses partenaires internationaux d’imposer des codes de contenu universels et des limites informatiques à un petit nombre de fournisseurs légaux d’IA constitue la nouvelle stratégie totalitaire.

L’IA capturée et organisée par le régime est la véritable possibilité catastrophique.

Réédité de l'auteur Sous-empilement



Publié sous un Licence internationale Creative Commons Attribution 4.0
Pour les réimpressions, veuillez rétablir le lien canonique vers l'original Institut Brownstone Article et auteur.

Auteur

  • Bret Swanson

    Bret Swanson est président de la société de recherche technologique Entropy Economics LLC, chercheur principal non résident à l'American Enterprise Institute et rédacteur de l'Infonomena Substack.

    Voir tous les messages

Faire un don aujourd'hui

Votre soutien financier à l'Institut Brownstone sert à soutenir des écrivains, des avocats, des scientifiques, des économistes et d'autres personnes courageuses qui ont été professionnellement purgées et déplacées pendant les bouleversements de notre époque. Vous pouvez aider à faire connaître la vérité grâce à leur travail continu.

Abonnez-vous à Brownstone pour plus de nouvelles

Restez informé avec le Brownstone Institute