Il y a cinq ans, l'astrophysicien et communicateur scientifique Neil deGrasse Tyson a tweeté un tweet très mémorable et digne d'être cité :
La Terre a besoin d'un pays virtuel : #Rationnelle, avec une Constitution d'une ligne : Toute politique doit être fondée sur le poids de la preuve
- Neil deGrasse Tyson (@neiltyson) Le 29 juin 2016
Le monde idéal de Tyson a attiré de nombreuses personnes fatiguées par la politique émotionnelle et instinctive et la guerre tribale politique qui avaient envahi tous les domaines de la vie publique, y compris la science. Cela a séduit nombre de ses collègues scientifiques, des personnes formées à penser objectivement et à tester des hypothèses basées sur des observations sur le monde naturel.
Le seul problème - l'énorme poids de la preuve démontre pourquoi le pays virtuel Ratioalia ne se produira tout simplement jamais.
C'est parce que pour les humains, penser rationnellement demande énormément d'énergie et d'efforts. En conséquence, la plupart du temps, nous ne nous embêtons pas. Au lieu de cela, la grande majorité de notre pensée est entièrement guidée par notre intuition - nos seuls instincts sans aucune de ces pensées rationnelles gênantes.
Cette dichotomie est expliquée de manière magistrale dans des détails exquis par le lauréat du prix Nobel Daniel Kahneman dans son livre Penser rapidement et lentement, et couvert d'un accent sur les divisions politiques dans le chef-d'œuvre de Jonathan Haidt L'esprit juste. Les deux sont des œuvres fantastiques à part entière et fournissent des explications fascinantes sur les raisons pour lesquelles les gens ont des points de vue différents et pourquoi il est si difficile de les changer.
Plus important encore, cette dichotomie cognitive s'applique à tout le monde, même aux scientifiques. Cela peut surprendre certains (y compris certains scientifiques, apparemment), car le les médias et les politiciens ont dépeint des scientifiques (du moins ceux avec lesquels ils sont d'accord) comme imprégnés d'une capacité magique à discerner et à prononcer la vérité absolue.
Cela ne pourrait pas être plus éloigné de la réalité. Je dis souvent aux gens que la différence entre un scientifique et la personne moyenne est qu'un scientifique est plus conscient de ce qu'il ne sait pas sur son domaine spécifique, alors que la personne moyenne ne sait pas ce qu'elle ne sait pas. En d'autres termes, tout le monde souffre d'une ignorance écrasante, mais les scientifiques sont (on l'espère) généralement plus conscients de la profondeur de la leur. Ils peuvent parfois avoir une idée sur la façon d'augmenter légèrement un ensemble particulier de connaissances, et parfois cette idée peut même s'avérer fructueuse. Mais pour la plupart, ils passent leur temps à réfléchir à un gouffre profond de connaissances spécifiques à leur domaine.
Les scientifiques sont souvent gênés par leurs propres années d'expérience et l'intuition potentiellement trompeuse qui en résulte. Dans le livre Hunter Hunter, les auteurs CJ Peters et Mark Olshaker racontent comment un ancien directeur du CDC a fait remarquer que «les jeunes agents inexpérimentés du SIE (Epidemic Intelligence Service) que le CDC envoyait habituellement pour enquêter sur les épidémies et les épidémies de maladies mystérieuses avaient en fait un certain avantage sur leurs aînés plus expérimentés et aguerris. Tout en ayant une formation de premier ordre et le soutien de toute l'organisation du CDC, ils n'en avaient pas assez vu pour avoir des opinions prédéfinies et auraient donc pu être plus ouverts à de nouvelles possibilités et avoir l'énergie de les poursuivre. Les experts sont également très mauvais pour faire des prédictions, et comme l'explique le chercheur et auteur Philip Tetlock dans son livre Jugement politique expert, ils ne sont pas plus précis dans leurs prévisions que la personne moyenne. Le plus échecs récents des modèles de prévision de pandémie n'ont fait que renforcer cette conclusion.
La plupart des scientifiques qui réussissent peuvent faire remonter leurs réalisations couronnées de succès aux travaux qui ont eu lieu au début de leur carrière. Cela se produit, non seulement parce que les scientifiques bénéficient d'une plus grande sécurité d'emploi, mais parce qu'ils sont gênés par leurs propres expériences et préjugés. Lorsque j'étais technicien de laboratoire à la fin des années 90, je me souviens avoir demandé conseil à un immunologiste sur une expérience que je planifiais. Il a fini par me donner un tas de raisons pour lesquelles il n'y avait pas de bon moyen de faire cette expérience et d'obtenir des informations utiles. J'ai raconté cette rencontre à une postdoc, et je me souviens qu'elle m'a dit : « Ne l'écoute pas. Ce type peut vous dissuader de faire n'importe quoi ». Les scientifiques expérimentés sont parfaitement conscients de ce qui ne fonctionne pas, ce qui peut entraîner une réticence à prendre des risques.
Les scientifiques opèrent dans un environnement hautement concurrentiel où ils sont obligés de passer la majeure partie de leur temps à rechercher des financements de recherche en écrivant sans fin des subventions, dont la grande majorité ne sont pas financées. Pour être compétitifs pour ce bassin limité, les chercheurs donnent le tour le plus positif à leur travail et publient leurs résultats les plus positifs. Même si l'étude dévie de ce qui était initialement prévu, le manuscrit qui en résulte se lit rarement de cette façon. Et ces pressions aboutissent souvent à ce que l'analyse des données tombe dans un spectre sujet aux erreurs, allant de l'accent mis plus innocemment sur les résultats positifs à l'ignorance des données négatives ou contraires à la fabrication pure et simple. Des exemples détaillés de ceci sont donnés par l'auteur Stuart Ritchie dans son livre Science Fictions: Comment la fraude, les préjugés, la négligence et le battage médiatique sapent la recherche de la vérité. Non seulement Ritchie explique comment la science est déformée par les pressions pour la reconnaissance et le financement par des scientifiques bien intentionnés, mais il entre dans des détails sanglants sur certains des fraudeurs les plus prolifiques. Une autre excellente ressource qui couvre les erreurs scientifiques et les méfaits de la recherche est le site Web rétractation Montre. Le grand nombre d'articles rétractés, beaucoup par les mêmes scientifiques, soulignent l'importance de documenter et d'attaquer la fraude scientifique.
Les problèmes liés à la communication et à la reproductibilité des données de recherche sont connus depuis des années. En 2005, le professeur de Stanford John Ioannidis, parmi les scientifiques les plus cités, a publié l'un des articles les plus cités (plus de 1,600 XNUMX), Pourquoi la plupart des résultats de recherche publiés sont faux. Dans l'étude, Ioannidis a utilisé des simulations mathématiques pour montrer «que pour la plupart des conceptions et des paramètres d'étude, il est plus probable qu'une affirmation de recherche soit fausse que vraie. De plus, pour de nombreux domaines scientifiques actuels, les résultats de recherche revendiqués peuvent souvent être simplement des mesures précises du biais dominant. Ioannidis a également offert six corollaires tiré de ses conclusions :
- Plus les études menées dans un domaine scientifique sont petites, moins les résultats de la recherche sont vrais.
- Plus les tailles d'effet sont petites dans un domaine scientifique, moins les résultats de la recherche sont vrais.
- Plus le nombre est élevé et moins la sélection de relations testées dans un domaine scientifique est importante, moins les résultats de la recherche sont susceptibles d'être vrais.
- Plus la flexibilité des conceptions, des définitions, des résultats et des modes d'analyse dans un domaine scientifique est grande, moins les résultats de la recherche sont susceptibles d'être vrais.
- Plus les intérêts financiers et autres et les préjugés sont grands dans un domaine scientifique, moins les résultats de la recherche ont de chances d'être vrais.
- Plus un domaine scientifique est chaud (avec plus d'équipes scientifiques impliquées), moins les résultats de la recherche sont vrais.
Si vous regardez attentivement la liste, 5 et 6 devraient sauter et vous crier dessus. Voici un aperçu :
« Corollaire 5 : plus les intérêts financiers et autres et les préjugés dans un domaine scientifique sont importants, moins les résultats de la recherche sont susceptibles d'être vrais. Les conflits d'intérêts et les préjugés peuvent accroître les préjugés, u. Les conflits d'intérêts sont très fréquents dans la recherche biomédicale, et généralement ils sont signalés de manière inadéquate et éparse. Les préjugés n'ont pas nécessairement des racines financières. Les scientifiques d'un domaine donné peuvent être lésés uniquement en raison de leur croyance en une théorie scientifique ou de leur engagement envers leurs propres découvertes (c'est moi qui souligne). De nombreuses études universitaires apparemment indépendantes peuvent être menées pour la seule raison de donner aux médecins et aux chercheurs des qualifications en vue d'une promotion ou d'une titularisation. Ces conflits non financiers peuvent également conduire à des résultats et à des interprétations déformés. Des enquêteurs prestigieux peuvent supprimer, via le processus d'examen par les pairs, l'apparition et la diffusion de conclusions qui réfutent leurs conclusions, condamnant ainsi leur domaine à perpétuer de faux dogmes. Les preuves empiriques sur l'opinion d'experts montrent qu'il est extrêmement peu fiable.
« Corollaire 6 : Plus un domaine scientifique est chaud (avec plus d'équipes scientifiques impliquées), moins les résultats de la recherche sont vrais. Ce corollaire apparemment paradoxal découle du fait que, comme indiqué ci-dessus, la La VPP (valeur prédictive positive) des résultats isolés diminue lorsque de nombreuses équipes de chercheurs sont impliquées dans le même domaine.Cela peut expliquer pourquoi nous constatons parfois une grande excitation suivie rapidement de graves déceptions dans des domaines qui retiennent l'attention. Avec de nombreuses équipes travaillant sur le même domaine et avec des données expérimentales massives produites, le timing est essentiel pour battre la concurrence. Ainsi, chaque équipe peut donner la priorité à la poursuite et à la diffusion de ses résultats « positifs » les plus impressionnants... "
Les scientifiques ayant des préjugés en raison de leurs croyances, motivés par la «chaleur» du domaine, et donnant ainsi la priorité aux résultats positifs sont tous des sources de biais extrêmement évidentes dans la recherche sur le SRAS-CoV-2. Ioannidis et ses collègues ont publié sur le explosion des recherches publiées sur le SRAS-CoV-2, notant « 210,863 19 articles pertinents pour COVID-3.7, ce qui représente 5,728,015 % des 1 2020 1 articles dans toutes les sciences publiés et indexés dans Scopus au cours de la période du 2021er janvier 19 au 2020er août XNUMX ». Les auteurs d'articles liés au COVID-XNUMX étaient des experts dans presque tous les domaines, y compris "la pêche, l'ornithologie, l'entomologie ou l'architecture". Fin XNUMX, Ioannidis écrit, "seule l'ingénierie automobile n'avait pas de scientifiques publiant sur COVID-19. Début 2021, les ingénieurs automobiles ont également eu leur mot à dire. D'autres ont également commenté le "covidisation"De un article, soulignant la réduction de la qualité de la recherche alors que la manie COVID a poussé les chercheurs de domaines indépendants vers le jeu le plus en vogue et le plus lucratif de la ville.
Comme je l'ai expliqué dans deux messages précédents, masquage universel et le signalement des méfaits du COVID sur les enfants ont été irrémédiablement politisés et déformés en raison des préjugés généralisés des médias, des politiciens, des scientifiques et des organisations de santé publique. Mais le vrai coupable peut être le public lui-même et la culture de sécurité à risque zéro du premier monde qui a encouragé tous ces acteurs à exagérer les méfaits pour imposer des changements de comportement chez les non-conformes. De plus, la plupart des personnes dociles qui « prennent la pandémie au sérieux » veulent savoir que tous les sacrifices qu'elles ont consentis en valaient la peine.
Cependant, les scientifiques et les médias sont plus qu'heureux de livrer:
"Imaginez si vous étiez un scientifique et saviez qu'une conclusion favorable de votre étude conduirait à une reconnaissance instantanée par le New York Times, CNN et d'autres médias internationaux, tandis qu'un résultat défavorable entraînerait des critiques acerbes de la part de vos pairs, des attaques personnelles et la censure sur les réseaux sociaux et la difficulté à publier vos résultats. Comment quelqu'un répondrait-il à cela ?
La réponse est évidente. Le désir irrésistible d'un public terrifié de preuves d'interventions qui éliminent efficacement le risque d'infection poussera inévitablement les scientifiques à fournir ces preuves. Idéalement, une reconnaissance de ce biais entraînerait un scepticisme accru de la part d'autres scientifiques et médias, mais cela ne s'est pas produit. Exagéré prétentions of efficacité d'interventions et de dommages exagérés à favoriser leur acceptation sont devenus la norme dans les rapports sur les pandémies.
Comme j'ai discuté dans le post précédent, la meilleure façon d'atténuer les biais de recherche consiste pour les chercheurs à inviter des partenaires neutres à reproduire le travail et à collaborer à des études supplémentaires. La possibilité de mettre toutes les données à la disposition du public et des autres scientifiques invite également à des critiques critiques qui sont issues de la foule et donc potentiellement plus précises et moins biaisées. La disponibilité publique des ensembles de données et des documents a permis d'améliorer prévision de la pandémie et a apporté le possibilité d'une origine de fuite de laboratoire pour le SRAS-CoV-2 hors des ombres de la théorie du complot et dans la lumière publique.
En raison des données ouvertes et de la documentation transparente, d'autres se sont plaints que ces ressources ont été utilisées à mauvais escient par fauteuil scientifiques ou des scientifiques engagés dans intrusion épistémique en dehors de leurs domaines respectifs, ce qui entraîne une énorme pile déroutante d'informations trompeuses. Pourtant, même si le processus de la science est confiné uniquement aux "experts", la grande majorité des études produisent très peu informations précieuses ou exactes à d'autres chercheurs ou au grand public.
Ce n'est que grâce à une sélection naturelle rigoureuse et à un processus de réplication par les pairs que les meilleures idées survivent au-delà de leur battage médiatique initial. Il est également important de noter que des groupes de chercheurs dans un domaine particulier peuvent être tellement paralysés par des préjugés internes et politiques et une pensée de groupe toxique que seuls ceux qui ne font pas partie de leur domaine sont capables d'attirer l'attention sur le problème. Par conséquent, la capacité des autres scientifiques et du public à contribuer au processus correctif à long terme de la science est le meilleur moyen de se rapprocher de la vérité, malgré nos défauts collectifs.
Réimprimé de l'auteur Sous-empilement
Publié sous un Licence internationale Creative Commons Attribution 4.0
Pour les réimpressions, veuillez rétablir le lien canonique vers l'original Institut Brownstone Article et auteur.