CLOWNS SCIENTIFIQUES :

 De : https://www.naturalnews.com/2024-06-04-wiley-shuts-down-over-11000-fraudulent-papers.html


Wiley enlève plus de 11 000 articles frauduleux " évalués par des pairs"  et qu'il avait précédemment publié comme étant de la science de pointe 



John Wiley and Sons, un éditeur universitaire majeur, retire actuellement plus de 11 300 articles scientifiques « évalués par des pairs » qu’ils avaient publiés précédemment. Ces articles étaient autrefois considérés comme une science de pointe et ont été cités à de nombreuses reprises par d’autres chercheurs universitaires. Aujourd’hui, ces articles scientifiques – qui dépendaient souvent de l’argent des contribuables pour financer la recherche – se révèlent frauduleux.

De plus, l'éditeur de 217 ans a annoncé la fermeture de 19 revues en raison d'une fraude à grande échelle dans la recherche. Les faux articles contenaient souvent des phrases absurdes générées par l’IA pour éviter la détection du plagiat. Les exemples incluent le « cancer du sein » appelé « péril du sein » et la « dynamique des fluides » écrite sous le nom de « flux gluant ». Dans un article, « l’intelligence artificielle » était qualifiée de « conscience contrefaite ».

Ces problèmes systémiques de fraude ont considérablement porté atteinte à la légitimité de la recherche scientifique et à l’intégrité des revues scientifiques. Le secteur de l’édition universitaire, évalué à près de 30 milliards de dollars, est confronté à une crise de crédibilité.

Les scientifiques font des économies en utilisant l’IA de manière frauduleuse

Les scientifiques du monde entier sont confrontés à une immense pression pour publier, car leur carrière est souvent définie par le prestige de leurs publications évaluées par des pairs. Les chercheurs réclament des fonds et rognent sur les raccourcis en utilisant des références non pertinentes et l’IA générative. Par exemple, un article scientifique est censé inclure des citations qui reconnaissent la recherche originale qui a éclairé l'article actuel. Cependant, certains articles comportent une liste de références non pertinentes pour donner l’impression que l’article est légitime. Dans de nombreux cas, les chercheurs s'appuient sur l'IA pour générer ces références de citations, mais bon nombre de ces références n'existent pas ou ne s'appliquent pas à l'article en question. Dans un groupe d’études rétractées, des adresses e-mail de contact presque identiques ont été enregistrées dans une université en Chine, bien que peu d’auteurs, voire aucun, y soient basés.

La connaissance humaine est attaquée ! Les gouvernements et les grandes entreprises recourent à la censure pour anéantir la base de connaissances de l’humanité sur la nutrition, les herbes, l’autonomie, l’immunité naturelle, la production alimentaire, la préparation et bien plus encore. Nous préservons les connaissances humaines grâce à la technologie de l’IA tout en construisant l’infrastructure de la liberté humaine. Utilisez notre plateforme de liberté d'expression décentralisée, basée sur la blockchain et non censurable sur Brighteon.io . Explorez nos outils d'IA générative téléchargeables gratuitement sur Brighteon.AI . Soutenez nos efforts pour construire l’infrastructure de la liberté humaine en achetant sur HealthRangerStore.com , proposant des aliments et des solutions nutritionnelles testés en laboratoire et certifiés biologiques, sans OGM.

L’IA générative est également utilisée pour dissimuler le plagiat dans de nouveaux articles scientifiques. Beaucoup de ces articles frauduleux contiennent des passages à consonance technique générés par l’IA. Ces passages sont insérés au milieu du document afin que le processus d’examen par les pairs ne puisse pas détecter les manigances. Ces phrases torturées de l'IA remplacent les termes réels issus de la recherche originale, de sorte que le plagiat ne soit pas détecté par les outils de filtrage.

Guillaume Cabanac, chercheur en informatique à l'Université Toulouse III-Paul Sabatier en France, a développé un outil pour identifier ces problèmes. L'outil s'appelle « Problematic Paper Screener ». Il analyse un vaste corpus de littérature publiée – environ 130 millions d’articles – à la recherche de divers signaux d’alarme, y compris des « phrases alambiquées ». Cabanac et ses collègues ont découvert que les chercheurs qui tentent d'échapper aux détecteurs de plagiat remplacent souvent les termes scientifiques clés par des synonymes générés par des générateurs de texte automatiques.

"Generative AI vient de leur offrir un ticket de loterie gagnant", a déclaré Eggleton d'IOP Publishing. "Ils peuvent produire ces documents à moindre coût et à grande échelle, alors que les méthodes de détection n'ont pas encore rattrapé leur retard. Je ne peux que voir ce défi s'accroître."

Environ 1 % de tous les articles scientifiques publiés sont générés par des ordinateurs.

En fait, un chercheur de l'University College London a récemment découvert qu'environ un pour cent de tous les articles scientifiques publiés l'année dernière, soit quelque 60 000 articles, avaient été rédigés par un ordinateur. Dans certains secteurs, cela équivaut à 1 article sur 5 rédigé par un ordinateur.

Par exemple, un article récent publié dans Surfaces and Interfaces dans la revue Elsevier contenait la ligne : « certainement, voici une introduction possible pour votre sujet ». Les chercheurs utilisent des chatbots IA et des grands modèles linguistiques (LLM) sans même regarder ce qui est transcrit pour publication. Une modification rapide permettrait de constater que cette phrase est écrite par un ordinateur. Les chercheurs, les pairs évaluateurs et les éditeurs ignorent les erreurs d’appellation fondamentales générées par l’IA. Alors, qu’est-ce qui, dans ces documents de recherche, est fabriqué, plagié ou inventé par un ordinateur ?

Elisabeth Bik, consultante en intégrité scientifique, a déclaré que les LLM sont conçus pour générer du texte, mais qu'ils sont incapables de produire des idées factuellement précises. "Le problème est que ces outils ne sont pas encore assez performants pour être fiables", dit Bik, en pointant du doigt un terme appelé "hallucination". Bik a déclaré que les LLM « inventent des trucs ».

Une confiance aveugle dans l’IA porte atteinte à l’intégrité des articles scientifiques. Il faut de solides compétences en matière de raisonnement et de discernement pour naviguer dans la nature peu fiable, mal interprétée et bavarde des grands modèles de langage d'IA .

Les sources incluent :

Joannenova.com

ScientificAmerican.com

ARXIV.org

Commentaires

Posts les plus consultés de ce blog

Les ukrainiens avaient prévu de liquider Macron en Ukraine

(Rappel) Comment se désintoxiquer de l'oxyde de graphène

Les vaccins COVID ont provoqué une augmentation d'au moins 14 000 % des cas de cancer aux États-Unis selon le CDC