L 'IA n'est pas intelligente, et c'est un risque systémique

 De : https://healthimpactnews.com/2024/theres-just-one-problem-ai-isnt-intelligent-and-thats-a-systemic-risk/

11 août 2024

par Charles Hugh Smith
de TwoMinds.com

Le mimétisme de l’intelligence n’est pas une intelligence, et même si le mimétisme de l’IA est un outil puissant, il n’est pas intelligent.

La mythologie de la technologie a un autel spécial pour l’IA, l’intelligence artificielle , qui est vénérée avec révérence comme source d’étonnantes réductions de coûts (à mesure que le travail humain est remplacé par l’IA) et d’expansion illimitée de la consommation et des profits. L’IA est l’heureuse perfection de l’avancée naturelle de la technologie vers des puissances toujours plus grandes.

Le consensus estime que les progrès de l’IA mèneront à une utopie d’un contrôle essentiellement illimité de la nature et à une corne d’abondance de loisirs et d’abondance.

Si nous levons le rideau de la mythologie, nous constatons que l’IA imite l’intelligence humaine , et ce mimétisme est si captivant que nous le considérons comme une preuve de l’intelligence réelle. Mais le mimétisme de l’intelligence n’est pas l’intelligence, et même si le mimétisme de l’IA est un outil puissant, il n’est pas intelligent.

Les itérations actuelles de l'IA générative – grands modèles de langage (LLM) et apprentissage automatique – imitent notre capacité de langage naturel en traitant des millions d'exemples d'écriture et de parole humaines et en extrayant les algorithmes sélectionnés comme les meilleures réponses aux requêtes.

Ces programmes d’IA n’ont aucune compréhension du contexte ou de la signification du sujet ; ils exploitent les connaissances humaines pour distiller une réponse. C'est potentiellement utile mais pas intelligent.

Les programmes d’IA ont une capacité limitée à discerner le vrai du faux , d’où leur propension à  halluciner  les fictions comme des faits. Ils sont incapables de faire la différence entre les variations statistiques et les erreurs fatales, et l’ajout de mesures de précaution ajoute une complexité supplémentaire qui devient un autre point d’échec.

Quant à l'apprentissage automatique, l'IA peut projeter des solutions plausibles à des problèmes exigeants en termes de calcul, tels que la façon dont les protéines se replient, mais cette  boîte noire informatique par force brute  est opaque et donc de valeur limitée : le programme ne comprend pas réellement le repliement des protéines de la même manière que les humains. comprenons-le, et nous ne comprenons pas comment le programme est arrivé à sa solution.

Puisque l’IA ne comprend pas réellement le contexte, elle se limite aux options intégrées dans sa programmation et ses algorithmes. Nous discernons ces limites dans les applications et les robots basés sur l’IA, qui n’ont aucune conscience du problème réel. Par exemple, notre connexion Internet est coupée en raison d'une mise à jour du système corrompue, mais comme cette possibilité n'a pas été incluse dans l'univers des problèmes à résoudre de l'application, l'application/le robot IA signale consciencieusement que le système fonctionne parfaitement même s'il est en panne. (Ceci est un exemple tiré de la vie réelle.)

Essentiellement, chaque niveau de cette exploration/mimétisme crée des points d'échec supplémentaires :  l'incapacité d'identifier la différence entre la réalité et la fiction ou entre les taux d'erreur admissibles et les erreurs fatales, la complexité supplémentaire des mesures de précaution et l'opacité de la boîte noire génèrent des risques. d'  accidents normaux  se transformant en défaillance des systèmes.

Il existe également le risque systémique généré par le recours à l’IA boîte noire pour faire fonctionner les systèmes, au point que les humains perdent la capacité de modifier ou de reconstruire les systèmes.  Cette dépendance excessive à l’égard des programmes d’IA crée un risque de défaillance en cascade non seulement des systèmes numériques, mais aussi de l’infrastructure du monde réel qui dépend désormais des systèmes numériques.

Il y a un résultat encore plus pernicieux à dépendre de l’IA pour trouver des solutions.  Tout comme la nature addictive des téléphones mobiles, des médias sociaux et du contenu Internet a perturbé notre capacité à nous concentrer et à apprendre des matières difficiles – un déclin dévastateur de l'apprentissage pour les enfants et les adolescents – l'IA offre une corne d'abondance de  faits à grignoter , d'extraits de codage, des publicités télévisées générées par ordinateur, des articles et des livres entiers qui ne nécessitent plus de connaissances approfondies des sujets et des processus. Faute de cette compréhension, nous ne sommes plus équipés pour poursuivre une enquête sceptique ou créer du contenu ou du codage à partir de zéro.

En effet, le processus ardu d’acquisition de ces connaissances semble désormais inutile :  le robot IA peut tout faire, rapidement, à moindre coût et avec précision. Cela crée deux problèmes : 1) lorsque les programmes d'IA boîte noire échouent, nous n'en savons plus assez pour diagnostiquer et réparer l'échec, ou faire le travail nous-mêmes, et 2) nous avons perdu la capacité de comprendre que dans de nombreux cas, il y a pas de réponse ni de solution, c'est le dernier mot : la « réponse » exige une interprétation des faits, des événements, des processus et des bases de connaissances qui sont par nature ambiguës.

Nous ne reconnaissons plus que la réponse de l'IA à une requête n'est pas un fait en soi, mais  une interprétation de la réalité présentée comme un fait , et que la solution de l'IA n'est qu'une des nombreuses voies, dont chacune comporte des compromis intrinsèques qui génèrent des coûts imprévisibles. et les conséquences à venir.

Pour discerner la différence entre une interprétation et un fait supposé, il faut un océan de connaissances à la fois vaste et profonde, et en perdant la motivation et la capacité d'apprendre des choses difficiles, nous avons même perdu la capacité de reconnaître ce que nous avons perdu : ceux qui ont peu de connaissances réelles n’ont pas les bases nécessaires pour comprendre la réponse de l’IA dans le contexte approprié.

Le résultat net est que nous devenons moins capables et moins informés, aveugles aux risques créés par notre perte de compétence, tandis que les programmes d’IA introduisent des risques systémiques que nous ne pouvons ni prévoir ni prévenir.  L’IA dégrade la qualité de chaque produit et système, car le mimétisme ne génère pas de réponses, de solutions et d’idées définitives, il génère seulement  une illusion de réponses, de solutions et d’idées définitives  que nous confondons bêtement avec l’intelligence réelle.

Alors que l’État corporatif néoféodal se réjouit des bénéfices récoltés en éliminant massivement le travail humain, l’exploitation minière/le mimétisme du savoir humain a des limites.  S'appuyer sur les programmes d'IA pour éliminer toutes les erreurs fatales est en soi une erreur fatale, et les humains doivent donc rester dans la boucle de décision (la boucle OODA : observer, orienter, décider, agir).

Une fois que les programmes d’IA s’engagent dans des processus de sécurité des personnes ou de soins de santé, chaque entité connectée au programme d’IA est exposée à une responsabilité illimitée ( jointe et solidaire ) en cas d’erreurs préjudiciables ou mortelles.

Si nous réduisons la mythologie et l’hyperbole, nous nous retrouvons avec une autre structure néoféodale :  les riches seront servis par les humains, et le reste d’entre nous sera coincé avec un service d’IA de mauvaise qualité, sujet aux erreurs, sans aucun recours.

Les promoteurs de l’IA s’attendent à ce que l’IA générative récolte des milliards de dollars de bénéfices grâce aux économies de coûts et aux nouveaux produits/services. Cette histoire ne cartographie pas le monde réel , dans lequel chaque outil logiciel d'IA est facilement copié/distribué et il sera donc impossible de protéger toute  valeur de rareté , qui est la dynamique essentielle pour maintenir le  pouvoir de fixation des prix  nécessaire pour récolter des profits démesurés.

Il y a peu de valeur dans les outils logiciels que tout le monde possède à moins qu'un monopole ne restreigne la distribution, et peu de valeur dans le contenu auto-généré par ces outils : les millions de chansons, films, communiqués de presse, essais, documents de recherche, etc. générés par l'IA vont submerger tout public potentiel, réduisant à zéro la valeur de tout le contenu généré par l’IA.

Les promoteurs affirment que la suppression massive d’emplois sera comme par magie compensée par de nouvelles industries entièrement créées par l’IA , faisant écho à la transition du travail agricole vers les emplois en usine. Mais le dragon de l’IA  mangera sa propre queue, car il crée peu d’emplois ou de bénéfices pouvant être imposés pour rémunérer les gens qui ne travaillent pas (revenu de base universel).

La limite la plus importante de l’IA est peut-être qu’elle ne fera rien pour remédier aux problèmes les plus urgents de l’humanité.  Elle ne peut pas nettoyer le  tourbillon de déchets du Grand Pacifique , ni limiter les 450 millions de tonnes de plastique pour la plupart non recyclées rejetées chaque année, ni inverser le changement climatique, ni nettoyer les orbites terrestres basses des milliers de détritus dangereux propulsés  à grande vitesse, ni transformer les  déchets hautement rentables en croissance de l'économie des décharges  et en un système mondial durable, ou encore  éliminer toutes les sources de ce que j'appelle  l'anti-progrès .

L' IA ajoutera simplement de nouvelles sources de risque systémique, de gaspillage et d’exploitation néoféodale.

Lisez l’article complet sur OfTwoMinds.com .


Commentaires

Posts les plus consultés de ce blog

Reiner Fuëllmich - Le point suite à son arrestation

(Rappel) Comment se désintoxiquer de l'oxyde de graphène

Les ukrainiens avaient prévu de liquider Macron en Ukraine