ChatGPT ne serait pas remarquable - ce serait principalement un outil de désinformation avancé
Le "parrain de l'IA" dit que les prophètes de malheur ont tort et que ChatGPT n'est pas remarquable - c'est principalement un outil de désinformation avancé
par Brian Shilhavy
Rédacteur en chef, Health Impact News 28 avril 2023
Le battage médiatique sur les recherches AI Chat ainsi que «l' IA va conquérir le monde et remplacer les humains » se poursuit sans relâche, et les investissements dans l'IA sont désormais la seule chose qui reste pour soutenir l'économie américaine.
Je suppose que c'est le résultat d'une génération d'adultes qui ont maintenant grandi à «l'ère informatique» à partir du début des années 1980 et qui dirigent maintenant l'économie avec leurs croyances en l'IA et la technologie.
Les technologues de la vieille école comme moi, qui ont vu toute cette technologie se développer et en savent un peu plus, n'ont que peu ou pas d'influence pour essayer de dissiper ces fausses croyances. J'ai gagné ma vie et construit ma carrière sur cette technologie depuis plus de 25 ans maintenant, mais cela ne semble pas avoir d'importance avec cette génération.
Si vous voulez éviter la catastrophe qui se prépare à cause du surinvestissement dans cette nouvelle mode technologique, commencez par lire cet article historique sur les échecs et les pertes de l'investissement dans l'IA au cours des 75 dernières années :
L'histoire de 75 ans d'échecs avec "l'intelligence artificielle" et des milliards de dollars d'investissements perdus dans la science-fiction pour le monde réel
Mes opinions sur le battage médiatique autour de cette "nouvelle" mode de l'IA ne sont pas uniques du tout, car beaucoup d'autres les partagent également, mais il est beaucoup plus intéressant d'affirmer que l'IA va conquérir le monde et remplacer les humains, et c'est le vue qui génère des clics et du trafic aujourd'hui, qui peut évidemment être monétisée également.
Par conséquent, le point de vue « l'IA va conquérir le monde » est le point de vue prédominant, non pas parce qu'il est vrai, mais parce qu'il est plus populaire et se vend plus.
Je vais donc mettre en évidence certaines des autres voix dissidentes dans cet article, puis je vais montrer ce que ce "nouveau" logiciel AI Chat fait réellement aujourd'hui , car il est rendu public depuis environ 5 mois maintenant.
Mais si vous voulez savoir ce qu'il fait réellement aujourd'hui avec des centaines de millions d'utilisateurs, voici : c'est un outil de désinformation et de collecte de données.
Yann LeCun, professeur à l'Université de New York et scientifique en chef de l'IA sur les méta-plateformes : "ChatGPT n'est pas remarquable"
Cette première voix dissidente sur le battage médiatique actuel de l'IA est de Yann LeCun, professeur à NYU, qui est également scientifique en chef de l'IA chez Meta.
Le "parrain de l'IA" dit que les Doomsayers ont tort et que ChatGPT n'est pas remarquable
Parlons en . Salut tout le monde. L'excitation suscitée par les progrès de l'intelligence artificielle générative a atteint son paroxysme, entraînant avec elle une série d'inquiétudes extrêmes.
Les semeurs de peur appartiennent à deux camps : soit l'IA permettra bientôt un vaste avenir dystopique, soit elle déclenchera une menace existentielle pour l'humanité. Le mois dernier, un groupe de dirigeants de la technologie, dont Elon Musk et certains sommités de l'IA, ont ajouté de l'huile sur le feu lorsqu'ils ont appelé à une pause de six mois sur le développement de systèmes d'IA avancés afin que l'industrie puisse mettre en place des protections contre des résultats néfastes.
L'appel des dirigeants technologiques à suspendre l'innovation est à la fois sans précédent et inutile.
Barron's Tech s'est récemment entretenu avec Yann LeCun, scientifique en chef de l'IA chez Meta Platforms, sur l'état actuel de l'IA, la montée en puissance de ChatGPT et son point de vue sur les raisons pour lesquelles demander un moratoire sur la recherche sur l'IA est une erreur.
LeCun est l'un des scientifiques les plus éminents de l'industrie de l'IA et a été un critique virulent de ceux qui ont exagéré les capacités de la technologie sous-jacente utilisée par les chatbots d'IA tels que ChatGPT.
Il est professeur à l'Université de New York et a rejoint Facebook, maintenant Meta, en 2013. Avec Geoffrey Hinton et Yoshua Bengio, LeCun a reçu le prix ACM Turing 2018, connu sous le nom de prix Nobel d'informatique , pour ses recherches sur les techniques d'apprentissage en profondeur qui ont un devenir fondamental pour les technologies d'IA modernes.
Les trois scientifiques ont souvent été appelés les «parrains de l'IA» pour leur travail dans l'espace.
Voici les faits saillants édités de notre conversation avec LeCun.
Barron's : Expliquez-vous comment ChatGPT et la technologie derrière les grands modèles de langage (LLM) fonctionnent ?
LeCun : Vous pouvez le considérer comme un clavier prédictif super puissant. Les grands modèles de langage sont d'abord entraînés sur une énorme quantité de mots. Nous montrons au modèle une fenêtre de mots et lui demandons quel est le mot suivant. Il va prédire le mot suivant, injecter le mot puis se demander quel est le mot suivant.
A quoi servent les modèles bons et moins bons ?
Ils sont bons pour les aides à la rédaction. Cela peut vous aider à formuler les choses dans un style grammaticalement correct. Mais répondre à des questions factuelles ? Ils ne sont pas si bons. Le modèle régurgite soit ce qui est stocké dans sa mémoire, soit une chose approximative qui est un mélange ou une interpolation de diverses choses qu'il a lues dans les données d'apprentissage. Cela signifie qu'il peut s'agir d'une erreur factuelle ou qu'il s'agit simplement d'inventer des choses qui sonnent bien.
Pourquoi les chatbots IA ont-ils parfois de si gros problèmes de précision ?
Lorsque vous avez un système comme celui-ci qui prédit essentiellement un mot après l'autre, ils sont difficiles à contrôler ou à diriger car ce qu'ils produisent dépend entièrement des statistiques sur lesquelles ils se sont entraînés et de l'invite donnée.
Mathématiquement, il y a de fortes chances qu'il s'écarte de manière exponentielle du chemin des bonnes réponses. Plus la réponse est longue, plus il est probable que vous finissiez par produire des idioties complètes.
Sommes-nous proches de l'IAG, ou intelligence artificielle générale, lorsque les machines sont capables d'apprendre et de penser par elles-mêmes ?
Certains prétendent qu'en développant ces systèmes [LLM], nous atteindrons une intelligence de niveau humain. Mon opinion à ce sujet est que c'est complètement faux. Il y a beaucoup de choses que nous ne comprenons pas et que nous ne savons pas encore reproduire avec des machines, ce que certains appellent AGI.
Nous n'allons pas pouvoir utiliser une technologie comme ChatGPT ou GPT4 pour entraîner un robot à débarrasser une table ou à remplir le lave-vaisselle.
Même si c'est une tâche triviale pour un enfant. Nous ne pouvons toujours pas le faire. Nous n'avons toujours pas de conduite autonome de niveau cinq. Cela nécessite un ensemble de compétences complètement différent que vous ne pouvez pas apprendre en lisant un texte. ( Article complet .)
Vient ensuite Emily M. Bender, qui, comme moi, a une formation en linguistique. Elle est professeur de linguistique à l'Université de Washington et directrice de la faculté du programme de maîtrise en linguistique computationnelle.
Décideurs politiques : s'il vous plaît, ne tombez pas dans les amusements de #AIhype
Vous trouverez ci-dessous une version légèrement modifiée du fil tweet/toot que j'ai créé dans la soirée du mardi 28 mars, en réaction à la lettre ouverte publiée par l'institut Future of Life le même jour.
D'accord, alors cette lettre sur l'IA signée par de nombreux chercheurs en IA appelant à une "Pause [on] Giant AI Experiments" ? C'est juste dégoulinant de #AIhype . Voici un aperçu rapide.
La lettre peut être trouvée ici : https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Tout d'abord, pour le contexte, notez que l'URL ? L'Institut du Futur de la Vie est une opération longtermiste. Vous savez, les gens qui se concentrent sur la maximisation du bonheur de milliards d'êtres futurs qui vivent dans des simulations informatiques.
Pour un contexte, voir : https://aeon.co/essays/why-longtermism-is-the-worlds-most-dangerous-secular-credo
Donc, cela vous dit déjà quelque chose sur l'origine de cela. Ça va être un gros gâchis.
Il y a quelques points dans la lettre avec lesquels je suis d'accord, j'essaierai de les sortir du pétrin au fur et à mesure. Sur ce, dans le #AIhype . Cela commence par « les systèmes d'IA dotés d'une intelligence humaine compétitive peuvant poser de graves risques pour la société et l'humanité, comme le montrent des recherches approfondies[1] ».
La note de bas de page 1 indique de nombreux articles, à commencer par Stochastic Parrots . Mais dans cet article, nous ne parlons pas d'hypothétiques "systèmes d'IA avec intelligence compétitive humaine". Nous parlons de grands modèles de langage.
Et pour le reste de ce paragraphe : Oui, les laboratoires d'IA sont enfermés dans une course incontrôlable, mais personne n'a développé un « esprit numérique » et ils ne sont pas en train de le faire.
Les créateurs pourraient-ils "contrôler de manière fiable" #ChatGPT et al ? Oui, ils le pourraient - en ne les configurant tout simplement pas comme des sources facilement accessibles de non-information empoisonnant notre écosystème de l'information.
Les gens pourraient-ils « comprendre » ces systèmes ? Il y a beaucoup de questions ouvertes sur la façon dont les réseaux de neurones profonds mappent les entrées aux sorties, mais nous serions bien mieux placés pour les étudier si les laboratoires d'IA fournissaient de la transparence sur les données de formation, l'architecture du modèle et les régimes de formation.
Paragraphe suivant :
Humain-compétitif pour les tâches générales, hein ? À quoi la note de bas de page 3 fait-elle référence ? Le roman de fiction spéculatif connu sous le nom de "Sparks paper" et la copie publicitaire non technique d'OpenAI pour GPT4. ROFLMAO.
Sur le texte "étincelles", voir :
https://twitter.com/emilymbender/status/1638891855718002691?s=20Sur la copie publicitaire GPT-4, voir :
https://twitter.com/emilymbender/status/1635697381244272640?s=20Et sur la « généralité » dans les tâches dites « IA », voir : Raji et al. 2021. AI and the Everything in the Whole Wide World Benchmark from NeurIPS 2021 Track on Datasets and Benchmarks .
Je veux dire, je suis content que les auteurs et signataires de la lettre demandent "Devrons-nous laisser les machines inonder nos canaux d'information de propagande et de contrevérité?" mais les questions qui suivent sont juste déséquilibrées #AIhype, aide ceux qui construisent ce truc à le vendre. ( Article complet .)
Et voici un autre article d'Emily M. Bender.
Le PDG de Google colporte #AIhype sur CBS 60 minutes
Un autre fil de tweet s'est transformé en un article de blog, pour tout garder au même endroit, réagissant à ce tweet/clip de CBS 60 Minutes (tel que signalé par Melanie Mitchell) :
C'est tellement pénible à regarder. @60Minutes et @sundarpichai travaillent de concert pour s'attaquer au #AIHype . Une transcription partielle (que je viens de taper) et des réactions de ma part suivent :
Journaliste : "Parmi les problèmes d'IA que nous avons abordés, le plus mystérieux est appelé" propriétés émergentes ". Certains systèmes d'IA s'auto-enseignent des compétences qu'ils n'étaient pas censés avoir.
"Propriétés émergentes" semble être la manière respectable de dire "AGI". C'est encore des conneries.
Comme le souligne @mmitchell_ai (lisez tout son fil; c'est génial) si vous créez une ignorance sur les données de formation, bien sûr, les performances du système seront surprenantes.
Journaliste : « Comment cela se produit n'est pas bien compris. Par exemple, un programme Google AI s'est adapté de lui-même après avoir été sollicité dans la langue du Bangladesh, pour le quel il n'a pas eu de formation. »
Y a-t-il du bengali dans les données d'entraînement ? bien sûr :
Personne interrogée non identifiée : "Nous avons découvert qu'avec très peu d'incitations en bengali, il peut maintenant traduire tout le bengali."
Que signifie "tout le bengali" ? Comment cela a-t-il été testé ?
Plus tard dans le clip, @sundarpichai dit : « Il y a un aspect que nous nous tous sur le terrain, appelons une boîte noire. Vous savez, vous ne comprenez pas entièrement, et vous ne pouvez pas vraiment dire pourquoi il a dit cela ou pourquoi il s'est trompé. […] »
Journaliste : « Vous ne comprenez pas tout à fait comment cela fonctionne, et pourtant vous l'avez lâché dans la société ? Pichai : « Permettez-moi de vous le dire ainsi : je ne pense pas non plus que nous comprenions parfaitement comment fonctionne un esprit humain.
Avez-vous perçu ce tour de passe-passe rhétorique?
Pourquoi notre compréhension (je suppose, scientifique) de la psychologie humaine ou de la neurobiologie serait-elle pertinente ici ?
Le journaliste a demandé pourquoi une entreprise publierait des systèmes qu'elle ne comprend pas. Les humains sont-ils des choses que les entreprises « lâchent » sur la société ? (Bien sûr que non.)
Le mouvement rhétorique que @sundarpichai mentionne ici invite l'auditeur à imaginer Bard comme comme une personne, dont nous devons accepter le comportement ou peut-être patiemment améliorer . CE.N' EST. PAS.LE.CAS
Plus généralement, chaque fois qu'un booster d'IA fait cette avancée ("nous ne comprenons pas non plus les humains"), ils essaient soit d'éviter toute la responsabilité, soit de vendre leur système comme un être mystérieux, magique et autonome.
Les journalistes doivent le reconnaître et REPOUSSER. ( Article complet .)
Voir également:
La technologie ne nous sauvera pas : ChatGPT n'est pas intelligent avec Emily M. Bender
Paris Marx est rejoint par Emily M. Bender pour discuter de ce que signifie dire que ChatGPT est un "perroquet stochastique", pourquoi Elon Musk appelle-t-il à suspendre le développement de l'IA et comment l'industrie technologique utilise le langage pour nous inciter à acheter ses récits sur technologie.
Emily M. Bender est professeure au Département de linguistique de l'Université de Washington et directrice de la faculté du programme de maîtrise en linguistique computationnelle. Elle est également directrice du Laboratoire de linguistique computationnelle.
Ce que font réellement les chatbots IA aujourd'hui
L'un des moyens les plus simples de voir ce que font ces robots AI Chat est d'en utiliser un pour vous rechercher, ou peut-être chercher quelqu'un d'autre que vous connaissez, puis de voir si ce qu'ils disent est exact ou non.
Comme je l'ai déjà signalé , je ne suis pas en mesure de tester le plus populaire de ces programmes AI Chat, ChatGPT de Microsoft, car lorsque j'ai essayé de créer un compte, il voulait un VRAI numéro de téléphone portable, et non un "virtuel".
J'ai donc refusé d'aller plus loin.
Si vous essayez d'installer ChatGPT en tant qu'extension de votre navigateur Web, vous obtenez cet avertissement :
Encore une fois, j'ai refusé, car je ne fais PAS confiance au "développeur".
Cependant, il y a un nouveau site de recherche qui utilise le logiciel AI Chat, et ils prétendent qu'ils sont " Un moteur de recherche sans suivi ni publicités invasives ". C'est You.com .
Cependant, tout comme Duckduckgo.com, axé sur la confidentialité, You.com utilise les résultats de recherche du moteur de recherche Bing de Microsoft. ( Source .)
Cela signifie que, tout comme Google, des algorithmes sont en place pour afficher les résultats de recherche et s'assurer que vous ne trouvez pas d'informations qu'ils appellent de la "désinformation".
J'ai donc profité de pouvoir utiliser cet outil de recherche d'IA sans avoir à m'inscrire ni à m'identifier, et j'ai commencé par simplement taper mon nom, ce qui a donné ceci :
Brian Shilhavy semble être le rédacteur en chef de Health Impact News et le fondateur/propriétaire de Healthy Traditions. Il est l'auteur d'un livre intitulé « L'huile de noix de coco vierge : comment elle a changé la vie des gens et comment elle peut changer la vôtre ! et a également publié des articles liés aux vaccins et à la sécurité des vaccins. Le site Web HealthImpactNews.com, fondé par Brian Shilhavy, a publié de nombreuses histoires liées à la sécurité et à l'efficacité du vaccin COVID-19, dont certaines ont été critiquées pour contenir des informations erronées . Il convient de noter que certaines de ses affirmations ont été contestées par des experts et des organisations de la santé.
Il y avait un champ pour poser une question de suivi, alors j'ai demandé : « Brian Shilhavy fournit-il la preuve que les vaccins ne sont pas sûrs ? “, car une grande partie de ce que j'ai publié est tirée directement de la propre base de données VAERS du gouvernement américain.
Voici la réponse qu'il a donnée :
Alors que Brian Shilhavy a publié des articles et écrit des livres sur les vaccins affirmant qu'ils peuvent causer des dommages, il existe un désaccord important au sein de la communauté scientifique sur la véracité de ces affirmations. Il existe une multitude de preuves scientifiques à l'appui de l'innocuité et de l'efficacité des vaccins, et les agences gouvernementales de santé du monde entier ont recommandé la vaccination comme mesure de santé publique importante. Il convient de noter que certaines des affirmations de Shilhavy ont été contestées par des experts et des organisations de la santé. Par conséquent, il est important de consulter diverses sources fiables lorsqu'il s'agit de prendre des décisions en matière de soins de santé.
Notez qu'il n'a pas répondu à ma question, mais a simplement répété la propagande publiée par le CDC, la FDA et d'autres.
Dans la barre latérale, il énumérait ce lien :
L'article affirmant que le vaccin contre la grippe provoque une maladie grave et la mort est trompeur et inexact
Il s'agit d'un article à succès plus ancien de 2018 contre un article que nous avons publié et qui devenait viral sur Facebook à l'époque, qui a réussi à tuer notre trafic car la plupart des gens lisaient simplement le titre et ne cliquaient jamais sur l'article, qui n'a jamais réellement prétendu que l'information que nous fournissions était "fausse", car ce n'était pas le cas.
Voici pourquoi ils ont dit que c'était "trompeur et inexact".
Trompeur : L'allégation des dommages causés par le vaccin contre la grippe repose sur un rapport officiel du gouvernement (demandes d'indemnisation en raison de préjudices causés par le vaccin). Mais l'article ne mentionne jamais qu'il n'est pas nécessaire que les requérants présentent des preuves.
Non étayé : l'article ne fournit pas de preuves évaluées par des pairs des méfaits du vaccin contre la grippe.
Inexact : L'article minimise les avantages du vaccin contre la grippe en fournissant des statistiques erronées sur la réduction de la mortalité associée à la grippe.
Ils n'ont pas non plus fourni de lien vers l'article que nous avons publié, afin que quelqu'un puisse vérifier par lui-même que ce que nous publions réellement était "trompeur et inexact" ou non.
Et la plupart des gens aujourd'hui ne peuvent pas penser par eux-mêmes de toute façon, et ne seraient pas en mesure de voir clairement la propagande ici, comme la déclaration "il n'est pas nécessaire que les pétitionnaires présentent des preuves " qui n'a pas de sens, parce que les pétitionnaires présentent très certainement des preuves quand ils déposent une réclamation la plupart du temps, que ce soit « nécessaire » ou non.
Ils ont également utilisé le sophisme logique de l'argument du silence , en disant que nous n'avions pas fourni de " preuves examinées par des pairs des méfaits du vaccin contre la grippe ".
Mais nous n'avons jamais prétendu avoir fourni des preuves "examinées par des pairs", et l'absence de ces preuves ne prouve rien.
Nous avons fourni un autre type de preuves contenues dans la base de données du gouvernement VAERS, ainsi que des réclamations réglées devant le Tribunal national des vaccins pour les décès et les blessures dus au vaccin contre la grippe – ce dont la plupart des gens ne sont même pas conscients.
C'est ce que fait AI Chat. Il prend simplement la propagande de Google ou de Bing et crée du texte et des récits autour de cette "information" pour lutter contre la "désinformation" selon eux .
Et comme beaucoup d'autres et moi-même l'avons déjà signalé, et ce que Microsoft et Google admettent publiquement , c'est que si le bot AI Chat ne trouve pas les informations nécessaires pour élaborer une réponse, il invente tout simplement.
Et pourtant, cela a été déversé sur l public de manière massive, avec des résultats désastreux, car il collecte les données que vous fournissez afin de pouvoir continuer à "former" leur IA.
Voici un rapport qui vient d'être publié cette semaine par un conseiller en investissement qui montre que le logiciel AI Chat dégrade , et NON améliore, les informations en ligne.
Préparez-vous à une avalanche de contenu d'investissement en ligne horrible, grâce à ChatGPT
par J. Kim de la sous-stack skwealthacademy
Extraits :
Récemment, j'ai beaucoup lu sur la façon dont ChatGPT a permis aux personnes qui ont encore la possibilité de travailler à domicile d'avoir simultanément trois ou quatre emplois, surtout si leur travail implique des tâches que ChatGPT est particulièrement apte à accomplir, comme écrire du code , la résolution de problèmes de code et la rédaction de textes marketing et publicitaires.
Il y a littéralement des gens qui occupent quatre emplois maintenant, et non pas parce qu'ils doivent travailler 16 heures par jour pour joindre les deux bouts, mais parce qu'ils occupent des emplois pour lesquels ChatGPT accomplit 80 % ou plus des tâches requises pour chaque emploi.
Il est donc logique que ChatGPT leur permette de ne passer que 20 % du temps normal requis pour accomplir leurs tâches professionnelles, pour qu'ils puissent travailler simultanément sur quatre emplois et qu'ils aient encore 20 % de temps libre en plus qu'auparavant.
La mauvaise nouvelle pour les investisseurs
Malheureusement, l'utilité même de l'IA que de nombreux employés exploitent pour gagner des salaires importants tout en effectuant très peu de travail entraînera une avalanche massive et une prolifération d'horribles conseils financiers et d'investissement en ligne.
Et c'est une mauvaise nouvelle pour l'investisseur particulier qui recherche constamment des informations en ligne pour guider ses stratégies d'investissement.
Déjà en ce moment au deuxième trimestre 2023, la quantité de stratégies d'investissement , régurgitées,obsolètes et inefficaces domine les articles financiers et d'investissement en ligne et trouver des conseils d'investissement précieux en ligne revient à chercher une aiguille dans la botte de foin proverbiale.
Mais c'est sur le point de s'aggraver à cause de l'IA. Bien, bien pire .
Il ne fait aucun doute que de nombreux écrivains qui gagnent leur vie en fournissant des analyses et des conseils financiers et d'investissement se sont déjà tournés vers ChatGPT pour écrire des articles pour eux étant donné que le ChatGPT peut, par exemple, condenser les plusieurs heures qu'il m'a fallu pour écrire cet article à moins de 20 minutes.
Cinq minutes pour que ChatGPT écrive l'article et peut-être 15 minutes supplémentaires pour modifier le langage de l'article afin de donner l'impression qu'un humain au lieu d'un programme d'IA a écrit l'article.
En fait, si je devais proposer une hypothèse purement spéculative, je supposerais que le nombre d'articles écrits par ChatGPT de nature financière/d'investissement sur des plateformes payantes comme Substack et d'autres défie déjà le nombre d'articles écrits non-ChatGPT.
Cependant, comme je l'ai déjà indiqué sur ma plateforme de newsletter skwealthacademy substack , je promets qu'aucun des articles que vous lisez sur ma newsletter substack ne sera jamais partiellement ou majoritairement écrit par ChatGPT et que tous ne contiendront que du contenu original basé sur mes recherches et analyse.
Même si mon hypothèse ci-dessus est correcte et que la tendance progresse finalement au point où 95 % de tous les articles financiers écrits en ligne par des auteurs avec des modèles d'abonnement payant sont écrits par ChatGPT, pourquoi cela serait-il une chose terrible pour tous les investisseurs ?
Pour commencer, j'ai expérimenté ChatGPT juste pour analyser la véracité et l'exactitude de son écriture financière, et sur une échelle de 1 à 10, je lui donnerais une note de 1, ce qui signifie alors que la grande majorité des articles financiers publiés en ligne pourraient dégénérer en un.
Par exemple, il suffit de lire cet article dans lequel j'ai décrit de nombreuses erreurs et fautes sur l'or en tant qu'investissement contenues dans un article que j'ai demandé à ChatGPT d'écrire.
La raison pour laquelle tant d'erreurs ont été contenues dans cet article écrit de ChatGPT est que ChatGPT tire des informations lors de la rédaction de son article de vastes archives de matériel en ligne. Ce n'était pas le seul article que j'ai demandé à ChatGPT d'écrire sur un sujet de finance / investissement, mais j'ai également demandé à ChatGPT d'écrire des articles sur d'autres actifs comme les actions, les obligations, le pétrole, etc., et bien qu'il ne fournisse aucun "conseil financier", il transmet les mêmes réponses passe-partout à propos de ces actifs, comme je vais en discuter ci-dessous.
Dans chaque cas, il était évident pour moi que les articles écrits de ChatGPT déployaient un algorithme similaire à l'algorithme de Google pour déterminer ce qui était correct et ce qui ne l'était pas.
En d'autres termes, les messages véhiculés à travers ses articles avaient les mêmes biais que vous trouveriez chez n'importe quel conseiller financier américain ou mondial : anti-or, pro-USD/Euro, pro-actions souveraines et pro-les actions les plus détenues, pro- obligations souveraines, anti-pétrole si la machine de guerre était anti-pétrole, anti-nucléaire si la machine de guerre était pro-éolien et pro-solaire (malgré l'inefficacité massive et les coûts élevés de ces énergies "vertes") etc. .
En énonçant le parti pris ChatGPT d'une autre manière, avec des sujets de finance/investissement, il s'agissait essentiellement d'un porte-parole pour l'industrie mondiale de l'investissement commercial et pour le complexe de la banque et de l'industrie de l'armement .
Tous les articles que je lui ai demandé d'écrire sur la finance / l'investissement manquaient de prévoyance ou de capacité à prédire avec précision des changements massifs dans l'environnement d'investissement, de sorte que le contenu qu'il fournissait plaçait un investisseur en retrait au lieu d'être en anticipation.
AI Chat ne va pas conquérir le monde, mais il va très certainement essayer de faire taire les voix dissidentes et de créer un récit unique qui est "acceptable", selon eux, car il collecte des données sur vous pendant que vous continuez à l'utiliser. , si vous avez créé un compte pour en utiliser un.
Commentaires
Enregistrer un commentaire