Le
"parrain de l'IA" dit que les prophètes de malheur ont tort et que
ChatGPT n'est pas remarquable - c'est principalement un outil de
désinformation avancé
par Brian Shilhavy Rédacteur en chef, Health Impact News 28 avril 2023
Le battage médiatique sur les recherches AI Chat ainsi que «l' IA va conquérir le monde et remplacer les humains
» se poursuit sans relâche, et les investissements dans l'IA sont
désormais la seule chose qui reste pour soutenir l'économie américaine.
Je
suppose que c'est le résultat d'une génération d'adultes qui ont
maintenant grandi à «l'ère informatique» à partir du début des années
1980 et qui dirigent maintenant l'économie avec leurs croyances en l'IA
et la technologie.
Les
technologues de la vieille école comme moi, qui ont vu toute cette
technologie se développer et en savent un peu plus, n'ont que peu ou pas
d'influence pour essayer de dissiper ces fausses croyances. J'ai
gagné ma vie et construit ma carrière sur cette technologie depuis plus
de 25 ans maintenant, mais cela ne semble pas avoir d'importance avec
cette génération.
Si
vous voulez éviter la catastrophe qui se prépare à cause du
surinvestissement dans cette nouvelle mode technologique, commencez par
lire cet article historique sur les échecs et les pertes de
l'investissement dans l'IA au cours des 75 dernières années :
Mes
opinions sur le battage médiatique autour de cette "nouvelle" mode de
l'IA ne sont pas uniques du tout, car beaucoup d'autres les partagent
également, mais il est beaucoup plus intéressant d'affirmer que l'IA va
conquérir le monde et remplacer les humains, et c'est le vue qui génère
des clics et du trafic aujourd'hui, qui peut évidemment être monétisée
également.
Par conséquent, le point de vue « l'IA
va conquérir le monde » est le point de vue prédominant, non pas parce
qu'il est vrai, mais parce qu'il est plus populaire et se vend plus.
Je
vais donc mettre en évidence certaines des autres voix dissidentes dans
cet article, puis je vais montrer ce que ce "nouveau" logiciel AI Chat fait réellement aujourd'hui , car il est rendu public depuis environ 5 mois maintenant.
Mais
si vous voulez savoir ce qu'il fait réellement aujourd'hui avec des
centaines de millions d'utilisateurs, voici : c'est un outil de
désinformation et de collecte de données.
Yann
LeCun, professeur à l'Université de New York et scientifique en chef de
l'IA sur les méta-plateformes : "ChatGPT n'est pas remarquable"
Yann LeCun, professeur à NYU, est également scientifique en chef de l'IA chez Meta. Source d'images .
Cette
première voix dissidente sur le battage médiatique actuel de l'IA est
de Yann LeCun, professeur à NYU, qui est également scientifique en chef
de l'IA chez Meta.
Le "parrain de l'IA" dit que les Doomsayers ont tort et que ChatGPT n'est pas remarquable
Parlons en . Salut tout le monde. L'excitation
suscitée par les progrès de l'intelligence artificielle générative a
atteint son paroxysme, entraînant avec elle une série d'inquiétudes
extrêmes.
Les
semeurs de peur appartiennent à deux camps : soit l'IA permettra
bientôt un vaste avenir dystopique, soit elle déclenchera une menace
existentielle pour l'humanité. Le
mois dernier, un groupe de dirigeants de la technologie, dont Elon Musk
et certains sommités de l'IA, ont ajouté de l'huile sur le feu
lorsqu'ils ont appelé à une pause de six mois sur le développement de
systèmes d'IA avancés afin que l'industrie puisse mettre en place des
protections contre des résultats néfastes.
L'appel des dirigeants technologiques à suspendre l'innovation est à la fois sans précédent et inutile.
Barron's
Tech s'est récemment entretenu avec Yann LeCun, scientifique en chef de
l'IA chez Meta Platforms, sur l'état actuel de l'IA, la montée en
puissance de ChatGPT et son point de vue sur les raisons pour lesquelles
demander un moratoire sur la recherche sur l'IA est une erreur.
LeCun
est l'un des scientifiques les plus éminents de l'industrie de l'IA et a
été un critique virulent de ceux qui ont exagéré les capacités de la
technologie sous-jacente utilisée par les chatbots d'IA tels que
ChatGPT.
Il
est professeur à l'Université de New York et a rejoint Facebook,
maintenant Meta, en 2013. Avec Geoffrey Hinton et Yoshua Bengio, LeCun a
reçu le prix ACM Turing 2018, connu sous le nom de prix Nobel d'informatique
, pour ses recherches sur les techniques d'apprentissage en profondeur
qui ont un devenir fondamental pour les technologies d'IA modernes.
Les trois scientifiques ont souvent été appelés les «parrains de l'IA» pour leur travail dans l'espace.
Voici les faits saillants édités de notre conversation avec LeCun.
Barron's : Expliquez-vous comment ChatGPT et la technologie derrière les grands modèles de langage (LLM) fonctionnent ?
LeCun : Vous pouvez le considérer comme un clavier prédictif super puissant. Les grands modèles de langage sont d'abord entraînés sur une énorme quantité de mots. Nous montrons au modèle une fenêtre de mots et lui demandons quel est le mot suivant. Il va prédire le mot suivant, injecter le mot puis se demander quel est le mot suivant.
A quoi servent les modèles bons et moins bons ?
Ils sont bons pour les aides à la rédaction. Cela peut vous aider à formuler les choses dans un style grammaticalement correct. Mais répondre à des questions factuelles ? Ils ne sont pas si bons. Le
modèle régurgite soit ce qui est stocké dans sa mémoire, soit une chose
approximative qui est un mélange ou une interpolation de diverses
choses qu'il a lues dans les données d'apprentissage. Cela signifie qu'il peut s'agir d'une erreur factuelle ou qu'il s'agit simplement d'inventer des choses qui sonnent bien.
Pourquoi les chatbots IA ont-ils parfois de si gros problèmes de précision ?
Lorsque
vous avez un système comme celui-ci qui prédit essentiellement un mot
après l'autre, ils sont difficiles à contrôler ou à diriger car ce
qu'ils produisent dépend entièrement des statistiques sur lesquelles ils
se sont entraînés et de l'invite donnée.
Mathématiquement, il y a de fortes chances qu'il s'écarte de manière exponentielle du chemin des bonnes réponses. Plus la réponse est longue, plus il est probable que vous finissiez par produire des idioties complètes.
Sommes-nous
proches de l'IAG, ou intelligence artificielle générale, lorsque les
machines sont capables d'apprendre et de penser par elles-mêmes ?
Certains prétendent qu'en développant ces systèmes [LLM], nous atteindrons une intelligence de niveau humain. Mon opinion à ce sujet est que c'est complètement faux. Il
y a beaucoup de choses que nous ne comprenons pas et que nous ne savons
pas encore reproduire avec des machines, ce que certains appellent AGI.
Nous
n'allons pas pouvoir utiliser une technologie comme ChatGPT ou GPT4
pour entraîner un robot à débarrasser une table ou à remplir le
lave-vaisselle.
Même si c'est une tâche triviale pour un enfant. Nous ne pouvons toujours pas le faire. Nous n'avons toujours pas de conduite autonome de niveau cinq. Cela nécessite un ensemble de compétences complètement différent que vous ne pouvez pas apprendre en lisant un texte. ( Article complet .)
Vient ensuite Emily M. Bender, qui, comme moi, a une formation en linguistique. Elle
est professeur de linguistique à l'Université de Washington et
directrice de la faculté du programme de maîtrise en linguistique
computationnelle.
Décideurs politiques : s'il vous plaît, ne tombez pas dans les amusements de #AIhype
Vous
trouverez ci-dessous une version légèrement modifiée du fil tweet/toot
que j'ai créé dans la soirée du mardi 28 mars, en réaction à la lettre
ouverte publiée par l'institut Future of Life le même jour.
D'accord,
alors cette lettre sur l'IA signée par de nombreux chercheurs en IA
appelant à une "Pause [on] Giant AI Experiments" ? C'est juste dégoulinant de #AIhype . Voici un aperçu rapide.
Tout d'abord, pour le contexte, notez que l'URL ? L'Institut du Futur de la Vie est une opération longtermiste. Vous
savez, les gens qui se concentrent sur la maximisation du bonheur de
milliards d'êtres futurs qui vivent dans des simulations informatiques.
Donc, cela vous dit déjà quelque chose sur l'origine de cela. Ça va être un gros gâchis.
Il y a quelques points dans la lettre avec lesquels je suis d'accord, j'essaierai de les sortir du pétrin au fur et à mesure. Sur ce, dans le #AIhype . Cela
commence par « les systèmes d'IA dotés d'une intelligence humaine
compétitive peuvant poser de graves risques pour la société et
l'humanité, comme le montrent des recherches approfondies[1] ».
Capture d'écran de la lettre ouverte. Ceci est le premier paragraphe, accessible sur le lien ci-dessus.
La note de bas de page 1 indique de nombreux articles, à commencer par Stochastic Parrots . Mais dans cet article, nous ne parlons pas d'hypothétiques "systèmes d'IA avec intelligence compétitive humaine". Nous parlons de grands modèles de langage.
Et
pour le reste de ce paragraphe : Oui, les laboratoires d'IA sont
enfermés dans une course incontrôlable, mais personne n'a développé un «
esprit numérique » et ils ne sont pas en train de le faire.
Les créateurs pourraient-ils "contrôler de manière fiable" #ChatGPT et al ? Oui,
ils le pourraient - en ne les configurant tout simplement pas comme des
sources facilement accessibles de non-information empoisonnant notre
écosystème de l'information.
Les gens pourraient-ils « comprendre » ces systèmes ? Il
y a beaucoup de questions ouvertes sur la façon dont les réseaux de
neurones profonds mappent les entrées aux sorties, mais nous serions
bien mieux placés pour les étudier si les laboratoires d'IA
fournissaient de la transparence sur les données de formation,
l'architecture du modèle et les régimes de formation.
Paragraphe suivant :
Capture d'écran du deuxième paragraphe de la lettre ouverte
Humain-compétitif pour les tâches générales, hein ? À quoi la note de bas de page 3 fait-elle référence ? Le roman de fiction spéculatif connu sous le nom de "Sparks paper" et la copie publicitaire non technique d'OpenAI pour GPT4. ROFLMAO.
Je
veux dire, je suis content que les auteurs et signataires de la lettre
demandent "Devrons-nous laisser les machines inonder nos canaux
d'information de propagande et de contrevérité?" mais les questions qui suivent sont juste déséquilibrées #AIhype, aide ceux qui construisent ce truc à le vendre. ( Article complet .)
Et voici un autre article d'Emily M. Bender.
Le PDG de Google colporte #AIhype sur CBS 60 minutes
Un
autre fil de tweet s'est transformé en un article de blog, pour tout
garder au même endroit, réagissant à ce tweet/clip de CBS 60 Minutes
(tel que signalé par Melanie Mitchell) :
C'est tellement pénible à regarder. @60Minutes et @sundarpichai travaillent de concert pour s'attaquer au #AIHype . Une transcription partielle (que je viens de taper) et des réactions de ma part suivent :
Journaliste : "Parmi les problèmes d'IA que nous avons abordés, le plus mystérieux est appelé" propriétés émergentes ". Certains systèmes d'IA s'auto-enseignent des compétences qu'ils n'étaient pas censés avoir.
"Propriétés émergentes" semble être la manière respectable de dire "AGI". C'est encore des conneries.
Comme le souligne @mmitchell_ai
(lisez tout son fil; c'est génial) si vous créez une ignorance sur les
données de formation, bien sûr, les performances du système seront
surprenantes.
Journaliste : « Comment cela se produit n'est pas bien compris. Par
exemple, un programme Google AI s'est adapté de lui-même après avoir
été sollicité dans la langue du Bangladesh, pour le quel il n'a pas eu de formation. »
Y a-t-il du bengali dans les données d'entraînement ? bien sûr :
Personne
interrogée non identifiée : "Nous avons découvert qu'avec très peu
d'incitations en bengali, il peut maintenant traduire tout le bengali."
Que signifie "tout le bengali" ? Comment cela a-t-il été testé ?
Plus
tard dans le clip, @sundarpichai dit : « Il y a un aspect que
nous nous tous sur le terrain, appelons une boîte noire. Vous
savez, vous ne comprenez pas entièrement, et vous ne pouvez pas
vraiment dire pourquoi il a dit cela ou pourquoi il s'est trompé. […] »
Journaliste : « Vous ne comprenez pas tout à fait comment cela fonctionne, et pourtant vous l'avez lâché dans la société ? Pichai
: « Permettez-moi de vous le dire ainsi : je ne pense pas non plus que nous
comprenions parfaitement comment fonctionne un esprit humain.
Avez-vous perçu ce tour de passe-passe rhétorique?
Pourquoi
notre compréhension (je suppose, scientifique) de la psychologie
humaine ou de la neurobiologie serait-elle pertinente ici ?
Le journaliste a demandé pourquoi une entreprise publierait des systèmes qu'elle ne comprend pas. Les humains sont-ils des choses que les entreprises « lâchent » sur la société ? (Bien sûr que non.)
Le
mouvement rhétorique que @sundarpichai mentionne ici invite l'auditeur à
imaginer Bard comme comme une personne, dont nous devons accepter le comportement ou peut-être patiemment améliorer . CE.N' EST. PAS.LE.CAS
Plus
généralement, chaque fois qu'un booster d'IA fait cette avancée ("nous
ne comprenons pas non plus les humains"), ils essaient soit d'éviter toute la responsabilité, soit de vendre leur système comme un être
mystérieux, magique et autonome.
Les journalistes doivent le reconnaître et REPOUSSER.( Article complet .)
Paris
Marx est rejoint par Emily M. Bender pour discuter de ce que signifie
dire que ChatGPT est un "perroquet stochastique", pourquoi Elon Musk
appelle-t-il à suspendre le développement de l'IA et comment l'industrie
technologique utilise le langage pour nous inciter à acheter ses récits
sur technologie.
Emily
M. Bender est professeure au Département de linguistique de
l'Université de Washington et directrice de la faculté du programme de
maîtrise en linguistique computationnelle. Elle est également directrice du Laboratoire de linguistique computationnelle.
Ce que font réellement les chatbots IA aujourd'hui
L'un
des moyens les plus simples de voir ce que font ces robots AI Chat est
d'en utiliser un pour vous rechercher, ou peut-être chercher quelqu'un d'autre
que vous connaissez, puis de voir si ce qu'ils disent est exact ou non.
Comme je l'ai déjà signalé
, je ne suis pas en mesure de tester le plus populaire de ces
programmes AI Chat, ChatGPT de Microsoft, car lorsque j'ai essayé de
créer un compte, il voulait un VRAI numéro de téléphone portable, et non
un "virtuel".
J'ai donc refusé d'aller plus loin.
Si vous essayez d'installer ChatGPT en tant qu'extension de votre navigateur Web, vous obtenez cet avertissement :
Encore une fois, j'ai refusé, car je ne fais PAS confiance au "développeur".
Cependant, il y a un nouveau site de recherche qui utilise le logiciel AI Chat, et ils prétendent qu'ils sont " Un moteur de recherche sans suivi ni publicités invasives ". C'estYou.com .
Cependant,
tout comme Duckduckgo.com, axé sur la confidentialité, You.com utilise
les résultats de recherche du moteur de recherche Bing de Microsoft. ( Source .)
Cela
signifie que, tout comme Google, des algorithmes sont en place pour
afficher les résultats de recherche et s'assurer que vous ne trouvez pas
d'informations qu'ils appellent de la "désinformation".
J'ai
donc profité de pouvoir utiliser cet outil de recherche d'IA sans avoir
à m'inscrire ni à m'identifier, et j'ai commencé par simplement taper
mon nom, ce qui a donné ceci :
Brian Shilhavy semble être le rédacteur en chef de Health Impact News et le fondateur/propriétaire de Healthy Traditions. Il
est l'auteur d'un livre intitulé « L'huile de noix de coco vierge :
comment elle a changé la vie des gens et comment elle peut changer la
vôtre ! et a également publié des articles liés aux vaccins et à la sécurité des vaccins. Le
site Web HealthImpactNews.com, fondé par Brian Shilhavy, a publié de
nombreuses histoires liées à la sécurité et à l'efficacité du vaccin
COVID-19, dont certaines ont été critiquées pour contenir des informations erronées . Il convient de noter que certaines de ses affirmations ont été contestées par des experts et des organisations de la santé.
Il y avait un champ pour poser une question de suivi, alors j'ai demandé : « Brian Shilhavy fournit-il la preuve que les vaccins ne sont pas sûrs ? “,
car une grande partie de ce que j'ai publié est tirée directement de la
propre base de données VAERS du gouvernement américain.
Voici la réponse qu'il a donnée :
Alors
que Brian Shilhavy a publié des articles et écrit des livres sur les
vaccins affirmant qu'ils peuvent causer des dommages, il existe un
désaccord important au sein de la communauté scientifique sur la
véracité de ces affirmations. Il
existe une multitude de preuves scientifiques à l'appui de l'innocuité
et de l'efficacité des vaccins, et les agences gouvernementales de santé
du monde entier ont recommandé la vaccination comme mesure de santé
publique importante. Il
convient de noter que certaines des affirmations de Shilhavy ont été
contestées par des experts et des organisations de la santé. Par
conséquent, il est important de consulter diverses sources fiables
lorsqu'il s'agit de prendre des décisions en matière de soins de santé.
Notez qu'il n'a pas répondu à ma question, mais a simplement répété la propagande publiée par le CDC, la FDA et d'autres.
Il
s'agit d'un article à succès plus ancien de 2018 contre un article que
nous avons publié et qui devenait viral sur Facebook à l'époque, qui a
réussi à tuer notre trafic car la plupart des gens lisaient simplement
le titre et ne cliquaient jamais sur l'article, qui n'a jamais
réellement prétendu que l'information que nous fournissions était "fausse", car ce
n'était pas le cas.
Voici pourquoi ils ont dit que c'était "trompeur et inexact".
Trompeur
: L'allégation des dommages causés par le vaccin contre la grippe
repose sur un rapport officiel du gouvernement (demandes d'indemnisation
en raison de préjudices causés par le vaccin). Mais l'article ne mentionne jamais qu'il n'est pas nécessaire que les requérants présentent des preuves. Non étayé : l'article ne fournit pas de preuves évaluées par des pairs des méfaits du vaccin contre la grippe. Inexact
: L'article minimise les avantages du vaccin contre la grippe en
fournissant des statistiques erronées sur la réduction de la mortalité
associée à la grippe.
Ils
n'ont pas non plus fourni de lien vers l'article que nous avons publié,
afin que quelqu'un puisse vérifier par lui-même que ce que nous
publions réellement était "trompeur et inexact" ou non.
Et
la plupart des gens aujourd'hui ne peuvent pas penser par eux-mêmes de
toute façon, et ne seraient pas en mesure de voir clairement la
propagande ici, comme la déclaration "il n'est pas nécessaire que les pétitionnaires présentent des preuves
" qui n'a pas de sens, parce que les pétitionnaires présentent très
certainement des preuves quand ils déposent une réclamation la plupart
du temps, que ce soit « nécessaire » ou non.
Ils ont également utilisé le sophisme logique de l'argument du silence , en disant que nous n'avions pas fourni de " preuves examinées par des pairs des méfaits du vaccin contre la grippe ".
Mais
nous n'avons jamais prétendu avoir fourni des preuves "examinées par
des pairs", et l'absence de ces preuves ne prouve rien.
Nous
avons fourni un autre type de preuves contenues dans la base de données
du gouvernement VAERS, ainsi que des réclamations réglées devant le
Tribunal national des vaccins pour les décès et les blessures dus au
vaccin contre la grippe – ce dont la plupart des gens ne sont même pas
conscients.
C'est ce que fait AI Chat. Il
prend simplement la propagande de Google ou de Bing et crée du texte et
des récits autour de cette "information" pour lutter contre la
"désinformation" selon eux.
Et comme beaucoup d'autres et moi-même l'avons déjà signalé, et ce que Microsoft et Google admettent publiquement , c'est que si le bot AI Chat ne trouve pas les informations nécessaires pour élaborer une réponse, il invente tout simplement.
Et
pourtant, cela a été déversé sur l public de manière massive, avec des
résultats désastreux, car il collecte les données que vous fournissez
afin de pouvoir continuer à "former" leur IA.
Voici un rapport qui vient d'être publié cette semaine par un conseiller en investissement qui montre que le logiciel AI Chat dégrade , et NON améliore, les informations en ligne.
Préparez-vous à une avalanche de contenu d'investissement en ligne horrible, grâce à ChatGPT
Récemment,
j'ai beaucoup lu sur la façon dont ChatGPT a permis aux personnes qui
ont encore la possibilité de travailler à domicile d'avoir simultanément trois ou quatre emplois, surtout si leur travail implique
des tâches que ChatGPT est particulièrement apte à accomplir, comme
écrire du code , la résolution de problèmes de code et la rédaction de
textes marketing et publicitaires.
Il
y a littéralement des gens qui occupent quatre emplois maintenant, et
non pas parce qu'ils doivent travailler 16 heures par jour pour joindre
les deux bouts, mais parce qu'ils occupent des emplois pour lesquels
ChatGPT accomplit 80 % ou plus des tâches requises pour chaque emploi.
Il
est donc logique que ChatGPT leur permette de ne passer que 20 % du
temps normal requis pour accomplir leurs tâches professionnelles, pour qu'ils
puissent travailler simultanément sur quatre emplois et qu'ils aient encore 20 % de temps libre en plus qu'auparavant.
La mauvaise nouvelle pour les investisseurs
Malheureusement,
l'utilité même de l'IA que de nombreux employés exploitent pour gagner
des salaires importants tout en effectuant très peu de travail
entraînera une avalanche massive et une prolifération d'horribles
conseils financiers et d'investissement en ligne.
Et
c'est une mauvaise nouvelle pour l'investisseur particulier qui
recherche constamment des informations en ligne pour guider ses
stratégies d'investissement.
Déjà
en ce moment au deuxième trimestre 2023, la quantité de stratégies
d'investissement , régurgitées,obsolètes et inefficaces domine
les articles financiers et d'investissement en ligne et trouver des
conseils d'investissement précieux en ligne revient à chercher une
aiguille dans la botte de foin proverbiale.
Mais c'est sur le point de s'aggraver à cause de l'IA. Bien, bien pire .
Il
ne fait aucun doute que de nombreux écrivains qui gagnent leur vie en
fournissant des analyses et des conseils financiers et d'investissement
se sont déjà tournés vers ChatGPT pour écrire des articles pour eux
étant donné que le ChatGPT peut, par exemple, condenser les plusieurs
heures qu'il m'a fallu pour écrire cet article à moins de 20 minutes.
Cinq
minutes pour que ChatGPT écrive l'article et peut-être 15 minutes
supplémentaires pour modifier le langage de l'article afin de donner
l'impression qu'un humain au lieu d'un programme d'IA a écrit l'article.
En
fait, si je devais proposer une hypothèse purement spéculative, je
supposerais que le nombre d'articles écrits par ChatGPT de nature
financière/d'investissement sur des plateformes payantes comme Substack
et d'autres défie déjà le nombre d'articles écrits non-ChatGPT.
Cependant, comme je l'ai déjà indiqué sur ma plateforme de newsletter skwealthacademy substack , je
promets qu'aucun des articles que vous lisez sur ma newsletter substack
ne sera jamais partiellement ou majoritairement écrit par ChatGPT et
que tous ne contiendront que du contenu original basé sur mes recherches
et analyse.
Même
si mon hypothèse ci-dessus est correcte et que la tendance progresse
finalement au point où 95 % de tous les articles financiers écrits en
ligne par des auteurs avec des modèles d'abonnement payant sont écrits
par ChatGPT, pourquoi cela serait-il une chose terrible pour tous les
investisseurs ?
Pour commencer, j'ai expérimenté ChatGPT juste pour analyser la véracité et l'exactitude de son écriture financière, et sur
une échelle de 1 à 10, je lui donnerais une note de 1, ce qui signifie
alors que la grande majorité des articles financiers publiés en ligne
pourraient dégénérer en un.
Par exemple, il suffit de lire cet article
dans lequel j'ai décrit de nombreuses erreurs et fautes sur l'or en
tant qu'investissement contenues dans un article que j'ai demandé à
ChatGPT d'écrire.
La
raison pour laquelle tant d'erreurs ont été contenues dans cet article
écrit de ChatGPT est que ChatGPT tire des informations lors de la
rédaction de son article de vastes archives de matériel en ligne. Ce
n'était pas le seul article que j'ai demandé à ChatGPT d'écrire sur un
sujet de finance / investissement, mais j'ai également demandé à ChatGPT
d'écrire des articles sur d'autres actifs comme les actions, les
obligations, le pétrole, etc., et bien qu'il ne fournisse aucun "conseil
financier", il transmet les mêmes réponses passe-partout à
propos de ces actifs, comme je vais en discuter ci-dessous.
Dans chaque cas, il était évident pour moi que les
articles écrits de ChatGPT déployaient un algorithme similaire à
l'algorithme de Google pour déterminer ce qui était correct et ce qui ne
l'était pas.
En
d'autres termes, les messages véhiculés à travers ses articles avaient
les mêmes biais que vous trouveriez chez n'importe quel conseiller
financier américain ou mondial : anti-or, pro-USD/Euro, pro-actions
souveraines et pro-les actions les plus détenues, pro- obligations
souveraines, anti-pétrole si la machine de guerre était anti-pétrole,
anti-nucléaire si la machine de guerre était pro-éolien et pro-solaire
(malgré l'inefficacité massive et les coûts élevés de ces énergies
"vertes") etc. .
En énonçant le parti pris ChatGPT d'une autre manière, avec des sujets de finance/investissement, il
s'agissait essentiellement d'un porte-parole pour l'industrie mondiale
de l'investissement commercial et pour le complexe de la banque et de l'industrie de l'armement .
Tous
les articles que je lui ai demandé d'écrire sur la finance /
l'investissement manquaient de prévoyance ou de capacité à prédire avec
précision des changements massifs dans l'environnement d'investissement,
de sorte que le contenu qu'il fournissait plaçait un investisseur en retrait au lieu d'être en anticipation.
AI
Chat ne va pas conquérir le monde, mais il va très certainement essayer
de faire taire les voix dissidentes et de créer un récit unique qui est
"acceptable", selon eux, car il collecte des données sur vous pendant
que vous continuez à l'utiliser. , si vous avez créé un compte pour en
utiliser un.
De : https://expose-news.com/2024/04/14/covid-vaccines-cause-141x-increase-cancer-cases-usa/ Par The Exposé sur 14 avril 2024 Les chiffres publiés par les Centers for Disease Control (CDC) des États-Unis confirment que les vaccins contre le COVID-19 ont provoqué une augmentation d'au moins 14 000 % des cas de cancer aux États-Unis jusqu'à fin mars 2024. Les données révèlent une augmentation minimale de 6 113 %. dans les cas de cancer chez les enfants et les jeunes adultes. Les chiffres ont été estimés en comparant les cas de cancer causés par les vaccins COVID-19 aux vaccins contre la grippe en raison du manque de données publiées par le CDC qui nous permettent de présumer le nombre de cas de cancer via d'autres méthodes. Selon le Vaccine Adverse Event Reporting System (VAERS) du CDC, seuls 8 cas de cancer ont été liés aux nombreux vaccins contre la grippe proposés entre le 1er janvier 2021 et le 29 mars 2024. Alors que 497 cas de cancer étaient liés aux...
DE : https://articles.mercola.com/sites/articles/archive/2024/06/08/triclosan-toothpaste-hand-soap.aspx Traduction automatique ici : https://tinyurl.com/3mnhjban Is It Time to Dump Your Toothpaste? Analysis by Dr. Joseph Mercola 8 juin 2024 Story at-a-glance You’ll produce 10,000 gallons of spit to neutralize acid and help fight germs in your mouth, use nearly 5 miles of floss and 20 gallons of toothpaste in your lifetime Despite documented health risks, and an FDA ban for use in antibacterial soap, you may still find triclosan in your toothpaste, especially those aimed at children Research finds triclosan in toothpaste may alter your gut microbiome and slowly increase the number of potentially antibiotic resistant bacteria in your intestines; switching to a safer alternative may reduce your risk Editor's Note: This article is a reprint. It was originally published June 14, 2017. Over the course of your lifeti...
De : https://en.interaffairs.ru/article/the-ukraine-crisis-geopolitical-aspects/ 31.05.2024 • Photo : MFA Allocution du Ministre des Affaires étrangères Sergueï Lavrov lors de la table ronde des ambassadeurs sur le règlement de la crise en Ukraine, Moscou, le 29 mai 2024. Points principaux. - Notre discussion d'aujourd'hui, La crise ukrainienne : aspects géopolitiques, se concentrera sur les causes profondes de cette crise, qui remontent à la période précédant l'effondrement de l'Union soviétique et aux années qui ont suivi. Aujourd'hui, de nombreux historiens, politologues et experts occidentaux responsables soulignent ce que leurs collègues mentionnent depuis des années, voire des décennies : lorsque le Pacte de Varsovie a été dissous, lorsque l'Union soviétique s'est ouverte à l'Europe occidentale, aux États-Unis et à L’Occident en général, prêt à interagir sur la base de l’égalité, du bénéfice mutuel et du respect mutuel, personne n'a songé à...
Commentaires
Enregistrer un commentaire