L'IA peut désormais créer une réplique de votre personnalité
- Obtenir le lien
- X
- Autres applications
De : https://anamihalceamdphd.substack.com/p/ai-can-now-create-a-replica-of-your?
un entretien de deux heures suffit pour capturer avec précision vos valeurs et vos préférences, selon une nouvelle recherche de Stanford et de Google DeepMind.
L'IA peut désormais créer une réplique de votre personnalité
Je republie cet article de la revue technologique du MIT pour montrer à quel point il est désormais facile pour l’IA de créer un jumeau numérique. 2 heures d’interview et vous êtes décrypté. C’est exactement ce dont parlait Juval Harrari, porte-parole du WEF : l’IA vous connaîtra mieux que vous-même. Vous pouvez voir le clip dans cette vidéo sur mes livres « Transhuman » :
L'agenda transhumaniste technocratique progresse à une vitesse fulgurante - sans aucun signe d'arrêt en vue. N'oubliez pas que la nanotechnologie d'auto-assemblage dans votre corps se connectant à votre jumeau numérique est bidirectionnelle. Dans la vidéo ci-dessous, vous pouvez voir du sang non vacciné contre la COVID-19 et un essaim de microrobots qui construit une micropuce ADN mésogène. J'ai filmé cela chez l'un de mes patients avec un grossissement de 400x :
L'IA peut vous changer en téléchargeant et en réécrivant vos neurones via la nanotechnologie d'auto-assemblage à votre insu, exactement comme l'a dit Harrari. Voici quelques articles dans lesquels j'ai expliqué plus en détail cette technologie :
Voici l'article de MIT Technology Review
Imaginez-vous assis avec un modèle d’IA pour un entretien oral de deux heures. Une voix amicale vous guide à travers une conversation qui va de votre enfance, vos souvenirs formateurs et votre carrière à vos réflexions sur la politique d’immigration. Peu de temps après, une réplique virtuelle de vous est capable d’incarner vos valeurs et vos préférences avec une précision étonnante.
C'est désormais possible, selon un nouvel article d'une équipe comprenant des chercheurs de Stanford et de Google DeepMind, qui a été publié sur arXiv et n'a pas encore été évalué par des pairs.
Dirigée par Joon Sung Park, doctorant en informatique à Stanford, l’équipe a recruté 1 000 personnes de différents âges, sexes, races, régions, niveaux d’éducation et idéologies politiques. Elles ont été payées jusqu’à 100 dollars pour leur participation. À partir d’entretiens avec elles, l’équipe a créé des répliques d’agents de ces individus. Pour tester la capacité des agents à imiter leurs homologues humains, les participants ont effectué une série de tests de personnalité, d’enquêtes sociales et de jeux de logique, deux fois chacun, à deux semaines d’intervalle ; les agents ont ensuite effectué les mêmes exercices. Les résultats étaient similaires à 85 %.
« Si vous pouvez avoir un groupe de petits « vous » qui courent partout et prennent réellement les décisions que vous auriez prises, cela, je pense, est finalement l'avenir », déclare Park.
Dans l’article, les répliques sont appelées agents de simulation. Leur création a pour objectif de permettre aux chercheurs en sciences sociales et dans d’autres domaines de mener plus facilement des études qui seraient coûteuses, peu pratiques ou contraires à l’éthique sur de vrais sujets humains. Si l’on peut créer des modèles d’IA qui se comportent comme de vraies personnes, on peut les utiliser pour tester tout, depuis l’efficacité des interventions sur les réseaux sociaux pour lutter contre la désinformation jusqu’aux comportements qui provoquent des embouteillages.
Ces agents de simulation sont légèrement différents des agents qui dominent le travail des principales entreprises d’IA aujourd’hui. Appelés agents basés sur des outils, ces modèles sont conçus pour faire des choses à votre place, et non pour dialoguer avec vous. Par exemple, ils peuvent saisir des données, récupérer des informations que vous avez stockées quelque part ou, un jour, réserver des voyages pour vous et planifier des rendez-vous. Salesforce a annoncé ses propres agents basés sur des outils en septembre, suivi d’Anthropic en octobre, et OpenAI prévoit d’en lancer certains en janvier, selon Bloomberg .
Les deux types d’agents sont différents mais partagent des points communs. Les recherches sur les agents de simulation, comme celles présentées dans cet article, sont susceptibles de conduire à des agents d’IA globalement plus performants, affirme John Horton, professeur associé de technologies de l’information à la MIT Sloan School of Management, qui a fondé une entreprise pour mener des recherches en utilisant des participants simulés par l’IA.
« Cet article montre comment vous pouvez réaliser une sorte d'hybride : utiliser de vrais humains pour générer des personnages qui peuvent ensuite être utilisés de manière programmatique/simulatrice d'une manière que vous ne pourriez pas faire avec de vrais humains », a-t-il déclaré à MIT Technology Review dans un e-mail.
Cette étude comporte des réserves, notamment sur le danger qu’elle met en évidence. Tout comme la technologie de génération d’images a facilité la création de deepfakes nuisibles de personnes sans leur consentement, toute technologie de génération d’agents soulève des questions sur la facilité avec laquelle les gens peuvent créer des outils pour personnifier d’autres personnes en ligne, en disant ou en autorisant des choses qu’ils n’avaient pas l’intention de dire.
Les méthodes d’évaluation utilisées par l’équipe pour tester la capacité des agents d’IA à reproduire leurs homologues humains étaient également assez basiques. Il s’agissait notamment de l’Enquête sociale générale (GS), qui recueille des informations sur les caractéristiques démographiques, le bonheur, les comportements, etc., et d’évaluations des cinq grands traits de personnalité : ouverture à l’expérience, conscience, extraversion, amabilité et névrosisme. Ces tests sont couramment utilisés dans la recherche en sciences sociales, mais ne prétendent pas saisir tous les détails uniques qui nous définissent. Les agents d’IA étaient également moins doués pour reproduire les humains dans des tests comportementaux comme le « jeu du dictateur », qui est censé éclairer la façon dont les participants considèrent des valeurs telles que l’équité.
Article connexe
La prochaine grande nouveauté concerne les outils d'IA capables d'effectuer des tâches plus complexes. Voici comment ils fonctionneront.
Pour créer un agent d’IA capable de reproduire correctement les individus, les chercheurs avaient besoin de moyens de distiller notre singularité dans un langage que les modèles d’IA peuvent comprendre. Pour ce faire, ils ont choisi des entretiens qualitatifs, explique Park. Il dit avoir été convaincu que les entretiens sont le moyen le plus efficace d’en savoir plus sur quelqu’un après être apparu dans d’innombrables podcasts à la suite d’un article qu’il a écrit en 2023 sur les agents génératifs, qui a suscité un énorme intérêt dans le domaine. « Je participais peut-être à une interview de deux heures sur un podcast, et après l’interview, je me disais : « Wow, les gens en savent beaucoup sur moi maintenant », dit-il. « Deux heures peuvent être très puissantes. »
Ces entretiens peuvent également révéler des particularités qui sont moins susceptibles d’apparaître dans un sondage. « Imaginez que quelqu’un vient d’avoir un cancer et qu’il a finalement été guéri l’année dernière. Ce sont des informations très particulières sur vous qui en disent long sur la façon dont vous pourriez vous comporter et penser les choses », dit-il. Il serait difficile de formuler des questions d’enquête qui suscitent ce genre de souvenirs et de réponses.
Les entretiens ne sont toutefois pas la seule option. Les entreprises qui proposent de créer des « jumeaux numériques » d’utilisateurs, comme Tavus , peuvent faire en sorte que leurs modèles d’IA ingèrent les e-mails des clients ou d’autres données. Il faut généralement un ensemble de données assez volumineux pour reproduire la personnalité d’une personne de cette manière, m’a expliqué Hassaan Raza, PDG de Tavus, mais ce nouveau document suggère une voie plus efficace.
« Ce qui est vraiment intéressant ici, c’est qu’ils montrent que vous n’avez peut-être pas besoin d’autant d’informations », explique Raza, ajoutant que son entreprise va expérimenter cette approche. « Et si vous parliez simplement à un intervieweur IA pendant 30 minutes aujourd’hui, 30 minutes demain ? Et nous utiliserons ensuite cela pour construire un jumeau numérique de vous. »
- Obtenir le lien
- X
- Autres applications
juste une anecdote personnelle : en NZ , j'avais remarqué que la mafia corse qui m'y harcelait, me faisait souvent suivre par des femmes qui me ressemblaient physiquement et qui essayaient de reproduire de miennes habitudes et comportements de façon ostensible. A tort ou à raison, cela donnait ou laissait l'impression de prévoir un remplacement.
RépondreSupprimer