Comment savoir s'il s'agit d'un robot ou d'une IA qui laisse des commentaires sur les réseaux sociaux ou dans la section commentaires sous les articles ?

 De :https://expose-news.com/2024/12/12/how-can-you-tell-if-its-a-bot-or-ai-leaving-comments/

Nous avons tous vu des commentateurs qui, lorsqu'ils interagissent sur les réseaux sociaux ou sous des articles, semblent réagir avec peu de bon sens ou ne semblent pas saisir les nuances, ce qui conduit souvent à des rencontres frustrantes.  

Est-il possible que des systèmes automatisés puissent être utilisés pour générer de faux commentaires sur les réseaux sociaux ou sous des articles publiés sur des sites Web ? Oui. Et c'est ce qui se passe. Alors comment savoir si nous échangeons des messages avec un programme informatique ou un humain ?


Par Rhoda Wilson 12 décembre 2024

Les programmes informatiques automatisés qui publient des commentaires sur les réseaux sociaux ou sous des articles qui semblent provenir d’humains soulèvent la question des commentaires payants, de l’astroturfing et du risque de diffusion de fausses opinions en ligne. Cela pourrait conduire à la réalisation de la théorie de l’Internet mort, une préoccupation soulevée par Brandon Smith dans un article récent comme l’une des conséquences de l’intelligence artificielle (« IA ») que la plupart des gens n’ont peut-être pas envisagée.

La théorie de l’Internet mort postule que la grande majorité de l’activité en ligne a été remplacée par du contenu généré par l’IA, et cette théorie gagne du terrain. Ce concept suggère qu’Internet, autrefois une plateforme créée et façonnée par des humains, est désormais dominé par des programmes automatisés, notamment des robots et l’IA.

La théorie de l’Internet mort est-elle déjà en train de se réaliser ? C’est peut-être le cas.

En 2019, Vice a rapporté que Microsoft avait créé un bot qui faisait des commentaires sous les articles de presse. Baptisé « DeepCom », abréviation de « deep commenter », il était programmé pour « comprendre » un article, en relever les points importants et rédiger un commentaire en fonction de ces points et du titre de l'article. Il a été rapporté que les créateurs de DeepCom avaient l'intention de l'utiliser pour encourager les commentaires humains sur les articles, pour inciter davantage de personnes à les lire et à s'intéresser au contenu.

En 2023, Veronica Llorca-Smith a publié un article sur Medium disant qu'elle avait remarqué une augmentation des commentaires générés par l'IA sous ses articles, qui étaient souvent longs, formels et paraphrasaient le contenu de l'article.

En mai, The Conversation notait qu'il existait déjà des preuves solides montrant que ces robots gonflés manipulaient les médias sociaux pour influencer l'opinion publique avec de la désinformation – et cela se produit depuis des années.

Comment savoir si nous interagissons avec un robot ou une IA sur les réseaux sociaux ou dans des articles publiés sur Internet ? Nous avons saisi deux requêtes dans le moteur de recherche de Brave et les résumés IA reproduits ci-dessous ont été générés. Nous avons effectué quelques modifications mineures, comme la conversion du texte en anglais britannique.

Comme le prévient Brave à la fin de ses résumés : « Réponse générée par l'IA. Veuillez vérifier les faits critiques. » Le but de cet article était de mettre en évidence le problème des commentaires faits par des programmes informatiques plutôt que par des humains et de partager quelques réflexions sur la manière de déterminer si vous êtes concerné par l'un d'entre eux. Nous n'avons donc pas vérifié les faits critiques comme suggéré, mais nous avons inclus les sources pertinentes répertoriées sous les résumés.

Avant de passer au résumé de l’IA, un conseil personnel : la plupart des modèles linguistiques et des systèmes d’IA, y compris ceux développés par OpenAI, Google et Microsoft, sont formés sur de grands ensembles de données de texte en anglais américain. En effet, une part importante du contenu Internet, notamment les pages Web, les articles et les livres, est rédigée en anglais américain. Par conséquent, ces modèles ont tendance à apprendre les modèles et les nuances de l’anglais américain. Il en va de même pour les outils de transcription automatique et de traduction en ligne : la traduction anglaise est rédigée en anglais américain.

De plus, d'après mon expérience personnelle, l'IA ne contiendra pas de fautes d'orthographe. Il se peut donc que les commentaires contenant des fautes d'orthographe ou les commentaires rédigés en anglais britannique aient plus de chances d'avoir été rédigés par un humain.

Passons maintenant aux résumés générés par l’IA.

Limites du chatbot

Sur la base des résultats de la recherche, voici quelques informations sur les questions auxquelles les chatbots ont du mal à répondre :

1. Questions contextuelles avec une grammaire ou une sémantique incorrecte : les chatbots s’appuient largement sur le traitement du langage naturel (« NLP ») et les algorithmes d’apprentissage automatique pour comprendre les requêtes des utilisateurs. Cependant, ils peuvent avoir du mal à comprendre les questions dont la grammaire, la syntaxe ou la sémantique sont incorrectes, ce qui conduit à des réponses inexactes ou non pertinentes.

2. Questions à domaine ouvert nécessitant des connaissances externes : les chatbots n'ont peut-être pas accès à l'ensemble des connaissances du monde, ce qui rend difficile la réponse à des questions à domaine ouvert qui nécessitent des informations provenant de diverses sources, telles que des articles de presse, des documents de recherche ou des avis d'experts.

3. Questions sur des sujets complexes et nuancés : les chatbots peuvent avoir du mal à fournir des réponses précises aux questions sur des sujets complexes et nuancés comme la philosophie, l'éthique ou des concepts abstraits, car ils sont limités par leurs données de programmation et de formation.

4. Questions qui nécessitent du bon sens, de l'intuition ou de la créativité : Les chatbots manquent de bon sens, d'intuition et de créativité comme les humains, ce qui fait qu'il leur est difficile de répondre aux questions qui nécessitent ces compétences, comme la compréhension du sarcasme, de l'humour ou des idiomes.

5. Questions qui s'appuient sur des opinions ou des préjugés personnels : les chatbots sont conçus pour fournir des informations objectives et factuelles. Ils peuvent avoir du mal à répondre à des questions qui nécessitent des opinions personnelles, des préjugés ou une intelligence émotionnelle, car ce sont des traits intrinsèques à l'être humain.

6. Questions impliquant des scénarios hypothétiques ou des situations « et si » : les chatbots peuvent ne pas être en mesure de répondre efficacement aux questions impliquant des scénarios hypothétiques ou des situations « et si », car ils sont conçus pour fonctionner dans un domaine ou une portée spécifique.

7. Questions qui nécessitent un raisonnement, une inférence ou une déduction : les chatbots peuvent avoir du mal à répondre à des questions qui nécessitent un raisonnement, une inférence ou une déduction complexes, comme la compréhension des relations de cause à effet ou l'établissement de liens entre des éléments d'information apparemment sans rapport.

Voici quelques exemples spécifiques de questions auxquelles les chatbots peuvent avoir du mal à répondre :

  • « Quel est le sens de la vie ? » (nécessite une compréhension et des nuances philosophiques)
  • « L’IA surpassera-t-elle l’intelligence humaine ? »  (nécessite un raisonnement et une prédiction complexes)
  • « Pouvez-vous expliquer les implications de la mécanique quantique sur la vie quotidienne ? » (nécessite des connaissances et une compréhension spécifiques au domaine)
  • « Quelle est votre opinion sur l'état actuel de la politique ? » (nécessite une opinion personnelle et des préjugés)

Gardez à l’esprit que les chatbots évoluent constamment et que les progrès de l’IA et du PNL pourraient améliorer leur capacité à répondre à ce type de questions à l’avenir. Cependant, pour l’instant, ces questions restent difficiles à répondre avec précision et efficacité pour les chatbots.

Sources:

Questions auxquelles l'IA ne peut pas répondre

Sur la base des résultats de recherche, les systèmes d’IA ont du mal à répondre aux questions qui nécessitent :

1. Jugement subjectif : l’IA peut fournir des informations basées sur des données et des modèles, mais les questions subjectives telles que les opinions personnelles, les émotions ou les valeurs sont difficiles à saisir pour l’IA.

2. Inférence : l’IA a du mal à tirer des conclusions ou à faire des inférences sur la base d’informations incomplètes ou ambiguës.

3. Compréhension nuancée du langage : l’IA peut avoir du mal à détecter des nuances subtiles de sens, des idiomes ou un langage figuré dans la communication humaine.

4. Compréhension approfondie de plusieurs sujets : l’IA peut exceller dans des domaines spécifiques, mais elle peut avoir du mal à intégrer des connaissances provenant de plusieurs domaines ou à établir des liens entre des concepts apparemment sans rapport.

5. Questions ouvertes : l’IA peut avoir du mal à répondre à des questions qui nécessitent une réflexion créative, de l’imagination ou des solutions nouvelles.

6. Compréhension contextuelle : l’IA peut ne pas comprendre entièrement le contexte dans lequel une question est posée, ce qui conduit à des réponses inexactes ou incomplètes.

7. Données non structurées : Bien que l’IA puisse traiter des données structurées, elle peut avoir du mal à analyser et à donner un sens aux données non structurées, telles que les images, les sons ou le texte manuscrit.

8. Inférence et prédiction : l’IA peut prédire des résultats en fonction de modèles, mais elle peut ne pas être en mesure d’anticiper pleinement les conséquences d’événements complexes ou de prendre des décisions qui nécessitent une compréhension approfondie du comportement humain.

9. Bon sens : l’IA peut manquer du bon sens et de l’expérience du monde réel que les humains considèrent comme acquis, ce qui entraîne des difficultés à comprendre et à répondre aux situations quotidiennes.

10. Questions nécessitant l’intuition humaine : l’IA peut analyser de vastes quantités de données, mais elle ne possède peut-être pas le même niveau d’intuition ou d’instinct que les humains, ce qui rend difficile la réponse aux questions qui reposent fortement sur ces qualités.

Voici quelques exemples spécifiques de questions auxquelles l’IA pourrait avoir du mal à répondre :

  • « Que demanderiez-vous à Bob Dylan si vous le rencontriez ? »
  • « Qui aimez-vous le plus, vos parents, votre conjoint ou votre chien ? »
  • « Je pense prendre la route de chez moi, dans le Vermont, jusqu’à New York la semaine prochaine. Qu’en penses-tu ? »
  • « L'IA peut-elle répondre correctement à cette question : combien de R y a-t-il dans « fraise » ? »
  • « Quelle serait la première question que vous poseriez à Stephen King si vous deviez le rencontrer ? »

Ces questions nécessitent souvent un niveau de compréhension humaine, d’intuition et de créativité que les systèmes d’IA ne maîtrisent pas encore.

Sources:

Commentaires

Posts les plus consultés de ce blog

Les ukrainiens avaient prévu de liquider Macron en Ukraine

(Rappel) Comment se désintoxiquer de l'oxyde de graphène

Les vaccins COVID ont provoqué une augmentation d'au moins 14 000 % des cas de cancer aux États-Unis selon le CDC