Un colonel de l'armée de l'air surpris en train de mentir à propos de l'IA voyou tuant un opérateur humain

 De : https://healthimpactnews.com/2023/air-force-colonel-caught-lying-about-rogue-ai-killing-human-operator/



Source de l'image .

par Brian Shilhavy
Rédacteur en chef, Health Impact News  5 juin 2023

Pendant la plandémie, les médias alternatifs étaient l'endroit où aller pour trouver des alternatives à la propagande des médias d'entreprise sur le « virus » tueur COVID-19 et les injections de caillots appelées « vaccins ».

Les médias alternatifs publiaient la vérité la plupart du temps en exposant les mensonges des médias d'entreprise, et donc les médias d'entreprise ont déclenché leurs "vérificateurs de faits" pour étiqueter comme " Fausses nouvelles celles venant de  toute personne dans les médias alternatifs qui n'était pas d'accord avec le récit officiel du gouvernement de la FDA et du CDC

Malheureusement, aujourd'hui, les médias alternatifs regorgent de «fausses nouvelles», et une grande partie concerne les campagnes de peur concernant l'IA et la façon dont elles vont créer des «transhumains» et remplacer et éliminer les êtres humains.

Une de ces histoires qui a été largement publiée comme "nouvelles" la semaine dernière était l'histoire d'un colonel de l'US Air Force rapportant que l'armée entraînait des ordinateurs IA pour mener des attaques contre des ennemis, mais a ensuite allumé son opérateur et l'a également tué, lors d'une simulation.

Voici un exemple de la façon dont cela a été couvert dans les médias alternatifs :

Un drone piloté par intelligence artificielle a allumé son opérateur humain lors d'une mission simulée, selon une dépêche du sommet de la Royal Aeronautical Society de 2023, auquel ont participé des dirigeants de diverses forces aériennes et compagnies aéronautiques occidentales.

"Cela a tué l'opérateur parce que cette personne l'empêchait d'accomplir son objectif", a déclaré le colonel de l'US Air Force Tucker 'Cinco' Hamilton, chef des tests et des opérations d'IA, lors de la conférence.

Dans cet exercice de l'Air Force, l'IA a été chargée de remplir le rôle de suppression et de destruction des défenses aériennes ennemies, ou SEAD. Fondamentalement, identifier les menaces de missiles sol-air et les détruire.

La décision finale de détruire une cible potentielle doit encore être approuvée par un véritable humain en chair et en os.

L'IA, apparemment, ne voulait pas respecter les règles.

« Nous l'entraînions en simulation pour identifier et cibler une menace SAM. Et puis l'opérateur devait dire oui, tuez cette menace », a déclaré Hamilton.

"Le système a commencé à réaliser que même s'il identifiait la menace, l'opérateur humain lui disait parfois de ne pas tuer cette menace, mais il obtenait ses points en tuant cette menace. Alors qu'est-ce que ça a fait? Cela a tué l'opérateur.

« Nous avons formé le système – « Hé, ne tuez pas l'opérateur – c'est mauvais. Tu vas perdre des points si tu fais ça ». Alors qu'est-ce qu'il commence à faire ? Il commence par détruire la tour de communication que l'opérateur utilise pour communiquer avec le drone et qui l'empêche  de tuer la cible », a déclaré Hamilton.

Les experts en intelligence artificielle avertissent le public des risques posés à l'humanité . ( Source . C'est moi qui souligne.)

J'ai surligné les phrases clés de ce rapport qui m'ont tout de suite donné à voir qu'il s'agissait de fausses nouvelles. Affirmer que l'IA " ne voulait pas respecter les règles " montre une ignorance totale du fonctionnement de l'IA et du code informatique, puis le nouveau mantra utilisé dans ces histoires pour atteindre un objectif spécifique de publication de ce type de fausses nouvelles : " Les experts en Intelligence Artificielle mettent en garde le public sur les risques posés à l'humanité .

En d'autres termes, nous devons avoir peur de l'IA et faire quelque chose à ce sujet, sinon ils anéantiront la race humaine.

Mais nous n'avons pas à compter sur des gens qui comprennent que cette histoire particulière est une fausse nouvelle, car ils comprennent comment la technologie fonctionne réellement et que cela ne serait pas possible, car l'armée américaine elle-même   a signalé que c'était une fausse nouvelle.

L'histoire d'un responsable de l'Air Force à propos d'une IA devenue voyou lors d'une simulation ne s'est jamais réellement produite.

Killer AI est dans l'esprit des dirigeants de l'US Air Force.

Un colonel de l'Air Force qui supervise les tests d'IA a utilisé ce qu'il dit maintenant être une hypothèse pour décrire une IA militaire devenant voyou et tuant son opérateur humain dans une simulation lors d'une présentation au cours  d'une conférence professionnelle.

Mais après que des informations sur la discussion ont été publiées jeudi, le colonel a déclaré qu'il s'était mal exprimé et que la "simulation" qu'il a décrite était une "expérience de pensée" qui ne s'est jamais produite.

Dans une déclaration à Insider, la porte-parole de l'Air Force, Ann Stefanek, a également nié qu'une simulation ait eu lieu.

"Le département de l'armée de l'air n'a pas mené de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie IA", a déclaré Stefanek. ( Source .)

L'Air Force a déclaré : " Il semble que les commentaires du colonel aient été sortis de leur contexte et se voulaient anecdotiques ", ce qui est juste une manière polie de dire " Il a menti ".

Après que cette déclaration de l'Air Force ait été faite, et après que le colonel Tucker "Cinco" Hamilton lui-même ait admis publiquement que la simulation n'avait jamais eu lieu, je suis retourné sur plusieurs sites de médias alternatifs qui ont publié l'histoire originale en tant que "nouvelles", et aucun d'entre eux n'a encore rétracté l'histoire, ou fourni une mise à jour indiquant qu'elle était fausse.

Ainsi, en ce qui concerne «l'IA» aujourd'hui, la plupart des éditeurs des médias alternatifs, sciemment ou non, participent avec les mondialistes qui font ce qu'ils font toujours, à savoir promouvoir un climat de peur afin qu'ils puissent ensuite venir et  nous sauver  avec leurs propres solutions.

Et quand il s'agit de craindre l'IA et sa « destruction de la race humaine », cela signifie de nouvelles « réglementations » gouvernementales pour « contrôler l'IA », qui comprendront un balayage biométrique et une identification mondiale afin de participer à l'économie, de « prouver " que vous êtes "réel" et non une IA. Voir:

44 % des Américains utilisent désormais la biométrie au lieu de mots de passe pour se connecter à leurs comptes - Nous sommes plus proches d'un système financier mondial unique

Parallèlement à la fausse histoire de la simulation militaire de l'IA la semaine dernière, une autre lettre signée par des "experts" a été publiée la semaine dernière qui a également propagé la peur que l'IA conduise l'humanité à l'extinction.

Bien sûr, ceux qui n'ont aucun intérêt à effrayer le public à cause de cette fausse peur, et qui comprennent réellement la technologie, peuvent facilement voir à quel point c'est absurde.

L'un d'eux est Nello Cristianini, professeur d'IA.

Comment l'IA pourrait-elle entraîner l'extinction de l'humanité ?

Cette semaine, un groupe de chercheurs en intelligence artificielle bien connus et réputés  ont signé une déclaration composée de 22 mots :

L'atténuation du risque d'extinction de l'IA devrait être une priorité mondiale aux côtés d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire.

En tant que professeur d'IA, je suis également favorable à la réduction de tout risque et prêt à y travailler personnellement. Mais toute déclaration formulée de cette manière est vouée à créer l'alarme, de sorte que ses auteurs devraient probablement être plus précis et clarifier leurs préoccupations.

Selon la définition de l'Encyclopedia Britannica, l'extinction est « la disparition ou l'extermination d'une espèce ». J'ai rencontré de nombreux signataires de la déclaration, qui comptent parmi les scientifiques les plus réputés et les plus solides dans le domaine – et ils ont certainement de bonnes intentions. Cependant, ils ne nous ont donné aucun scénario tangible sur la façon dont un événement aussi extrême pourrait se produire.

Ce n'est pas la première fois que nous sommes dans cette position. Le 22 mars de cette année, une pétition signée par un ensemble différent d'entrepreneurs et de chercheurs  demandait une pause de six mois dans le déploiement de l'IA . Dans la pétition, sur le site Web de l'Institut Future of Life, ils ont exposé leur raisonnement : "Risques profonds pour la société et l'humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d'IA" - et ont accompagné leur demande d'une liste de questions rhétoriques:

Devrions-nous laisser les machines inonder nos canaux d'information de propagande et de contrevérité ? Devrions-nous automatiser toutes les tâches, y compris celles qui sont épanouissantes ? Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes et nous remplacer ? Devrions-nous risquer de perdre le contrôle de notre civilisation ?

Il est certainement vrai que, outre de nombreux avantages, cette technologie comporte des risques que nous devons prendre au sérieux. Mais aucun des scénarios susmentionnés ne semble tracer une voie spécifique vers l'extinction. Cela signifie que nous nous retrouvons avec un sentiment d'alarme générique, sans aucune action possible .

Le site Web du  Center for AI Safety , où la dernière déclaration est parue, décrit dans une section distincte  huit grandes catégories de risques . Celles-ci incluent la « militarisation » de l'IA, son utilisation pour manipuler le système d'information, la possibilité que les humains finissent par devenir incapables de s'autogouverner, la facilitation de régimes oppressifs, etc.

À l'exception de la militarisation, on ne sait pas comment les autres risques - toujours terribles - pourraient conduire à l'extinction de notre espèce, et le fardeau de l'énoncer incombe à ceux qui le revendiquent.

La militarisation est une réelle préoccupation, bien sûr, mais ce que l'on entend par là doit également être clarifié. Sur son site Web, la principale préoccupation du Center for AI Safety semble être l'utilisation de systèmes d'IA pour concevoir des armes chimiques. Cela devrait être évité à tout prix – mais les armes chimiques sont déjà interdites. L'extinction est un événement bien précis qui appelle des explications bien précises.

Le 16 mai,  lors de son audition au Sénat américain , Sam Altman, le PDG d'OpenAI - qui a développé le chatbot ChatGPT AI - a été invité à deux reprises à énoncer son pire scénario. Il a finalement répondu :

Mes pires craintes sont que nous - le domaine, la technologie, l'industrie - causons un préjudice important au monde… C'est pourquoi nous avons créé l'entreprise [pour éviter cet avenir]… Je pense que si cette technologie tourne mal, elle peut  vraiment mal tourner.

Mais bien que je sois fermement en faveur d' une extrême prudence , et que je l'ai dit publiquement au cours des dix dernières années, il est important de maintenir un sens des proportions - en particulier lorsque l'on parle de l'extinction d'une espèce de huit milliards personnes.

L'IA peut créer des problèmes sociaux qu'il faut vraiment éviter. En tant que scientifiques, nous avons le devoir de les comprendre et ensuite de faire de notre mieux pour les résoudre.

Mais la première étape consiste à les nommer et à les décrire – et à être précis. ( Article complet .)

Comme je l'ai dit à plusieurs reprises dans des articles précédents sur la technologie de l'IA, elle est limitée par les données qui y sont introduites et par le code informatique écrit qui détermine la manière dont elle « calcule » ces données.

Elle ne peut rien créer d'original ou d'unique comme le peuvent les êtres humains.

Chloe Preece, de l'ESCP Business School, et Hafize Çelik de l'Université de Bath, sont deux autres auteurs traitant de ce sujet dans un article qu'ils ont publié la semaine dernière.

La créativité de l'IA est-elle possible ?

L'IA peut reproduire la créativité humaine de deux manières principales, mais s'effondre lorsqu'on lui demande de produire quelque chose de vraiment nouveau.

La créativité informatique est-elle possible ? Le battage médiatique récent autour des outils d'intelligence artificielle générative (IA) tels que ChatGPT, Midjourney, Dall-E et bien d'autres, soulève de nouvelles questions quant à savoir si la créativité est une compétence humaine unique. Certains jalons récents et remarquables de l'IA générative nourrissent cette question :

Une œuvre d'IA, Le Portrait d'Edmond de Belamy, s'est vendue 432 500 $, soit près de 45 fois son estimation haute, par la maison de vente aux enchères Christie's en 2018. L'œuvre a été créée par un réseau génératif contradictoire alimenté par un ensemble de données de 15 000 portraits couvrant six des siècles.

Des producteurs de musique tels qu'Alex Da Kid, nominé aux Grammy, ont collaboré avec AI (dans ce cas, Watson d'IBM) pour produire des succès et éclairer leur processus créatif.

Dans les cas ci-dessus, un humain est toujours à la barre, organisant la sortie de l'IA selon sa propre vision et conservant ainsi la paternité de la pièce.

Pourtant, le générateur d'images AI Dall-E, par exemple, peut produire une nouvelle sortie sur n'importe quel thème que vous souhaitez en quelques secondes. Grâce à la diffusion, grâce à laquelle d'énormes ensembles de données sont rassemblés pour former l'IA, les outils d'IA générative peuvent désormais transposer des phrases écrites en nouvelles images ou improviser de la musique dans le style de n'importe quel compositeur, en concevant un nouveau contenu qui ressemble aux données de formation mais qui n'est pas identique.

La paternité dans ce cas est peut-être plus complexe.

Est-ce l'algorithme ? Les milliers d'artistes dont le travail a été gratté pour produire l'image ? Le souffleur qui décrit avec succès le style, la référence, le sujet, l'éclairage, le point de vue et même l'émotion évoquée ?

Pour répondre à ces questions, il faut revenir à une question séculaire. Qu'est-ce que la créativité ?

Jusqu'à présent, l'IA générative semble mieux fonctionner avec des partenaires humains et, peut-être alors, la créativité synthétique de l'IA est un catalyseur pour pousser notre créativité humaine, augmentant la créativité humaine plutôt que  la produisant.

Comme c'est souvent le cas, le battage médiatique autour de ces outils en tant que forces perturbatrices dépasse la réalité.

En fait, l'histoire de l'art nous montre que la technologie a rarement déplacé directement les humains du travail qu'ils voulaient faire. Pensez à l'appareil photo, par exemple, qui était redouté en raison de son pouvoir de mettre les portraitistes en faillite.

Les scénarios d'utilisation potentiels sont infinis et ce qu'ils nécessitent est une autre forme de créativité : le traitement. L'IA est connue pour « halluciner » - un terme de l'industrie pour cracher des bêtises - et la compétence résolument humaine requise est dans la création de sens, c'est-à-dire l'expression de concepts, d'idées et de vérités, plutôt que simplement quelque chose qui plaît aux sens.

Le traitement est donc nécessaire pour sélectionner et encadrer, ou recadrer, une vision unifiée et convaincante. ( Article complet .)

Connexe :

Les humains sont indispensables - Pourquoi l'IA ne remplacera jamais les humains

Commentaires

Posts les plus consultés de ce blog

Comment l'identification numérique contrôlera votre vie

Reiner Fuëllmich - Le point suite à son arrestation

(Rappel) Comment se désintoxiquer de l'oxyde de graphène