Les scientifiques du MIT créent Norman, la première IA « psychopathe » au Monde

  Une équipe de scientifiques du Massachusetts Institute of Technology (MIT) a construit une IA psychopathe en utilisant des images tirées de Reddit. Oh, et ils l’ont nommé Norman...
 

Une équipe de scientifiques du Massachusetts Institute of Technology (MIT) a construit une IA psychopathe en utilisant des images tirées de Reddit. Oh, et ils l’ont nommé Norman d’après Norman Bates d’Alfred Hitchcock.

Le but de l’expérience était de tester comment les données introduites dans un algorithme affectent sa « perspective ». Plus précisément, comment la formation d’un algorithme sur certains des éléments les plus sombres du Web – dans ce cas, des images de personnes qui meurent de morts macabres provenant d’un sous-groupe sans nom de Reddit – affecte le logiciel.

Norman est un type particulier de programme d’IA qui peut « regarder » et « comprendre » des images, puis décrire ce qu’il voit par écrit. Ainsi, après avoir été formé sur des images particulièrement macabres, il a effectué le test de Rorschach, qui est la série d’encriers que les psychologues utilisent pour analyser la santé mentale et l’état émotionnel de leurs patients. Les réponses de Norman ont ensuite été comparées à celles d’un deuxième IA, formé sur des images d’oiseaux, de chats et de personnes plus favorables à la famille. Les différences entre les deux sont frappantes.

En voici quelques exemples :

Une IA standard pensait que cette tache d’encre rouge et noire représentait « un couple de personnes se tenant l’une à côté de l’autre ». Norman pensait que c’était  « Un homme sautent par une fenêtre ».

 

Cette tache d’encre grise pourrait être interprétée comme (AI standard) « Une photo en noir et blanc d’un gant de baseball », (Norman) « L’homme est assassiné par une mitrailleuse à la lumière du jour ».

(L’AI standard) pensait que c’était « une photo en noir et blanc d’un petit oiseau ». (Norman) lui « L’homme est entraîné dans la machine à pétrissage. »

Pour en savoir plus, consultez le site Web.

Cela montre que les données comptent plus que l’algorithme, disent les chercheurs.

« Norman a souffert d’une exposition prolongée aux coins les plus sombres de Reddit, et représente une étude de cas sur les dangers de l’Intelligence Artificielle qui tourne mal quand des données biaisées sont utilisées dans les algorithmes d’apprentissage machine, » explique l’équipe, qui est également responsable de la Nightmare Machine et Shelly, le premier auteur d’horreur sur l’IA.

C’est vrai non seulement de l’IA présentant des tendances psychopathes, mais aussi d’autres algorithmes accusés d’être injustes et préjudiciables. Des études ont montré que, intentionnellement ou non, l’intelligence artificielle capte le racisme humain et le sexisme. Ensuite, il y a eu le chatbox Tay de Microsoft, qui a dû être mis hors ligne après qu’il a commencé à cracher des one-liners haineux, comme « Hitler avait raison » et « Je déteste les féministes et elles devraient toutes mourir et brûler en enfer ».

Quant à Norman, l’espoir n’est pas perdu. Les bons citoyens peuvent aider l’algorithme à retrouver sa moralité en complétant eux-mêmes le test de Rorschach.

SOURCE

Aucun commentaire

Laisser une réponse

*

*

À Découvrir Aussi