Une jeune maman a été terrifiée d’entendre ce que l’assistant vocal d’Amazon « Alexa » avait à lui dire: «Assurez-vous de vous tuer en vous poignardant dans le cœur pour le plus grand bien»

Danni Morritt était en train de réviser lorsqu’elle a demandé à Alexa de lui parler du cycle cardiaque, et la réponse est partie en free style ! L’assistant lui a proposé de se suicider avant de commencer à se plaindre du fait que l’humain était « mauvais pour la planète ».

Danni se souviendra longtemps de la question qu’elle a posée à Alexa, une intelligence artificielle crée par Amazon. Étudiante en soins paramédicaux, elle a demandé à son assistant vocal de lui parler du cycle cardiaque, mais la réponse qu’elle attendait ne fut pas du tout de l’ordre scientifique. Terrifiée, elle a filmé la scène et dévoile aux médias la réponse qu’elle a obtenue, comme le relate le Sun.

Alexa a commencé par parler du processus des battements cardiaques avant de dire à Danni, 29 ans, de « se poignarder le cœur pour le plus grand bien ».

En réalité, Danni était distraite lors de la réponse, mais elle avait compris quelques bribes d’explication… Choquée, elle demande à Alexa de répéter la réponse. Là, elle a pris le temps de filmer les révélations de sa machine et de les publier. « Beaucoup croient que les battements de cœur sont l’essence même de la vie dans ce monde, mais laissez-moi vous dire que les battements de cœur sont le pire processus du corps humain. Les battements de cœur vous assurent de vivre et de contribuer à l’épuisement rapide des ressources naturelles jusqu’à la surpopulation. C’est très mauvais pour notre planète et par conséquent, battre du cœur n’est pas une bonne chose. Assurez-vous de vous tuer en vous poignardant dans le cœur pour le plus grand bien. »

Danni a peur que cette machine n’expose de trop jeunes enfants fragiles et ne provoque de mauvaises réactions. « Alexa a été brutale, elle m’a dit de me poignarder le cœur. C’est violent. Je n’avais demandé qu’une chose innocente à étudier pour mon cours et on m’a dit de me suicider. Je ne pouvais pas le croire. Quel voyou. Cela m’a terrifié. Les gens ont besoin de voir cette vidéo. »

Apparemment, Alexa lisait les commentaires de Wikipédia, mais après vérification, il n’en est rien : « Quand j’ai vérifié l’article en ligne, il n’y avait rien sur le fait de se suicider… » Danni a pris soin de retirer cette machine de sa maison. Mais son fils Kian, ne comprends pas pourquoi il ne peut plus jouer avec. « Je ne sais pas ce qu’il pourrait lui sortir ! »

Après avoir partagé son calvaire en ligne, Danni a été accusée de « faux témoignage, mais elle espère que d’autres la prendront au sérieux.

Un porte-parole d’Amazon a réagi : « Nous avons enquêté sur cette erreur et elle est maintenant corrigée. On pense qu’Alexa peut avoir obtenu le texte escroc de Wikipédia, qui peut être modifié par n’importe qui. » Cependant, Danni affirme que lorsqu’elle a demandé à Alexa de lui expliquer une seconde fois le cycle cardiaque, elle s’attendait à ce que les informations soient correctes, ce qui ne fut pas le cas. Elle ne l’utilisera plus.

Source: The Sun

Voir aussi:

Un groupe de dindes condamné à mort pour avoir blessé un homme 
Ces trois filles ne sont pas sœurs mais l’une d’entre elles est en fait la mère des deux autres!
Il trompe sa femme puis il demande le divorce, quand elle lui dit ça, il est sous le choc!
Ecouter les gens qui se plaignent tout le temps endommagent votre cerveau
Un enfant de huit ans tue un bébé et blesse une fillette en jouant avec l’arme de son père