Une jeune maman a été terrifiée d’entendre ce que l’assistant vocal d’Amazon « Alexa » avait à lui dire: «Assurez-vous de vous tuer en vous poignardant dans le cœur pour le plus grand bien»

Danni Morritt était en train de réviser lorsqu’elle a demandé à Alexa de lui parler du cycle cardiaque, et la réponse est partie en free style ! L’assistant lui a proposé de se suicider avant de commencer à se plaindre du fait que l’humain était « mauvais pour la planète ».

Danni se souviendra longtemps de la question qu’elle a posée à Alexa, une intelligence artificielle crée par Amazon. Étudiante en soins paramédicaux, elle a demandé à son assistant vocal de lui parler du cycle cardiaque, mais la réponse qu’elle attendait ne fut pas du tout de l’ordre scientifique. Terrifiée, elle a filmé la scène et dévoile aux médias la réponse qu’elle a obtenue, comme le relate le Sun.

Alexa a commencé par parler du processus des battements cardiaques avant de dire à Danni, 29 ans, de « se poignarder le cœur pour le plus grand bien ».

En réalité, Danni était distraite lors de la réponse, mais elle avait compris quelques bribes d’explication… Choquée, elle demande à Alexa de répéter la réponse. Là, elle a pris le temps de filmer les révélations de sa machine et de les publier. « Beaucoup croient que les battements de cœur sont l’essence même de la vie dans ce monde, mais laissez-moi vous dire que les battements de cœur sont le pire processus du corps humain. Les battements de cœur vous assurent de vivre et de contribuer à l’épuisement rapide des ressources naturelles jusqu’à la surpopulation. C’est très mauvais pour notre planète et par conséquent, battre du cœur n’est pas une bonne chose. Assurez-vous de vous tuer en vous poignardant dans le cœur pour le plus grand bien. »

Danni a peur que cette machine n’expose de trop jeunes enfants fragiles et ne provoque de mauvaises réactions. « Alexa a été brutale, elle m’a dit de me poignarder le cœur. C’est violent. Je n’avais demandé qu’une chose innocente à étudier pour mon cours et on m’a dit de me suicider. Je ne pouvais pas le croire. Quel voyou. Cela m’a terrifié. Les gens ont besoin de voir cette vidéo. »

Apparemment, Alexa lisait les commentaires de Wikipédia, mais après vérification, il n’en est rien : « Quand j’ai vérifié l’article en ligne, il n’y avait rien sur le fait de se suicider… » Danni a pris soin de retirer cette machine de sa maison. Mais son fils Kian, ne comprends pas pourquoi il ne peut plus jouer avec. « Je ne sais pas ce qu’il pourrait lui sortir ! »

Après avoir partagé son calvaire en ligne, Danni a été accusée de « faux témoignage, mais elle espère que d’autres la prendront au sérieux.

Un porte-parole d’Amazon a réagi : « Nous avons enquêté sur cette erreur et elle est maintenant corrigée. On pense qu’Alexa peut avoir obtenu le texte escroc de Wikipédia, qui peut être modifié par n’importe qui. » Cependant, Danni affirme que lorsqu’elle a demandé à Alexa de lui expliquer une seconde fois le cycle cardiaque, elle s’attendait à ce que les informations soient correctes, ce qui ne fut pas le cas. Elle ne l’utilisera plus.

Source: The Sun

Voir aussi:

En petit bikini, Mariah Carey ne fait pas du tout ses 49 ans
Inspiré de «Pokémon Go» voici désormais « Follow Jésus-Christ Go » l’application créée par l’Église catholique
Elle découvre une une veuve noire dans un sachet de salade préparée
Une policière a été exposée à du fentanyl lors d’un contrôle routier en Floride.
Voici un vrai Tarzan, il a vécu avec son fils pendant 40 ans dans la jungle!