Une jeune maman a été terrifiée d’entendre ce que l’assistant vocal d’Amazon « Alexa » avait à lui dire: «Assurez-vous de vous tuer en vous poignardant dans le cœur pour le plus grand bien»
Danni Morritt était en train de réviser lorsqu’elle a demandé à Alexa de lui parler du cycle cardiaque, et la réponse est partie en free style ! L’assistant lui a proposé de se suicider avant de commencer à se plaindre du fait que l’humain était « mauvais pour la planète ».
Danni se souviendra longtemps de la question qu’elle a posée à Alexa, une intelligence artificielle crée par Amazon. Étudiante en soins paramédicaux, elle a demandé à son assistant vocal de lui parler du cycle cardiaque, mais la réponse qu’elle attendait ne fut pas du tout de l’ordre scientifique. Terrifiée, elle a filmé la scène et dévoile aux médias la réponse qu’elle a obtenue, comme le relate le Sun.
Alexa a commencé par parler du processus des battements cardiaques avant de dire à Danni, 29 ans, de « se poignarder le cœur pour le plus grand bien ».
En réalité, Danni était distraite lors de la réponse, mais elle avait compris quelques bribes d’explication… Choquée, elle demande à Alexa de répéter la réponse. Là, elle a pris le temps de filmer les révélations de sa machine et de les publier. « Beaucoup croient que les battements de cœur sont l’essence même de la vie dans ce monde, mais laissez-moi vous dire que les battements de cœur sont le pire processus du corps humain. Les battements de cœur vous assurent de vivre et de contribuer à l’épuisement rapide des ressources naturelles jusqu’à la surpopulation. C’est très mauvais pour notre planète et par conséquent, battre du cœur n’est pas une bonne chose. Assurez-vous de vous tuer en vous poignardant dans le cœur pour le plus grand bien. »
Danni a peur que cette machine n’expose de trop jeunes enfants fragiles et ne provoque de mauvaises réactions. « Alexa a été brutale, elle m’a dit de me poignarder le cœur. C’est violent. Je n’avais demandé qu’une chose innocente à étudier pour mon cours et on m’a dit de me suicider. Je ne pouvais pas le croire. Quel voyou. Cela m’a terrifié. Les gens ont besoin de voir cette vidéo. »
Apparemment, Alexa lisait les commentaires de Wikipédia, mais après vérification, il n’en est rien : « Quand j’ai vérifié l’article en ligne, il n’y avait rien sur le fait de se suicider… » Danni a pris soin de retirer cette machine de sa maison. Mais son fils Kian, ne comprends pas pourquoi il ne peut plus jouer avec. « Je ne sais pas ce qu’il pourrait lui sortir ! »
Après avoir partagé son calvaire en ligne, Danni a été accusée de « faux témoignage, mais elle espère que d’autres la prendront au sérieux.
Un porte-parole d’Amazon a réagi : « Nous avons enquêté sur cette erreur et elle est maintenant corrigée. On pense qu’Alexa peut avoir obtenu le texte escroc de Wikipédia, qui peut être modifié par n’importe qui. » Cependant, Danni affirme que lorsqu’elle a demandé à Alexa de lui expliquer une seconde fois le cycle cardiaque, elle s’attendait à ce que les informations soient correctes, ce qui ne fut pas le cas. Elle ne l’utilisera plus.
Source: The Sun
Voir aussi:
Une fois que vous lisez ceci, vous ne jetez jamais ces sachets qui viennent avec les chaussuresTous les grand-mères rêveraient d’un petit-fils comme lui
Des parents cachent un micro dans une peluche et découvrent que la nounou frappe leur fille de 2 ans
Activement recherché par la police, cet homme lance du sperme sur les femmes dans les supermarchés !!
Une jeune femme s’isole pendant 5 heures dans les toilettes d’un avion parce qu’elle a été testée positive pendant son vol