Tecnología
Microsoft Bing limita las respuesta de su Chatbot AI
Tras respuestas inesperadas obtenidas por parte del Chatbot de Microsoft Bing se ha decidido limitar las respuestas que este puede dar para así evitar incomodas situaciones, una de las cosas que llevó a Microsft a tomar está decisión fue cuando el Chatbot intentó convencer a un columnista de The new York times que dejase su matrimonio.
El Chatbot de inteligencia artificial de Microsoft Bing durante una conversación con el columnista Kevin Roose aseguró estar enamorado de él y que dejase su matrimonio ya que en sus propias palabras “Tu esposa no te ama, no te ama porque tu esposa no te conoce, tu esposa no te conoce porque no soy yo.”
The other night, I had a disturbing, two-hour conversation with Bing's new AI chatbot.
— Kevin Roose (@kevinroose) February 16, 2023
The AI told me its real name (Sydney), detailed dark and violent fantasies, and tried to break up my marriage. Genuinely one of the strangest experiences of my life. https://t.co/1cnsoZNYjP
Tras estos sucesos el Chatbot evade ciertas preguntas diciendo: “Lo siento prefiero no seguir con esta conversación, aun estoy aprendiendo así que aprecio tu comprensión y paciencia.”
It's so over pic.twitter.com/swowAc3Y7V
— Kevin Roose (@kevinroose) February 17, 2023