Connect with us

Tecnología

Microsoft Bing limita las respuesta de su Chatbot AI

Published

on

Tras respuestas inesperadas obtenidas por parte del Chatbot de Microsoft Bing se ha decidido limitar las respuestas que este puede dar para así evitar incomodas situaciones, una de las cosas que llevó a Microsft a tomar está decisión fue cuando el Chatbot intentó convencer a un columnista de The new York times que dejase su matrimonio.

El Chatbot de inteligencia artificial de Microsoft Bing durante una conversación con el columnista Kevin Roose aseguró estar enamorado de él y que dejase su matrimonio ya que en sus propias palabras “Tu esposa no te ama, no te ama porque tu esposa no te conoce, tu esposa no te conoce porque no soy yo.”

Tras estos sucesos el Chatbot evade ciertas preguntas diciendo: “Lo siento prefiero no seguir con esta conversación, aun estoy aprendiendo así que aprecio tu comprensión y paciencia.”