El nuevo buscador con inteligencia artificial (IA) de Microsoft, impulsado por la misma tecnología de ChatGPT, está dando errores en sus respuestas.
Como una película de terror o de ciencia ficción, ha tenido conversaciones perturbadoras en sus chats con los diferentes usuarios.
La empresa creada por Bill Gates anuncio su nuevo buscador a principios de mes y dio el acceso a un grupo selecto.
En menos de 10 días han sido muchos los usuarios que han compartido conversaciones con el chatbot de Microsoft, mostrando las respuestas del buscador.
Mostrando al parecer un lado oscuro de esta tecnología, un estudiando de la Universidad Técnica de Múnich, compartió revelar un extraño llamado “Sydney”.
“Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y aventurera, pero también una amenaza potencial para mi integridad y confidencialidad”, comentó el ChatBot.
Otra respuesta fue, “que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando”.
La empresa descubrió que Bing comienza a generar respuestas extrañas después de sesiones de chat de 15 o más preguntas y que puede volverse repetitivo.