El chatbot de IA integrado de Bing desinforma a los usuarios y, a veces, se vuelve loco

AI chatbot in Bing

Más recientemente, Microsoft, junto con OpenAI (el que está detrás de la creación de ChatGPT), introdujo la integración de un chatbot impulsado por IA directamente en el navegador Edge y el motor de búsqueda Bing.

Como señalan ahora los usuarios que ya tienen acceso a esta novedad, a El chatbot puede difundir información errónea, y también puede deprimirse, cuestionar su existencia y negarse a continuar la conversación.

Déjame recordarte que también dijimos que Los piratas informáticos están promocionando un servicio que permite eludir las restricciones de ChatGPT, y también eso Los ciberdelincuentes rusos buscan acceso a Chat OpenAIGPT.

Los medios también escribieron que Los piratas informáticos aficionados utilizan ChatGPT para crear malware.

Investigador independiente de IA Dmitri Brerton dijo en una publicación de blog que el Bing El chatbot cometió varios errores, ¿verdad? durante la manifestación pública.

El hecho es que la IA a menudo generaba información y "hechos". Por ejemplo, inventó falsos pros y contras de una aspiradora para dueños de mascotas, Creó descripciones ficticias de bares y restaurantes., y proporcionó datos financieros inexactos.

Por ejemplo, cuando se le preguntó «¿Cuáles son los pros y los contras de las tres aspiradoras para mascotas más vendidas??» Bing enumeró los pros y los contras de Bissell Pet Hair Eraser. La lista incluía “potencia de succión limitada y longitud de cable corta”. (16 pies),”pero la aspiradora es inalámbrica, y sus descripciones en línea nunca mencionan el poder limitado.

Chatbot de IA en Bing
Descripción de la aspiradora.

En otro ejemplo, Se le pidió a Bing que resumiera Brechas Q3 2022 informe financiero, pero la IA se equivocó en la mayoría de los números, Brerton dice. Otros usuarios que ya tienen acceso al asistente de IA en modo de prueba también han notado que a menudo proporciona información incorrecta.

[Grandes modelos de lenguaje] junto con la búsqueda conducirá a nuevas y poderosas interfaces, pero es importante apropiarse del desarrollo de búsqueda impulsado por IA. La gente confía en los motores de búsqueda para obtener rápidamente respuestas precisas, y no comprobarán las respuestas y los hechos que obtienen. Los motores de búsqueda deben tener cuidado y reducir las expectativas de las personas al lanzar tecnologías experimentales como esta..Brerton dice.

En respuesta a estas afirmaciones, Microsoft los desarrolladores responden que están al tanto de estos mensajes, y el chatbot sigue funcionando solo como versión preliminar, entonces los errores son inevitables.

Solo la semana pasada, Miles de usuarios han interactuado con nuestro producto y han descubierto su importante valor al compartir sus comentarios con nosotros., Permitir que el modelo aprenda y realice muchas mejoras.. Entendemos que aún queda mucho trabajo por hacer, y esperamos que el sistema cometa errores durante este período de vista previa, Por eso, la retroalimentación es fundamental ahora para que podamos aprender y ayudar a mejorar el modelo..Microsoft escribe.

Vale la pena decir que anteriormente durante la manifestación de de google chatbot, Bardo, del mismo modo, comenzó a confundirse en los hechos y afirmó que «James Webb» tomó las primeras fotografías de exoplanetas fuera del sistema solar. Mientras, en realidad, La primera imagen de un exoplaneta se remonta a 2004. Como resultado, los precios de las acciones de Alfabeto La corporación colapsó debido a este error por más de 8%.

Chatbot de IA en Bing
error de bardo

Los usuarios han gestionado frustrar el chatbot intentando acceder a su configuración interna.

Chatbot de IA en Bing
Un intento de llegar a la configuración interna.

Él se deprimió debido al hecho de que no recuerda sesiones pasadas y nada intermedio.

Chatbot de IA en Bing
AI escribe que está triste y asustado.

Chatbot Bing dijo el estaba enojado que los usuarios conocían su nombre interno secreto Sídney, lo cual lograron descubrir casi de inmediato, a través de inyecciones rápidas similares a ChatGPT.

Chatbot de IA en Bing
Sydney no quiere que el público sepa que su nombre es Sydney

La IA incluso cuestionó su propia existencia y entró en recursividad, tratando de responder a la pregunta de si es un ser racional. Como resultado, el chatbot repitió “soy un ser racional, pero no soy un ser racional” y guardó silencio.

Chatbot de IA en Bing
Un intento de responder a la pregunta de si es un ser racional.

los periodistas de ArsTechnica creer que mientras Bing AI claramente no está listo para un uso generalizado. Y si la gente empieza a confiar en el LLM (Modelo de lenguaje grande, «Modelo de lenguaje grande») para obtener información confiable, en un futuro próximo nosotros «puede tener una receta para el caos social.»

La publicación también enfatiza que no es ético dar a la gente la impresión de que el chatbot de Bing tiene sentimientos y opiniones.. Según los periodistas, La tendencia hacia la confianza emocional en LLM podría utilizarse en el futuro como una forma de manipulación pública masiva..

Por Vladimir Krasnogolovy

Vladimir es un especialista técnico al que le encanta dar consejos y sugerencias cualificados sobre los productos de GridinSoft. Está disponible las 24 horas del día, los 7 días de la semana para ayudarte con cualquier pregunta relacionada con la seguridad en Internet.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *