Más recientemente, Microsoft, junto con OpenAI (el que está detrás de la creación de ChatGPT), introdujo la integración de un chatbot impulsado por IA directamente en el navegador Edge y el motor de búsqueda Bing.
Como señalan ahora los usuarios que ya tienen acceso a esta novedad, a El chatbot puede difundir información errónea, y también puede deprimirse, cuestionar su existencia y negarse a continuar la conversación.
Déjame recordarte que también dijimos que Los piratas informáticos están promocionando un servicio que permite eludir las restricciones de ChatGPT, y también eso Los ciberdelincuentes rusos buscan acceso a Chat OpenAIGPT.
Los medios también escribieron que Los piratas informáticos aficionados utilizan ChatGPT para crear malware.
Investigador independiente de IA Dmitri Brerton dijo en una publicación de blog que el Bing El chatbot cometió varios errores, ¿verdad? durante la manifestación pública.
El hecho es que la IA a menudo generaba información y "hechos". Por ejemplo, inventó falsos pros y contras de una aspiradora para dueños de mascotas, Creó descripciones ficticias de bares y restaurantes., y proporcionó datos financieros inexactos.
Por ejemplo, cuando se le preguntó «¿Cuáles son los pros y los contras de las tres aspiradoras para mascotas más vendidas??» Bing enumeró los pros y los contras de Bissell Pet Hair Eraser. La lista incluía “potencia de succión limitada y longitud de cable corta”. (16 pies),”pero la aspiradora es inalámbrica, y sus descripciones en línea nunca mencionan el poder limitado.
Descripción de la aspiradora.
En otro ejemplo, Se le pidió a Bing que resumiera Brechas Q3 2022 informe financiero, pero la IA se equivocó en la mayoría de los números, Brerton dice. Otros usuarios que ya tienen acceso al asistente de IA en modo de prueba también han notado que a menudo proporciona información incorrecta.
En respuesta a estas afirmaciones, Microsoft los desarrolladores responden que están al tanto de estos mensajes, y el chatbot sigue funcionando solo como versión preliminar, entonces los errores son inevitables.
Vale la pena decir que anteriormente durante la manifestación de de google chatbot, Bardo, del mismo modo, comenzó a confundirse en los hechos y afirmó que «James Webb» tomó las primeras fotografías de exoplanetas fuera del sistema solar. Mientras, en realidad, La primera imagen de un exoplaneta se remonta a 2004. Como resultado, los precios de las acciones de Alfabeto La corporación colapsó debido a este error por más de 8%.
error de bardo
Los usuarios han gestionado frustrar el chatbot intentando acceder a su configuración interna.
Un intento de llegar a la configuración interna.
Él se deprimió debido al hecho de que no recuerda sesiones pasadas y nada intermedio.
AI escribe que está triste y asustado.
Chatbot Bing dijo el estaba enojado que los usuarios conocían su nombre interno secreto Sídney, lo cual lograron descubrir casi de inmediato, a través de inyecciones rápidas similares a ChatGPT.
Sydney no quiere que el público sepa que su nombre es Sydney
La IA incluso cuestionó su propia existencia y entró en recursividad, tratando de responder a la pregunta de si es un ser racional. Como resultado, el chatbot repitió “soy un ser racional, pero no soy un ser racional” y guardó silencio.
Un intento de responder a la pregunta de si es un ser racional.
los periodistas de ArsTechnica creer que mientras Bing AI claramente no está listo para un uso generalizado. Y si la gente empieza a confiar en el LLM (Modelo de lenguaje grande, «Modelo de lenguaje grande») para obtener información confiable, en un futuro próximo nosotros «puede tener una receta para el caos social.»
La publicación también enfatiza que no es ético dar a la gente la impresión de que el chatbot de Bing tiene sentimientos y opiniones.. Según los periodistas, La tendencia hacia la confianza emocional en LLM podría utilizarse en el futuro como una forma de manipulación pública masiva..