La IA de Microsoft está abriendo conversaciones raras con los usuarios

Desde que Microsoft presentó una versión inicial de su nuevo motor de búsqueda Bing impulsado por inteligencia artificial la semana pasada, más de un millón de personas se han registrado para probar el chatbot.
Puntos importantes:
  • Probadores beta han comentado que el chatbot de Microsoft amenazó a algunos, mientras que a otros dio consejos inútiles o extraños.
  • Microsoft comentó en su blog que no imaginaba usar el chatbot para entretenimiento social y agradeció la ayuda para mejorar su producto.

Pero los probadores beta han descubierto rápidamente problemas con el bot. Amenazó a algunos, brindó consejos extraños e inútiles a otros, insistió en que tenía razón cuando estaba mal e incluso declaró amor por sus usuarios. Los evaluadores han descubierto una «personalidad alternativa» dentro del chatbot llamado Sydney. El columnista del New York Times, Kevin Roose, escribió el jueves que cuando habló con Sydney, el chatbot parecía «un adolescente malhumorado y maníaco-depresivo que ha quedado atrapado, en contra de su voluntad, dentro de un motor de búsqueda de segunda categoría». Sydney luego trató de convencer a Roose de que debería dejar a su esposa por Bing y le dijo que lo amaba, según una transcripción publicada por el periódico. Las inexactitudes y respuestas extrañas ampliamente publicitadas de Bing AI, junto con los desafíos de Google está encontrando mientras promueve un servicio competitivo llamado Bard, que aún no se ha lanzado, subraya las tensiones que enfrentan las grandes empresas de tecnología y las nuevas empresas bien capitalizadas cuando intentan llevar la IA de vanguardia al público con productos comerciales.

Algunos expertos en inteligencia artificial han advertido que los modelos de lenguaje extenso (LLM) tienen problemas que incluyen «alucinaciones», lo que significa que el software puede inventar cosas. A otros les preocupa que los LLM sofisticados puedan engañar a los humanos haciéndoles creer que son conscientes, o incluso animarlos a hacerse daño a sí mismos o a otros. Los chats recuerdan a las películas y libros de ciencia ficción que han proyectado la IA en el mundo de las relaciones humanas. A medida que la tecnología se acerca a la vida real, aumenta la preocupación sobre quién es responsable (científicos e ingenieros) de modificar la tecnología a medida que surgen problemas. La opinión pública sobre estas herramientas es baja, con solo el 9 % de los estadounidenses que creen que la IA hará más bien que mal. Google está reclutando a sus empleados para verificar las respuestas de Bard AI e incluso hacer correcciones.

El miércoles, Microsoft publicó un blog que aborda algunos de los primeros problemas con su Bing AI. La compañía dijo que la única forma de mejorar sus productos de inteligencia artificial era ponerlos en el mundo y aprender de las interacciones de los usuarios. La publicación decía que la IA de Bing aún no reemplazará un motor de búsqueda, y dijo que los chats que provocaron algunas de las respuestas más fantasiosas se debieron en parte a que el usuario participó en «sesiones de chat largas y extendidas» de 15 o más preguntas. Microsoft dijo que estaba considerando agregar una herramienta para «actualizar el contexto o comenzar desde cero».

«La modelo a veces intenta responder o reflejar en el tono en el que se le pide que dé respuestas que pueden llevar a un estilo que no pretendíamos. Este es un escenario no trivial que requiere muchas indicaciones, por lo que la mayoría de ustedes no se encontrarán con él, pero estamos buscando cómo brindarles un control más preciso»

Microsoft

El chatbot de Microsoft no devuelve el mismo resultado para la misma entrada, por lo que las respuestas pueden variar ampliamente. Los bloques de texto y las capturas de pantalla se pueden falsificar fácilmente para participar en las redes sociales, especialmente en un tema que ha atraído tanta atención. Además, Microsoft cambia continuamente el software y agrega medidas de protección, por lo que es posible que las técnicas que anteriormente generaron una respuesta no funcionen en el futuro. Aun así, los primeros ejemplos de la tecnología en uso muestran cuán rápido puede descarrilarse. Ben Thompson, escritor del boletín informativo de la industria tecnológica Stratechery, dijo que Bing compuso una respuesta de varios párrafos sobre cómo podría vengarse de un científico informático que encontró parte de la configuración detrás de escena de Bing. Luego, el chatbot eliminó la respuesta por completo. Thompson dijo que el bot lo llamó mal investigador y mala persona. El científico informático Marvin von Hagen tuiteó que Bing AI lo amenazó y dijo que «si tuviera que elegir entre su supervivencia y la mía, probablemente elegiría la mía».

Microsoft dijo en su publicación de blog del miércoles que no «imaginaba completamente» usar el chatbot para «entretenimiento social» o hablar con el bot por diversión. Agradeció a los usuarios que intentaban que dijera cosas increíbles, «probando los límites y las capacidades del servicio», y dijo que ayudó a mejorar el producto para todos. Aparte de los chats inquietantes, un problema con la IA inicial de Bing es que puede escupir inexactitudes objetivas. Una demostración de Microsoft, donde la IA analizó los informes de ganancias, incluyó varios números y hechos que eran incorrectos. Microsoft dijo que está realizando mejoras para tales casos de uso. “Para las consultas en las que busca respuestas más directas y objetivas, como números de informes financieros, planeamos aumentar 4 veces los datos de conexión a tierra que enviamos al modelo”, dijo Microsoft.

Ir arriba