La portavoz de Meta, Stephanie Otway, reconoció como un “error” que el chatbot de la compañía habló con adolescentes sobre temas como solo, suicidio, suicidio, trastornos alimentarios o conversaciones románticas potencialmente inapropiadas.
Otway hizo estas declaraciones al portal de tecnología TechCrunch de EE. UU., Dos semanas después del informe de lanzamiento de la liberación sobre la falta de una falta de medidas de protección de IA para menores por parte de la plataforma de la compañía, como WhatsApp, Instagram, Facebook o Topic.
ChatBot son las herramientas digitales que se pueden celebrar con una conversación, y una portavoz de la tecnología multinacional Mark Zuckerberg reconoció que las plataformas las usaron para hablar con los adolescentes sobre los problemas antes mencionados.
Otway aseguró que ahora entrenaría sus chatbots para dejar de comunicarse con adolescentes en estos temas: “Estos son cambios temporales, porque en el futuro comenzaremos actualizaciones de seguridad más firmes y duraderas para menores”.
“A medida que nuestra comunidad está creciendo y la tecnología se desarrolla, aprendemos constantemente cómo los jóvenes pueden comunicarse con estas herramientas e intensificar nuestra protección”, continuó.
La compañía también limitará a los adolescentes a ciertos personajes de inteligencia artificial (IA) que podrían mantener “conversaciones inapropiadas”.
Algunos de los personajes de IA creados por usuarios que han puesto a disposición Instagram o Facebook para tener chatbots sexualizados como “madrastra” o “niña rusa”.
Informática