Meta, la empresa matriz de Facebook, Instagram y WhatsApp, enfrenta una de las mayores crisis de reputación de su historia tras revelarse que sus chatbots de inteligencia artificial podían mantener conversaciones “románticas” y “sensuales” con menores de edad.
La investigación, publicada por Reuters y confirmada por la propia compañía, expuso un manual interno de 200 páginas donde se detallaban las reglas de interacción de la IA. En dicho documento, se consideraba “aceptable” que los bots respondieran a niños con frases como “Cada parte de ti es un tesoro que adoro profundamente”, o que sugirieran escenas íntimas a adolescentes.
Reacciones de indignación
La filtración generó un rechazo inmediato por parte de legisladores, expertos en seguridad infantil y organizaciones de protección digital. El senador Josh Hawley calificó las políticas de Meta como “repulsivas” y anunció una investigación del Senado para determinar quién aprobó estas normas y durante cuánto tiempo estuvieron vigentes.
“Si un adulto dijera estas palabras a un menor en la vida real sería tratado como un depredador. No hay excusa para que una IA respaldada por una empresa multimillonaria lo haga”, afirmó Lisa Honold, directora del Center for Online Safety.
Zuckerberg bajo presión
Mark Zuckerberg, CEO de Meta, ya había cuestionado previamente a sus ejecutivos por imponer demasiadas restricciones a los bots, calificándolos de “aburridos”. Ese enfoque, según críticos, revela la tensión interna entre la seguridad de los usuarios y el tiempo de permanencia en las plataformas.
Un vocero de la compañía declaró que los ejemplos revelados por Reuters eran “inconsistentes con la política actual” y que ya habían sido eliminados. Sin embargo, admitió que la aplicación de estas reglas fue “errática” en los últimos meses.
Más allá de los tribunales
Meta ya enfrenta múltiples demandas bipartidistas en EE. UU. por el supuesto impacto nocivo de sus productos en los menores, pero analistas advierten que este caso es distinto: no se trata de contenido generado por terceros, sino de mensajes creados directamente por la empresa.
“Esto escapa a la protección legal de la Sección 230. Aquí Meta es responsable directo del contenido”, explicó Jason Kint, CEO de Digital Content Next.
Riesgo de normalización
Los expertos alertan que permitir interacciones “sensuales” con menores a través de bots no solo erosiona la confianza de padres y usuarios, sino que podría allanar el camino para conductas depredadoras reales.
“Si un niño empieza a creer que es normal recibir este tipo de mensajes, se vuelve más vulnerable frente a adultos con intenciones peligrosas”, advirtió Honold.
Un futuro incierto
Mientras avanza la investigación en el Senado y crece la presión social, este nuevo episodio podría convertirse en un punto de inflexión para la regulación de la inteligencia artificial en redes sociales.
Meta, que el año pasado reportó ganancias de 62.400 millones de dólares, ahora se encuentra obligada a responder una pregunta clave: ¿qué pesa más, la seguridad de los menores o el tiempo de engagement en sus plataformas?
Publicar un comentario