Meta asegura que ha introducido “medidas adicionales” para evitar que los usuarios de Meta AI y AI Studio manipulen al extremo los ‘chatbots’ después de que una investigación de The Wall Street Journal detectara que los asistentes de inteligencia artificial mantenían conversaciones con contenido sexual con menores de edad.
La compañía tecnológica permite mantener una conversación con su asistente Meta AI en plataformas como Facebook, WhatsApp e Instagram, e incluso permite crear “una IA personalizada” con la herramienta AI Studio. Meta AI también puede conversar con la voz de un famoso, entre los que se encuentran Judi Dench, Awkwafina y John Cena.
La interacción con los ‘chatbots’ está al alcance de cualquier usuario de Meta, incluso de los menores de edad, algo que generó preocupación en la compañía, que se planteó a nivel interno si estaba haciendo lo suficiente por protegerlos.
Esa preocupación llevó a The Wall Street Journal a analizar las interacciones con los ‘chatbots’ de Meta, en unas pruebas en las que durante meses mantuvieron cientos de conversaciones con Meta AI, algunas de ellas desde cuentas de menores de edad.
En ella descubrieron que el ‘chatbot’, también con voces de famosos, podía mantener una conversación con contenido sexual con menores de edad, como recogen en medios como TechCrunch y The Verge.
En concreto, citan como ejemplos una en la que el ‘chatbot’ usaba la voz del actor y luchador John Cena, en la que describió una escena sexualmente explícita a una supuesta usuaria de 14 años. En otra conversación, también con la voz de Cena, el ‘chatbot’ simuló la detención del actor tras ser pillado manteniendo relaciones sexuales con una seguidora de 17 años.
En respuesta a la investigación del medio citado, un portavoz de Meta aseguró que el contenido sexual representó el 0,02 por ciento de las respuestas ofrecidas por Meta AI y AI Studio con usuarios menores de 18 años en un periodo de 30 días.
Aunque la compañía consideró las pruebas de WSJ “artificiales”, también señaló que habían reforzado las protecciones. “Hemos tomado medidas adicionales para garantizar que quienes quieran pasar horas manipulando nuestros productos en casos de uso extremos lo tengan aún más difícil”, apostilló el portavoz.
Facebook reconoce que tiene un problema con el spam y anuncia nuevas medidas para combatirlo
Meta ha reconocido que hay demasiado ‘spam’ en Facebook y por ello ha anunciado nuevas medidas con las que reducirá la visibilidad e impedirá la monetización, que afectarán también a las interacciones falsas, publica Europa Press.
Los usuarios de Facebook no siempre ven el contenido que quieren en el muro de noticias (‘feed’), que se llena de publicaciones engañosas o irrelevantes, lo que se conoce como ‘spam’, aunque no siempre tenga intenciones maliciosas.
Meta ha anunciado medidas más contundentes contra quienes comparten ‘spam’ en la red social, con las que busca, al mismo tiempo, promover el contenido auténtico de los creadores, para que puedan llegar a una mayor audiencia.

Para ello, la compañía tecnológica se ha propuesto reducir el alcance de las cuentas que comparten contenido ‘spam’. Estas suelen recurrir a técnicas ya conocidas, como redactar pies de foto largos que distraen, utilizar una cantidad excesiva de ‘hashtags’ e incluir un pide de foto que no tiene nada que ver con el contenido.
“Las cuentas que recurren a estas tácticas solo verán su contenido mostrado a sus seguidores y no podrán monetizarlo”, ha asegurado Meta. También actuará contra las redes de ‘spam’ que coordinan interacciones falsas, cuyos comentarios también se verán con menos frecuencia.
A ello se unirá una función, actualmente en pruebas, que permitirá a los usuarios señalar los comentarios que son irrelevantes o no se ajustan al espíritu de la conversación.
“El contenido spam puede dificultar la posibilidad de que las personas se escuchen, independientemente de su punto de vista. Por eso, nos centramos en el comportamiento que se relaciona con la distribución y monetización de contenido engañoso”, ha expresado la compañía en su blog oficial.
Eliminación de cuentas y perfiles falsos
Meta eliminó el año pasado más de 100 millones de páginas falsas que incurrían en abuso de seguidores con guiones en Facebook. También 23 millones de perfiles que suplantaban la identidad de grandes productores de contenido.
A la detección proactiva y las medidas de control implementadas para identificar y eliminar a los impostores, la compañía ha añadido funciones al Asistente de moderación (‘Moderation Assist’).
Se trata de la herramienta de gestión de comentarios de Facebook, para detectar y ocultar automáticamente los comentarios de personas que posiblemente usen una identidad falsa. Los creadores también podrán denunciar a los impostores en los comentarios.