Roblox prepara drástica medida sobre la edad, usarán IA y nuevos controles parentales avanzados

Luis Alfredo Ledezma
4 Min de Lectura
4 Min de Lectura
La plataforma de videojuegos ha recibido múltiples denuncias de pedófilos que ponen en peligro a los niños usuarios / Archivo

En respuesta a crecientes denuncias y preocupaciones legales sobre la seguridad infantil, Roblox anunció la implementación de un sistema de verificación de edad basado en inteligencia artificial, junto con controles parentales avanzados.  

De acuerdo con la información compartida por CBS News, esta medida busca frenar el acceso de adultos que se hacen pasar por menores para interactuar con niños en la plataforma Roblox.  

LEA TAMBIÉN: PADRES INDIGNADOS DEMANDAN A ROBLOX Y DISCORD POR EXPONER A MENORES ANTE «DEPREDADORES»

El nuevo sistema utilizará tecnología de estimación facial para verificar la edad de los usuarios. A partir de diciembre de 2025, esta verificación será obligatoria en países como Australia, Nueva Zelanda y los Países Bajos. Además, se espera una expansión global prevista para enero de 2026.  

Esta tecnología permitirá que solo los usuarios que hayan confirmado su edad puedan acceder a funciones como el chat privado, lo que representa un cambio radical en la forma en que Roblox gestiona la comunicación entre jugadores.  

¿QUÉ OTROS CAMBIOS IMPLEMENTARÁ ROBLOX?  

Además de la verificación facial, Roblox reorganizará sus chats en función de la edad. Lo que se quiere, es que niños, adolescentes y adultos se comuniquen únicamente con personas de su mismo grupo etario.

De hecho, la plataforma segmentará a los usuarios en seis grupos etarios. Menores de 9 años, de 9 a 12, de 13 a 15, de 16 a 17, de 18 a 20 y mayores de 21. 

Roblox asegura que actualmente toda comunicación entre adultos y menores de 13 a 17 años está prohibida / Archivo

¿ES CONFIABLE COMPARTIR IMÁGENES PERSONALES?  

Lo que se precisó, es que Roblox no conservará las imágenes ni los videos empleados durante el proceso de verificación de edad.  

Según Matt Kaufman, jefe de seguridad de la compañía, la intención es brindar a los usuarios mayor certeza sobre la identidad de quienes participan en la plataforma.  

Para Kaufman, esta medida representa una oportunidad clave para reforzar la confianza y seguridad dentro del ecosistema de Roblox. 

EXPLOTACIÓN INFANTIL 

De esta manera, la decisión de Roblox llega en un contexto de creciente presión social y legal. La plataforma, que cuenta con millones de usuarios menores de edad, ha sido señalada por permitir situaciones de explotación infantil y no actuar con suficiente rapidez ante los riesgos.  

No hay que olvidar que múltiples familias, respaldadas por los fiscales generales de Kentucky y Luisiana, iniciaron acciones legales contra Roblox, Discord y otras compañías tecnológicas. Alegaron, que estas plataformas, no lograron evitar que adultos con intenciones abusivas se comunicaran con menores.  

En Florida, por ejemplo, el fiscal general James Uthmeier también ha abierto una investigación contra Roblox por posibles fallas en sus mecanismos de protección infantil. 

Sin embargo, con estas nuevas medidas, la empresa espera posicionarse como líder en seguridad digital infantil. Esto, estableciendo lo que sus directivos llaman “el nuevo estándar de oro” en protección online. 

Compartir este artículo