Roblox, una de las plataformas de videojuegos más utilizadas por niñas, niños y adolescentes en el mundo, ha enfrentado una serie de quejas y denuncias por contar con filtros insuficientes para evitar el grooming, que es un tipo de acoso en el que un adulto se gana la confianza de un menor para luego involucrarlo en una actividad sexual. Por lo anterior, la plataforma anunció una actualización de sus mecanismos de protección. La medida central es un sistema de verificación facial impulsado por inteligencia artificial y acompañado de la opción de presentar documentos oficiales para confirmar la edad. El objetivo principal, según explicó Matt Kaufman, responsable de seguridad de la empresa, es evitar que adultos se hagan pasar por menores y reducir la creación de cuentas falsas, consideradas entre los factores que han facilitado incidentes recientes. La compañía señaló que las selfies tomadas para el proceso no se almacenan y que el sistema sigue lineamientos regulatorios estrictos. Te puede interesar: Demandan a Roblox por caso de abuso y secuestro de una menor de 13 años Roblox también agrupará a sus usuarios en seis rangos etarios: sub9, 9-12, 13-15, 16-17, 18-20 y 21+. Cada segmento tendrá acceso diferenciado a experiencias, interacciones y contenidos. Para los menores de nueve años, el chat estará desactivado y solo podrá activarse con consentimiento expreso de los padres. Según el Fondo de las Naciones Unidas para la Infancia (UNICEF), uno de cada tres usuarios de internet es menor de edad. Además, En el universo de Roblox, que registra 152 millones de jugadores diarios, cerca del 40 por ciento de usuarios tiene menos de 13 años. Este año, la firma enfrentó varias denuncias que generaron indignación internacional, como la registrada en febrero, cuando un niño de 14 años acusó a un adulto de exigirle imágenes explícitas a cambio de Robux, la moneda virtual de la plataforma utilizada para adquirir objetos digitales como ropa y accesorios para el avatar con el que interactúan los jugadores. |