¿Qué es?
Las plataformas en línea operan en muchas jurisdicciones, muchas de las cuales no reglamentan significativamente su conducta, e interactúan con menores de distintos orígenes sociales, económicos, lingüísticos y culturales. Algunas plataformas en línea aplican distintas políticas, servicios y prácticas relacionadas al acceso de contenido, controles parentales y moderación de contenido, entre otros elementos, con base en dónde están ubicados los usuarios. Estas diferencias solo se basan parcialmente en distintos requisitos y expectativas legales regionales y locales.
Posición del NCMEC:
Las plataformas en línea que permiten a menores crear cuentas o perfiles, enviar/compartir contenido o comunicarse con otros usuarios deberían ofrecer determinadas funciones, incluida la documentación en los idiomas oficiales o comunes del país del usuario, mecanismos simples para denunciar abuso/inconductas en la plataforma; procedimientos accesibles y efectivos de notificación y retirada y medidas de seguridad razonablemente estandarizadas en todas las jurisdicciones.
¿Por qué importa?
A pesar de que los factores de riesgo específicos pueden variar, los menores en todo el mundo son vulnerables a los perjuicios que se presentan o facilitan a través de las plataformas en línea. Por algunos motivos claros, como el cumplimiento de las obligaciones reglamentarias, y tal vez otros motivos menos obvios como el ánimo de lucro, las plataformas en línea a veces ponen a disposición o retienen determinadas funciones relacionadas con la seguridad dependiendo del mercado.
Por ejemplo, la configuración de privacidad predeterminada de una cuenta de usuario puede influir en la seguridad en línea. Si la actividad en línea y las listas de amigos/seguidores/conexiones de un menor son públicas, cualquier usuario puede verlas, de manera predeterminada, los predadores tienen acceso a información que puede usarse para explotar a los menores. Frecuentemente se ha observado el uso de dicha información por parte de los delincuentes en casos de sextorsión con fines financieros. La visibilidad de los contactos en línea de un menor proporciona a los delincuentes la ventaja que necesitan para amenazar con la distribución de imágenes de explotación; esto provoca angustia emocional que, en algunos casos, ha llevado a las víctimas al suicidio.
Una configuración de privacidad predeterminada más estricta, que las plataformas en línea pueden establecer para las cuentas en línea de los menores podría ayudar a mitigar este riesgo.
¿Qué contexto es relevante?
En un análisis realizado por Fairplay con otras diez organizaciones, los investigadores encontraron disparidades geográficas en las funciones relacionadas con la seguridad que ofrecen las plataformas en línea investigadas.
Este estudio, publicado en 2022, destacó, por ejemplo, que las plataformas configuran los ajustes de visibilidad pública o privada predeterminados de manera diferente en función de la ubicación del usuario. En tres jurisdicciones europeas evaluadas, el ajuste predeterminado de Instagram fue «privado» en las cuentas recientemente creadas por los investigadores como usuarios de 17 años. En otras 11 jurisdicciones en todo el mundo (incluida una en Europa), se solicitó al usuario escoger entre pública y privada. De manera similar, la configuración predeterminada de TikTok fue «pública» para las nuevas cuentas en jurisdicciones fuera de Europa. En las europeas, se solicitó a los usuarios seleccionar proactivamente «privada» u omitir la selección, en cuyo caso el ajuste predeterminado fue «pública».
Estas diferencias se atribuyen a requisitos reglamentarios existentes o anticipados en la UE y Reino Unido, mientras que las plataformas en línea en otras regiones están ampliamente desreguladas. Fairplay criticó que la preferencia general del sector por cuentas públicas está más alineada con los intereses comerciales de las empresas que con los mejores intereses de los menores, quienes se beneficiarían de mayor privacidad y seguridad de manera predeterminada.
Los temas con disparidades geográficas evaluados en el estudio incluyeron:
- «las experiencias adecuadas a la edad» están limitadas en determinadas jurisdicciones
- prácticas de privacidad de los datos más sólidas en algunas jurisdicciones en comparación con otras
- la disponibilidad de documentación y elementos de la interfaz de usuario en los idiomas oficiales de las jurisdicciones en las que se ofrecen los servicios
- configuración predeterminada de privacidad para usuarios jóvenes en algunas jurisdicciones pero no en otras;
- requisitos de edad mínima, con énfasis en mensajes internamente incoherentes acerca de las normas específicas de la jurisdicción y
- accesibilidad de las políticas, directrices y funciones de ayuda de las plataformas en línea en solo algunos idiomas oficiales de las jurisdicciones donde se ofrecen los servicios.
En Australia, la ley Online Safety incluyó la implementación de Basic Online Safety Expectations (BOSE) y autorizó a la Comisionada de eSafety a solicitar informes a las plataformas en línea acerca de su progreso en el cumplimiento de las BOSE. Distintas plataformas en línea han presentado información acerca de una variedad de temas de seguridad en línea en respuesta a las exigencias reglamentarias de informes de transparencia de eSafety.
En 2022 y 2023, eSafety solicitó informes a determinadas plataformas en línea acerca de sus esfuerzos para combatir la explotación y el abuso sexual infantil en línea. En 2024, eSafety inició la primera ronda de informes periódicos de determinadas plataformas en línea, que ahora están obligadas a informar cada seis meses acerca de su progreso en la implementación de las BOSE. Este marco reglamentario se aplica únicamente a los servicios disponibles para los usuarios australianos, pero los informes de transparencia pueden ser útiles para identificar dónde existen diferencias geográficas en las prácticas de seguridad en línea.
¿Qué dicen los sobrevivientes?
Los sobrevivientes expresan confusión acerca de por qué las plataformas en línea aún no han estandarizado las funciones y medidas de seguridad en todas las jurisdicciones. También se preguntan acerca de qué otros factores (género, raza, etc.) influyen en las diferencias relacionadas con la seguridad en la manera en la que las plataformas en línea tratan a los menores.
Las plataformas en línea no deberían sepultar la configuración de privacidad, los artículos de ayuda, los procesos de denuncia de abuso ni la políticas de seguridad bajo navegación engorrosa de múltiples pasos ni jerga legal complicada. Para aumentar la participación y comprensión de información o procesos de seguridad importantes, deberían presentarse en formatos sencillos de encontrar y relevantes para los usuarios. Por ejemplo, en una plataforma cuyo principal objetivo sea la interacción en vídeo, la información de seguridad y políticas debería presentarse a los usuarios en vídeo además de por escrito.
![]()
Las normas, reglamentaciones y responsabilidades de [las plataformas en línea] deberían estandarizarse y no debería haber diferencias entre un país y otro.
Padre de una víctima de CSAM
Esta responsabilidad recae indudablemente en las plataformas en línea: proteger a los jóvenes con las mejores normas de seguridad y privacidad en todo el mundo y en todos los servicios.
- Sobreviviente
¿Que impulsa los puntos de vista de oposición?
Las plataformas en línea pueden preferir ajustes públicos predeterminados para las cuentas de usuario por distintos motivos, como promover la interacción de los usuarios, ayudar al descubrimiento de contenido, permitir la recopilación de datos para aumentar los anuncios dirigidos y la monetización de contenido. Además, la moderación de las cuentas privadas puede consumir más recursos para garantizar que se cumplan las expectativas de privacidad y seguridad.