This is the Trace Id: 37f2ea72c9f1496588541a627be11d3c
Moderación y cumplimiento

Detección de contenido

Cómo usamos la tecnología para detectar contenido perjudicial

Usamos un enfoque de varias capas para proteger a nuestros usuarios del contenido y la conducta perjudiciales.

Para detectar y detener la propagación de determinadas categorías de contenido de imágenes ilegales y perjudiciales conocido, implementamos las tecnologías de coincidencia de hash PhotoDNA y MD5 en imágenes y contenido de vídeo compartidos a través de servicios de consumidor hospedados por Microsoft y en contenido cargado para búsquedas de imágenes visuales de Internet. Un “hash” transforma las imágenes en una serie de números que se pueden comparar, almacenar y procesar fácilmente. Estos hashes no son reversibles, lo que significa que no se pueden usar para volver a crear las imágenes originales. Nos basamos en la legislación permitida por el Reglamento de la Unión Europea (EU) 2021/1232, según sea necesario, para el uso de tecnologías de coincidencia de hash para detectar posible material sexual infantil en servicios regidos por la Directiva 2002/58/EC de la EU.

También podemos usar tecnologías de aprendizaje automático como clasificadores basados en texto, clasificadores de imágenes y técnicas de detección de limpieza para detectar contenido o llevar a cabo acciones compartidas a través de servicios de consumidor hospedados por Microsoft que pueden ser ilegales o infringir nuestras directivas. Por último, aprovechamos los informes de usuarios, gobiernos y marcadores de confianza para poner en nuestra atención posibles infracciones de directivas. Estas diversas técnicas se adaptan a las características y servicios en los que se implementan, lo que significa que no podemos usar todas las tecnologías en todos los servicios ni de la misma manera en todos los servicios.

En algunos de nuestros servicios, también implementamos herramientas para detectar e interrumpir el uso incorrecto de las capacidades de videollamada para producir y compartir imágenes de abuso y explotación sexual infantil (CSEAI) por parte de usuarios de alto riesgo. Microsoft usa varias señales para identificar a los usuarios de alto riesgo, incluida su comunicación directa pasada con los usuarios que fueron suspendidos o bloqueados para compartir material de CSEAI. Si un usuario se identifica como de alto riesgo y hay otras señales presentes, se implementa un bot en la llamada en directo. El bot usa inteligencia artificial para determinar si una videollamada en directo contiene CSEAI, casi en tiempo real. Si se detecta CSEAI durante la llamada, se deshabilita la funcionalidad de vídeo en esa llamada.

Lo encontramos

Hemos invertido y aumentado nuestra capacidad de “clasificador” para ayudarnos a detectar proactivamente las infracciones de nuestras directivas en determinados contextos. Un "clasificador" se usa para reconocer y etiquetar material dañino basado en una política predefinida, como el extremismo violento y el terrorismo. Además, hemos desarrollado formas de detectar contenido probablemente malintencionado, como estafas o virus en nuestros servicios.

Otros lo encuentran

Los marcadores de confianza pueden identificar a Microsoft contenido, conducta o direcciones URL potencialmente ilegales o perjudiciales en nuestros servicios para que podamos considerar si se necesita alguna acción. Los marcadores de confianza son organizaciones designadas que trabajan con Microsoft por acuerdo o según lo requiera la ley. El material notificado por los marcadores de confianza se revisa en función de nuestros términos y directivas, al igual que el resto de informes, y luego se actúa en consecuencia. Hacemos lo mismo si cualquier organismo gubernamental o de cumplimiento de la ley informa de una posible infracción o solicitud de eliminación de contenido o direcciones URL en consonancia con la legislación local.

Lo encuentra

Le recomendamos que nos indique si ha visto o experimentado algo en un servicio de Microsoft que le preocupa. Proporcionar información detallada sobre el contenido, la conducta u otro elemento, incluido dónde encontrarlo (como un vínculo al contenido o una copia de un correo electrónico) ayudará a nuestros revisores a evaluar y tomar medidas si infringe nuestros términos y directivas. La mayoría de los productos y servicios tienen opciones dentro de la experiencia del producto para que pueda informar sobre contenido u otros usuarios que llevan a cabo. También puedeinformar de problemas. Tenga cuidado al informar de que no envía material ilegal. Use vínculos al contenido que está notificando para que podamos encontrarlo y lea detenidamente el formulario para asegurarse de que proporciona toda la información solicitada.

Revisión de contenido

Los revisores humanos tienen en cuenta imágenes, vídeo, mensajes y contexto.

Directivas

Las directivas de conducta y contenido de Microsoft explican lo que no está permitido en nuestros servicios.