MADRID, ocho Nov. (Portaltic/EP) –
El ochenta y siete por ciento de las acciones de moderación efectuadas por Xbox en la primera mitad del presente año se activaron por los sistemas automatizados de la plataforma, que se han reforzado con nuevos modelos de inteligencia artificial (IA) para detectar las interactúes y las imágenes que violan las reglas de la comunidad.
Microsoft usa en la plataforma ‘online’ de su consola Xbox herramientas automáticas y moderadores humanos para advertir los contenidos tóxicos, con el propósito de que las interactúes de los usuarios en ella sean seguras y fomenten el entretenimiento.
En este sentido, la compañía ha compartido la necesidad de «mantenerse al día» con los cambios que aparecen en la industria y que pueden dañar la experiencia de los jugadores. Por esta razón, han señalado «la exploración y uso» de la IA para apresurar la moderación de contenidos.
Las nuevas herramientas que ya están en uso incluyen ‘Community Sift’, que «clasifica y filtra miles de millones de interacciones humanas por año», y ‘Turing Bletchley v3’, «un modelo multilingüe que escanea imágenes generadas por el usuario para garantizar que solo se muestre el contenido apropiado«, como especifica en su weblog con motivo de tercer informe de trasparencia de Xbox.
La edición nueva del informe se centra en las acciones efectuadas durante la primera mitad del presente año, tanto las impulsadas de forma proactiva por sus sistemas automatizados como las que son resultado de las demandas de los usuarios con las herramientas facilitadas por Xbox.
Así, en los primeros 6 meses de dos mil veintitres, se ejecutaron diecisiete con nueve millones de acciones por medio de las herramientas proactivas de moderación, lo que supone el ochenta y siete por ciento del total de acciones efectuadas.
En este periodo asimismo se bloquearon más de cuatro con siete millones de contenidos antes que llegasen a los jugadores. Esta cantidad supone un incremento del treinta y nueve por ciento en imágenes tóxicas (ciento treinta y cinco mil) respecto del periodo precedente. Asimismo han aumentado un noventa y cinco por ciento las acciones efectuadas de forma proactiva por acoso e intimidación (ochenta y cuatro).
La compañía ha señalado, también, una nueva función de informes de voz para apresar y denunciar el acoso por voz en el juego, que se ha puesto a predisposición de los jugadores en el periodo analizado.