Depuis quelques années, les responsables de jeux en ligne luttent activement contre la triche et les joueurs toxiques. A force d'expérimentations et de recherches, la plupart des jeux concernés utilisent désormais des IA pour faciliter le travail de curation, à l'image de Counter-Strike : Global Offensive.
Dans ce dernier, on trouve désormais une nouvelle IA, baptisée Minerva. Développée par FACEIT en collaboration avec Google Cloud et Jigsaw, cette IA a commencé à étudier les messages postés sur le jeu depuis le mois d'août. Après une phase d'apprentissage automatique de plusieurs mois durant laquelle elle s'est entraînée pour réduire le nombre de faux-positifs, Minerva a débuté son action.
Fin septembre, ce sont près de 7 millions de messages qui ont été considérés comme toxiques, amenant à 90 000 avertissements et 20 000 exclusions. Par conséquent, et comme nous l'indique PCGamesN, entre le mois d'août et de septembre, le nombre de messages toxiques à diminué de 20%, tandis que le pourcentage d'utilisateurs uniques proférant des propos répréhensibles est descendu de 8 points.
La détection de chat en jeu n'est que la première et la plus simpliste des applications de Minerva, et constitue davantage une étude de cas qui constitue un premier pas vers notre vision de cette IA. Nous sommes très enthousiastes à propos de cette fondation, car elle représente une base solide qui nous permettra d'améliorer Minerva jusqu'à ce que nous puissions enfin détecter et traiter toutes sortes de comportements abusifs en temps réel ; déclare FACEIT sur son blog.
Dans les prochaines semaines, FACEIT dévoilera de nouveaux systèmes, permettant de rendre l'IA Minerva encore plus performante, en évitant notamment plus d'erreurs.