Facebook vous récompensera pour avoir créé une intelligence artificielle qui comprend les mèmes
Les mèmes constituent une partie très importante de la culture Internet, car ils constituent un outil simple pour communiquer des humeurs et des émotions sur les réseaux sociaux. Bien que la plupart des mèmes soient conçus pour faire sourire les utilisateurs, certains contiennent messages haineux ou discriminatoires… et ils deviennent de plus en plus populaires.
Les intelligences artificielles ne sont actuellement pas capables de replacer les images dans leur contexte
Facebook utilise des systèmes d’intelligence artificielle (IA) pour analyser les messages de son réseau et découvrir tout contenu susceptible d’être préjudiciable ou offensant. Ces messages, une fois détectés par les algorithmes, sont transmis à un groupe de modérateurs qui décident s’ils sont nuisibles ou non. Le problème de ces IA, c’est qu’elles analysent le texte, donc elles ont difficulté à identifier les mèmes avec un contenu malveillant, car ils ne mettent pas le texte avec l’image en contexte.
Pour résoudre ce problème, l’entreprise a proposé 100 000 $ à tout développeur qui peut créer une IA capable d’identifier les mèmes contenant des messages de haine. Ce modèle d’IA doit être capable de comprendre le texte, l’image et aussi de remettre les deux dans leur contexte, pour décrypter le message.
Les développeurs qui participent à ce défi pourront travailler avec une base de données de mèmes, avec lesquels les algorithmes de Facebook ont eu des problèmes et qui contiennent des images à caractère raciste, nationaliste, de haine contre la religion, sexiste, contre l’identité ou des messages d’orientation sexuelle.
La détection des discours de haine sur les réseaux sociaux est un problème complexe et les mèmes ajoutent un problème. couche supplémentaire de complexité, étant donné que les modérateurs et l’IA doivent être capables de comprendre le contexte du mème publié et que le contexte culturel, racial et linguistique change fréquemment, il n’est donc pas non plus possible d’appliquer une solution unique au problème. En ce sens, l’entreprise elle-même comprend qu’avec ce défi, elle ne trouvera pas de solution globale à ce problème, mais elle espère trouver de nouvelles idées qu’elle pourra intégrer dans ses algorithmes pour améliorer la détection de ce type de contenu nuisible.