Facebook utilise des robots pour lutter contre le harcèlement et la violence
Facebook développe un système de bot, appelé WES, dont le but est de stopper le harcèlement et la violence sur le réseau social. Avec ce genre de « shadow Facebook », l’entreprise réalise une simulation de scénarios de comportement réels des utilisateurs sur le réseau social dans des contextes fictifs, où vous pouvez facilement étudier les modèles de comportement.
Facebook a créé un réseau social parallèle dans lequel un groupe de bots interagissent comme des humains
Facebook utilise l’intelligence artificielle pour effectuer des simulations avec une armée de robots programmés qui imitent le comportement ignoble et impitoyable de l’être humain au sein de Facebook. De cette manière, les ingénieurs du réseau social testent si les bots sont capables de contourner les blocages que le réseau social leur impose en raison de leur comportement, ou s’ils peuvent violer les normes sociales imposées par les communautés.
En analysant les résultats, le réseau social pourra créer des blocs plus puissants et de grande envergure qui serviront à prévenir, en théorie, le harcèlement, les activités criminelles, les fausses nouvelles et toute irrégularité qui se produit au sein de la plateforme.
Comment fonctionne le système WES de Facebook
WES, qui signifie « Web Enabled Simulation », a trois points clés. Le premier est qu’il utilise une technologie d’apprentissage automatique qui aide à former des robots pour simuler le comportement réel que les humains ont au sein de Facebook. Le deuxième aspect est que WES a la capacité de automatiser les interactions avec les bots à grande échelle.
Enfin, cette simulation Web implémentée dans les bots a été réalisée sur la base de code de production réelle de Facebook, créant un véritable scénario d’interactions entre les bots et le contenu qu’ils publient sur Facebook comme s’il était réel. Cependant, toutes ces enquêtes sont effectuées dans un environnement de test appelé WW, hors de portée des vrais utilisateurs de Facebook. Ce serait comme un « Facebook parallèle » pour développer ces simulations.
Dans cet environnement fictif, les bots commencent à se comporter comme des êtres humains lorsque vous essayez d’acheter et de vendre des articles inappropriés ou interdits, tels que des armes et de la drogue, sur le réseau social. Les robots utilisent Facebook comme une personne normale, cherchant et visitant certaines pages… et à un moment donné, essayant de contourner les règles de la plateforme.