Commençons par discuter du processus même. Comme je l'ai mentionné, en particulier dans le contexte des contenus haineux, nous faisons face à une telle quantité de contenus que nous comptons sur l'apprentissage machine et sur les classifieurs d'images pour reconnaître les contenus. Si le contenu a été reconnu auparavant et que nous possédons un hachage numérique de ce contenu, il est supprimé automatiquement. Si le contenu a besoin d'être examiné, il est envoyé à notre équipe d'examinateurs.
Ces examinateurs ont reçu une formation intensive. Ils ont accès à un soutien local, et ils reçoivent également l'aide de nos équipes mondiales, afin de faire en sorte qu'ils soient en mesure de gérer le contenu qu'ils visionnent ainsi que d'obtenir les services d'appui dont ils ont besoin. Leur milieu de travail et leur environnement social sont organisés ainsi, de manière à ce qu'ils ne subissent pas le même genre de pressions que vous décrivez, pendant qu'ils examinent jour après jour des contenus qui peuvent être horribles. Nous avons parfaitement conscience que leur travail est très difficile, non seulement parce qu'ils tentent de trouver un juste équilibre entre les droits de la personne, la liberté d'expression et ce que la société s'attend à trouver en ligne, mais aussi parce qu'ils ont la tâche difficile d'examiner des documents que personne d'autre ne souhaite examiner.
Qu'ils travaillent dans un bureau ici ou ailleurs dans le monde, nous nous soucions de leur offrir la formation et le soutien nécessaires afin qu'ils puissent accomplir leur travail efficacement, tout en maintenant un équilibre entre leur vie professionnelle et leur vie personnelle.