Passer au contenu
Début du contenu

FEWO Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de la condition féminine


NUMÉRO 038 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le mercredi 7 décembre 2016

[Enregistrement électronique]

  (1530)  

[Traduction]

    Cet après-midi, nous avons le grand plaisir d'accueillir des représentants de Google et de Google Canada.
    Par vidéoconférence, nous accueillons Mme Malika Saada Saar. En personne, nous avons Mme Lauren Skelly, qui est analyste principale des politiques, et M. Jason Kee, qui est avocat aux politiques publiques et aux relations gouvernementales.
    Nous allons d'abord leur permettre de faire leurs exposés, puis nous passerons aux séries de questions.
    Commençons par vous, Lauren.
    Honorables membres du Comité, merci d'avoir invité Google à contribuer à cette très importante étude.
    Je m'appelle Lauren Skelly. Je suis analyste principale des politiques chez Google Canada.
    Aujourd'hui, je suis accompagnée de deux collègues, soit Jason Kee, qui est avocat aux politiques publiques chez Google Canada, et Malika Saada Saar, que la technologie permet de se joindre à nous aujourd'hui par vidéoconférence à partir de Washington.
    Malika est avocate principale aux droits de la personne et aux droits civils chez Google. Avant de travailler chez Google, Malika a été cofondatrice et directrice générale d'un projet sur les droits de la personne des filles, Rights4Girls, un organisme de défense des droits de la personne axé sur la violence sexiste à l'égard des jeunes femmes et des filles aux États-Unis. Aujourd'hui, chez Google, Malika offre une orientation stratégique sur des enjeux fondamentaux liés aux droits civils et aux droits de la personne qui peuvent avoir une incidence sur l'entreprise, ses utilisateurs et le monde numérique dans lequel nous évoluons.
    Je vais maintenant demander à Malika de vous présenter les observations de Google. C'est avec plaisir que nous répondrons à vos questions.
    Madame la présidente, je vous remercie de m'avoir invitée à comparaître aujourd'hui.
    Je tiens à féliciter le Comité de s'attaquer à cet enjeu et du travail qu'il fait dans le cadre de cette étude, notamment de l'intérêt qu'il manifeste l'égard du monde numérique et de sa relation avec les droits de la personne et la violence fondée sur le sexe.
    Il est important pour moi de commencer par vous parler de mon vécu, car cela oriente une bonne partie du travail que je fais chez Google.
    De 2012 à 2014, j'ai été victime de cyberharcèlement par un ancien collègue. Cet homme n'a cessé de me traquer en ligne, a créé de faux sites Web pour me dénigrer, a envoyé des courriels visant à m'humilier à mes anciens collègues du Département de la Justice et de la Maison-Blanche, ainsi qu'à mes bailleurs de fonds. Il s'est créé de fausses identités pour me harceler davantage.
    Après le rejet de mes nombreuses demandes d'aide auprès des organismes d'application de la loi, j'ai enfin trouvé un détective qui a accepté de m'aider. Voici ce qui s'est passé : une de mes internes a entendu une partie de mes discussions avec ce détective. Plus tard, l'interne est venue me voir et m'a dit qu'elle avait été victime de pornographie vengeresse lorsqu'elle était étudiante de première année en droit. Or, ces images de pornographie vengeresse étaient sa seule empreinte numérique. Par conséquent, aucun cabinet ne voulait de l'embaucher pour l'été.
    J'ai alors pris conscience que même si la cyberviolence dont j'avais été victime avait eu des conséquences émotionnelles réelles, j'avais déjà une empreinte numérique qui contrebalançait le tort que j'ai subi, ce qui n'était pas le cas de cette jeune femme. À l'instar de toutes les autres formes de violence fondée sur le sexe, la violence faite aux femmes et aux filles entraîne des conséquences émotionnelles et économiques.
    Un des principes fondateurs de Google est que la libre circulation de l'information est primordiale et doit être protégée sur les plans culturel, social et économique. La libre circulation de l'information est essentielle à la créativité et à l'innovation. Elle favorise la croissance économique des pays et des entreprises. Il existe toutefois des limites légitimes dont il faut tenir compte, même dans les endroits où les lois comportent d'importantes protections de la liberté d'expression. Nous avons des processus clairs pour le retrait du contenu contraire aux lois locales.
    Nous voulons que nos produits favorisent l'interaction positive au sein de la communauté. Nous avons donc, outre les exigences de la loi, des politiques sur le contenu dont nous autorisons la diffusion ou non sur nos plateformes. Il peut être difficile d'évaluer le caractère controversé du contenu et la réponse n'est pas toujours claire. Nous faisons toutefois de notre mieux pour établir un équilibre entre la liberté d'expression et la sécurité.
    Je sais que le Comité porte un intérêt particulier à l'égard des algorithmes. Il existe, pour toute requête de recherche typique, des milliers sinon des millions de pages Web remplies d'informations utiles. Les algorithmes sont des processus et des formules informatiques qui associent les termes de recherche et les réponses. Les algorithmes de recherche de Google utilisent plus de 200 signaux ou indices uniques pour déterminer ce que l'utilisateur recherche.
    Notre philosophie est fondée sur le principe qu'une recherche devrait donner accès à l'ensemble du Web. Donc, même si nous respectons les lois et que nous supprimons des contenus des résultats de recherche en réponse à des requêtes juridiques justifiées, nous allons au-delà de ces mesures pour quelques catégories restreintes seulement. Par exemple, si un utilisateur recherche des images d'abus sexuel d'enfants, ou ce qu'on appelle la pornographie juvénile, nous bloquons le contenu. Nous supprimons également les images de nudité ou les images sexuellement explicites rendues publiques sans le consentement de la personne qui y figure, notamment dans les cas de pornographie vengeresse, après l'examen des demandes de retrait du contenu des résultats de recherche. Nous procédons également au déclassement des sites Web de pornographie vengeresse.

  (1535)  

    La pornographie vengeresse est interdite sur toutes les plateformes hébergées sur Google, y compris YouTube, Blogger, G+ et Play.
    Il convient de garder à l'esprit que le retrait du contenu controversé des résultats de recherche de Google ne signifie pas nécessairement son retrait d'Internet. Même si Google supprime des adresses URL précises de ses pages de résultats de recherche, la page Web hébergeant le contenu en question existe toujours.
    Nous offrons des ressources pour expliquer aux utilisateurs que les webmestres sont responsables des sites Web et de leur contenu. Nous aidons les utilisateurs à communiquer avec les webmestres pour demander le retrait du contenu à la source, ce qui est la seule façon d'obtenir le retrait du contenu du Web. Nous comparons la recherche Google à une bibliothèque publique; le retrait d'une fiche du classeur de fiches ne signifie pas que le livre n'est plus dans la bibliothèque. Donc, le retrait du résultat de recherche n'entraîne pas l'élimination du contenu source.
    Nous comptons également sur les utilisateurs pour signaler le contenu contraire à nos lignes directrices. C'est en quelque sorte un programme de surveillance de quartier, mais en ligne. Sur YouTube, par exemple, les gens peuvent utiliser l'outil de signalement qui se trouve sous chaque vidéo pour envoyer leurs commentaires et ainsi signaler le contenu qu'ils estiment contraire à nos conditions d'utilisation. En 2015 seulement, nous avons retiré 92 millions de vidéos contraires à nos politiques grâce aux signalements des utilisateurs et à nos technologies de filtrage antipourriel.
    Nous sommes toujours à la recherche de nouvelles technologies pour lutter contre la propagande haineuse en ligne. Jigsaw, le groupe de réflexion de Google, travaille actuellement à l'élaboration d'un ensemble d'outils, qu'on appelle Conversation AI, un système fondé sur l'apprentissage machine visant à détecter automatiquement les termes liés à la violence et au harcèlement avec une précision très supérieure aux filtres fondés sur des mots clés, et beaucoup plus rapidement qu'une équipe de modérateurs humains.
    Offrir aux enfants et aux familles une expérience en ligne positive et sécuritaire est pour nous une priorité absolue, et nous y travaillons de diverses façons.
    Premièrement, nous voulons nous assurer que les parents et les enfants disposent des outils et des connaissances nécessaires pour faire des choix éclairés et responsables pour leurs activités en ligne. Nous sommes déterminés à créer une génération de citoyens numériques informés et responsables. Nous offrons aux enfants et aux enseignants divers programmes de formation sur les notions de base que sont la protection de la vie privée, la sécurité et les comportements consciencieux en ligne.
    Nous croyons fermement que des entreprises comme Google ont la responsabilité de veiller à ce que les produits et services qu'ils offrent permettent aux familles d'avoir des expériences sécuritaires en ligne. Nos produits comportent des mécanismes qui aident les familles à prendre des décisions, notamment les paramètres de sécurité du moteur de recherche de Google et de YouTube, pour que les utilisateurs puissent filtrer le contenu plus explicite. En outre, nos produits sont conçus en fonction des familles, comme la chaîne YouTube Kids, une application indépendante qui facilite et rend plus sécuritaire pour les enfants la recherche de vidéos sur des sujets qui les intéressent dans un environnement sécuritaire et adapté à leur âge.
    D'importants progrès ont été faits; les technologies conçues par l'industrie et offertes au public contribuent réellement à assurer la sécurité des femmes et des filles en ligne. Cela dit, il reste beaucoup de travail à faire.
    Nous sommes déterminés à poursuivre la collaboration avec l'industrie, les organismes sans but lucratif et les gouvernements pour protéger l'ensemble de la population contre les préjudices tout en assurant à tous un accès libre et ouvert à Internet.
    Je vous remercie de m'avoir donné l'occasion de présenter ces observations au Comité. C'est avec plaisir que je répondrai à vos questions.

  (1540)  

    Excellent.
    Pour commencer la première série de questions, nous passons à Mme Damoff.
    Merci beaucoup de comparaître au Comité aujourd'hui.
    Vous avez mentionné les algorithmes. Après notre dernière réunion, une de mes collègues a dit : « Regarde ce qu'on obtient lorsqu'on saisit cette phrase. » Nous avons saisi « Les Noirs sont-ils ». La deuxième réponse suggérée était « plus stupides ». Ce n'était pas ce que je cherchais, mais c'était évidemment attribuable à un algorithme, n'est-ce pas?
    Que faites-vous pour empêcher ce genre de choses? Quelqu'un avait évidemment favorisé l'obtention de ce résultat en tête de liste des résultats de recherche, pour des raisons qui lui sont propres. Comment gérez-vous ce genre de cas?
    J'aimerais que mes collègues répondent aussi.
    Je pense qu'il est toujours difficile de créer des algorithmes correctifs qui empêchent la reproduction d'attitudes, de langage et de comportements biaisés. C'est un problème continu, et il va sans dire que nous cherchons à le régler dans le cadre de Conversation AI. Nous tenons à ce que les algorithmes qui sont créés ne reproduisent pas les préjugés et soient correctifs.
    Lors de la dernière réunion, on nous a parlé d'une chose appelée... Je pense que le terme était « embrigadement », une pratique qui permet à des groupes de déplacer du contenu vers le haut ou le bas des résultats de recherche de Google. Êtes-vous au courant de cette pratique?
    Nous commençons à en savoir davantage à ce sujet, d'où l'importance, encore une fois, de discuter de ces choses avec le public. Nous comptons sur les utilisateurs pour qu'ils signalent ces problèmes afin que nous puissions prendre des mesures correctives quant au fonctionnement du moteur de recherche.
    Très bien.
    Nous avons beaucoup entendu parler de la nécessité d'accroître la littératie numérique. J'ai été très heureuse d'entendre que vous prenez déjà des mesures à cet égard. Pouvez-vous parler davantage des programmes que vous offrez et nous dire à qui ils sont offerts?
    Je peux vous parler de ce que nous faisons États-Unis et j'aimerais que mes collègues parlent de ce que nous faisons au Canada.
    Aux États-Unis, nous avons un programme appelé Applejacks. Nous allons dans les écoles et nous offrons aux étudiants et aux enseignants des ateliers pratiques en matière de culture numérique. Les parents parmi nous savent que les enfants ont parfois plus de facilité et une approche plus intuitive des comportements et des interactions en ligne. Il est important de travailler également avec les enseignants pour promouvoir la littératie numérique et les comportements responsables quant à l'utilisation des produits offerts en ligne.
    J'aimerais beaucoup savoir ce que nous faisons au Canada.
    Au Canada, nous appuyions de nombreux organismes dont vous avez déjà entendu parler, comme HabiloMédias, le Centre canadien de protection de l'enfance et la Société canadienne des enfants disparus. Nous croyons aussi qu'il faut habiliter les jeunes et les étudiants à devenir eux-mêmes des créateurs et des citoyens numériques en les incitant à acquérir des compétences numériques autres que celles qui sont liées à la sécurité et à la protection de la vie privée, notamment le codage et la programmation. Nous appuyions des organismes comme Ladies Learning Code et Actua, pour qu'ils apprennent à utiliser Internet à des fins positives et favoriser leur habilitation.
    Lorsque vous dites que vous les appuyez, parlez-vous d'un appui financier?

  (1545)  

    Cela se présente sous diverses formes. Nous offrons en effet du financement à HabiloMédias et à la Société canadienne des enfants disparus. Nous offrons un soutien de base.
    M. Colin McKay, notre responsable des relations gouvernementales, siège au conseil d'administration d'HabiloMédias. Nous avons collaboré avec Actua pour l'élaboration d'un programme appelé Codemakers, qui est une formation sur le codage que nous avons déjà offerte à plus de 100 000 Canadiens, en majorité des filles.
    C'est formidable.
    Un témoin nous a parlé de la création d'un poste de commissaire à la sécurité électronique, comme en Australie. Il s'agirait d'un fonctionnaire qui serait chargé du traitement des plaintes et qui jouerait essentiellement le rôle de coordonnateur à la sécurité électronique.
    Êtes-vous au courant de ce qui se fait en Australie? Qu'en pensez-vous?
    Je ne sais pas ce qu'il en est du commissaire à la sécurité électronique en Australie.
    Je pense que toute mesure que pourrait prendre le gouvernement pour favoriser la sensibilisation des enfants — y compris nommer une personne pour assurer la coordination avec l'industrie — serait la bienvenue, car je pense que c'est l'enjeu clé.
    Malika, avez-vous des observations à ce sujet?
    Oui, je suis d'accord. Il est essentiel de créer des espaces qui favorisent les discussions continues, le dialogue et l'adoption de mesures concrètes en matière de sécurité, car comme vous l'avez tous constaté, il s'agit d'un milieu dynamique. Il est donc important d'être constamment au fait des enjeux liés au monde numérique, aux enfants et à la sécurité, et de prendre des mesures concrètes.
    Revenons à vos programmes pour quelques minutes. Les représentants d'HabiloMédias comptent parmi les meilleurs témoins que nous avons accueillis. Je parle tant de leurs activités que des informations qu'ils nous ont fournies. De toute évidence, le financement continu est un enjeu pour les groupes de ce genre.
    Je pense que toute aide que les sociétés comme la vôtre peuvent offrir pour intensifier... Je ne vous demande pas de prendre un engagement à cet égard, mais le gouvernement ne peut financer toutes ces choses. On nous a indiqué que les algorithmes représentaient une industrie de plusieurs milliards de dollars.
    Avez-vous d'autres suggestions quant aux entités, outre Google, qui pourraient financer des groupes comme HabiloMédias?
    Je pense que les sociétés de technologie en général doivent jouer un rôle à cet égard. Évidemment, nous sommes en concurrence dans divers domaines, mais celui-là n'est pas du nombre. Nous avons tous intérêt à assurer la sécurité des enfants et des familles en ligne. Je pense que l'industrie peut s'améliorer pour agir de façon plus concertée. Je pense qu'HabiloMédias fait un travail formidable au Canada et qu'il convient de l'appuyer davantage.
    Très bien.
    Il s'agit probablement de ma dernière question, étant donné que je n'ai pas démarré mon chronomètre immédiatement. Un de nos témoins a suggéré quelque chose qui était lié à Twitter, mais qui pourrait aussi s'appliquer à vos algorithmes. L'idée était d'avoir plus de femmes dans le processus d'élaboration des algorithmes. Je me demande combien de femmes travaillent à de telles choses chez Google, et j'aimerais savoir si vous considérez qu'il faut accroître la diversité chez les gens qui participent au développement et à la surveillance des algorithmes en ligne.
    Oui. Google a été l'une des premières entreprises à publier ses chiffres sur la diversité, parce que le domaine des technologies a un grave problème de diversité en ce qui a trait aux femmes, aux personnes de couleur et aux immigrants. C'est pourquoi nous investissons dans des organisations comme Ladies Learning Code, Actua et plusieurs autres aux États-Unis.
    Notre équipe de personnalisation de la recherche est dirigée par une femme ingénieure, ce qui est très bien, mais de toute évidence, nous pouvons en faire plus. Je crois que ce qui motive l'investissement dans la diversité, c'est qu'il faut que notre équipe soit le reflet des utilisateurs de nos produits. Nous devons comprendre ce qu'ils veulent et ce qu'ils cherchent, alors nous sommes d'accord là-dessus, mais il y a encore beaucoup de travail à faire.
    Très bien. Votre temps est écoulé.
    La parole est maintenant à Mme Harder. Vous avez sept minutes, madame.
    Merci beaucoup.
    Pourriez-vous nous parler davantage des conséquences économiques de la violence sexuelle pour les femmes? Pourriez-vous nous en dire un peu plus à ce sujet?
    La réalité, c'est que nos vies en ligne sont tout aussi réelles, pertinentes et significatives que nos vies physiques. Il est donc essentiel pour les femmes et les filles de participer pleinement à la vie en ligne et de faire entendre leur voix. C'est aussi essentiel sur le plan économique.
    C'est pourquoi j'ai été stupéfaite de l'exemple de la pornographie vengeresse, dont le coût pour les femmes n'est pas seulement émotif. Nous avons entendu des femmes journalistes qui ont été attaquées en ligne, notamment sur Twitter. Depuis, elles ne veulent plus être en ligne. Si elles cessent d'exister en ligne, cela aura des conséquences réelles sur leur carrière.
    Une jeune femme qui veut travailler dans un cabinet d'avocats après avoir travaillé d'arrache-pied à la faculté de droit ne pourra pas être embauchée, parce que son empreinte numérique comprend des images sexuelles d'elle, publiées sans son consentement. Les conséquences économiques sont réelles, et il y a de nombreux autres exemples. Nous avons entendu tellement de femmes et de filles qui avaient une telle empreinte numérique en début de carrière.
    Il faut comprendre que le cyberharcèlement — que subissent de façon disproportionnée les femmes et les filles — n'est pas seulement répréhensible et dangereux, mais qu'il a aussi de réelles conséquences sur la voix des femmes et des filles en ligne.

  (1550)  

    Merci.
    Est-ce que l'un d'entre vous peut nous dire s'il serait possible d'utiliser des algorithmes de manière positive pour réduire les risques que des enfants mineurs aient accès à la pornographie?
    Nous n'offrons pas la pornographie, à moins que vous ne fassiez une recherche explicite. Certains termes se chevauchent, bien sûr, comme « couguar », mais nous nous assurons de rétrograder les sites pornographiques associés à ces termes, parce que nous ne voulons pas que vous les voyiez par hasard.
    En ce qui a trait aux images d'abus sexuel d'enfants, nous nous sommes associés à plusieurs organismes à but non lucratif pour établir une solide base de données qui nous permet de cibler ces images ou ce contenu, grâce à ce qu'on appelle les empreintes numériques. Nous avons établi des partenariats avec Facebook, Microsoft et Nik Mic aux États-Unis. Nous n'offrons aucunement ce contenu, nulle part dans le monde.
    Pour ce qui est de l'accès des mineurs à la pornographie, vous pouvez utiliser les paramètres de nos produits pour faire en sorte qu'ils n'apparaissent pas. Si vous activez la fonction SafeSearch, vos résultats n'afficheront aucun site pornographique. Lorsqu'elle est activée, elle filtre aussi les résultats dans YouTube.
    Vous pouvez utiliser certains contrôles. Il est bon d'avoir plusieurs choix en tant que parent.
    Oui.
    Vous avez dit qu'on n'était pas automatiquement dirigé vers un site pornographique, mais qu'en est-il des images pornographiques? Ce n'est vraiment pas difficile de faire apparaître une telle image. Est-ce que les algorithmes pourraient servir à éviter cela?
    Oui, mais ils doivent être très restreints. Prenons l'exemple de l'allaitement. Si l'on enlevait toutes les images de seins d'Internet, alors on éliminerait aussi les ressources éducatives. On nivellerait par le bas. C'est un terrain glissant.
    Aujourd'hui, les parents peuvent utiliser les outils que nous avons créés pour empêcher ces sites d'apparaître, mais ils sont presque inévitables d'une certaine façon. Si une personne veut vraiment trouver ces sites, elle y arrivera. Même si on les retire de Google, ces sites Web existent toujours.
    D'accord.
    Y a-t-il une façon d'utiliser les algorithmes de façon spécifique pour atténuer la violence, comme les actes de violence, les mots violents ou toute forme de violence contre les femmes? Y a-t-il une façon d'utiliser les algorithmes à cette fin et les utilisez-vous?
    Nous n'acceptons aucune forme de violence sur la plateforme YouTube. Ces vidéos constituent une violation des lignes directrices de la communauté et sont retirées. On procède par signalement. Si un utilisateur signale une vidéo inappropriée, elle sera examinée par notre équipe, qui travaille en tout temps.
    Malika, avez-vous d'autres exemples?
    Je crois que Conversation AI sera un autre outil qui nous permettra de régir et de surveiller les discours haineux dans les commentaires.
    Y a-t-il des algorithmes pouvant servir à réorienter le discours sur la façon dont les femmes sont perçues?

  (1555)  

    Je crois que c'est un des objectifs de Conversation AI et cela fait partie de la question dont nous sommes saisis. Aux États-Unis, nous avons beaucoup collaboré avec les groupes de défense des droits des femmes à cette question. Comment pouvons-nous veiller à ce que nos algorithmes ne reproduisent pas la misogynie et comment pouvons-nous les utiliser pour forger un nouveau langage respectueux?
    Je crois qu'on commence à y arriver et pour nous, l'important était d'amener ces organisations de défense des droits des femmes à songer à la façon d'utiliser cette nouvelle technologie de manière sensée.
    Pour faire contrepoids à cette situation, on peut aussi tenir un contre-discours sur la haine et la violence et encourager les organisations à inonder les espaces de ces contre-discours.
    En collaboration avec les créateurs de YouTube, nous avons lancé l'initiative Creators for Change. Nous avons établi un fonds permettant à des créateurs d'influence, qui ont des tonnes d'abonnés, de présenter un contre-discours, et je crois qu'il s'agit d'une façon très efficace de prendre les intimidateurs à leur propre jeu.
    Excellent.
    Madame Malcolmson, vous avez sept minutes.
    Je remercie les témoins de leur présence ici aujourd'hui, et je suis heureuse d'en apprendre plus sur vous.
    J'aimerais commencer par ceci : nous avons reçu de nombreux témoins et nous avons compris que vous comptiez grandement sur les ONG qui luttent contre la cyberviolence et font la promotion de la culture numérique, et qui font très bien leur travail. Les représentants de ces organisations nous ont dit qu'il y avait encore beaucoup de travail à faire et que le financement opérationnel était un problème.
    J'imagine aussi que si elles sont financées par Google ou Twitter, leur lien de dépendance peut poser problème.
    Je me demande si vous avez une idée de ce qu'on peut faire en tant que gouvernement fédéral, à l'échelle internationale ou au Canada, pour veiller à ce que ces ONG indépendantes aient la capacité de faire le travail que la société lui demande de faire?
    Malika, vous pouvez peut-être prendre la parole, puisque vous travailliez pour l'une de ces organisations jusqu'à tout récemment, puis je parlerai du contexte canadien.
    Lorsque je travaillais pour une ONG, je consacrais une grande partie de mon temps à la lutte contre la traite d'enfants à des fins sexuelles, et nous avons mis sur pied avec Google une campagne intitulée No Such Thing, qui veut dire que les enfants prostitués, cela n'existe pas; il n'y a que des victimes et des survivants de viol d'enfant.
    Comme nous étions financés par Google, les autres bailleurs de fonds savaient que notre organisation était légitime, forte et viable. Il ne fait aucun doute que le soutien de Google a entraîné le soutien d'autres fondations et d'autres sociétés. Je crois que c'est une des raisons pour lesquelles il est important pour les Google, les Facebook et les Twitter de ce monde d'aider ces ONG. Les autres bailleurs de fonds et les donneurs individuels comprennent alors qu'il est important d'aider ces organisations.
    Je suis tout à fait d'accord avec Malika, et c'est ce que disent nos partenaires également. Ces grandes marques comme Google, Twitter et Facebook font le poids et assurent la viabilité de nombre de ces organisations. Bien sûr, le financement est très, très important, mais nous avons aussi des domaines d'expertise que ces organisations n'ont peut-être pas.
    Par exemple, je sais que nous prêtons nombre de nos ingénieurs au National Center for Missing and Exploited Children des États-Unis, pour l'aider à créer ses bases de données et à accroître son expertise technique. Je crois que nous pourrons toujours faire plus dans ce domaine. On n'en fera jamais assez.
    J'aimerais poser une autre question en matière de réglementation, parce que nous songeons à ce que nous pouvons changer sur le terrain, sur le plan législatif fédéral. Y a-t-il des protections pour les jeunes femmes et les filles que le Canada devrait déjà offrir? Je veux faire une comparaison, parce que vous travaillez pour une société internationale. Y a-t-il des pratiques exemplaires ou des modèles législatifs dont nous pourrions nous inspirer?
    Je ne connais pas bien cette partie de la loi et je ne suis pas à l'aise de faire une comparaison.
    Malika, connaissez-vous bien la loi canadienne?

  (1600)  

    Ce que je dirais, d'après ce que nous avons appris ici et d'après ma propre expérience, c'est qu'il est très important de former les responsables de l'application de la loi sur ces formes de cyberviolence, afin qu'ils comprennent que le harcèlement en ligne est tout aussi grave que le harcèlement physique; qu'il faut en tenir compte et intervenir.
    J'ai frappé à la porte de divers services de police et je les ai suppliés de m'aider. Les premières personnes que j'ai rencontrées se sont moquées de moi. Ce n'est que la persévérance et la chance qui m'on permis de trouver un détective qui comprenait que c'était une forme de violence contre les femmes et les filles.
    Je crois qu'il est essentiel d'investir dans la formation des agents d'exécution de la loi du Canada et des États-Unis afin qu'ils comprennent la situation et qu'ils interviennent. Il faut faire la même chose qu'avec la violence familiale. Nous avons désigné la violence familiale à titre de forme de violence contre les femmes. Nous avons dû travailler fort pour former les agents d'exécution de la loi afin qu'ils comprennent cela et qu'ils mettent en place des protocoles d'intervention. Il faut faire la même chose pour la cyberviolence.
    Puisque le Canada compte un amalgame de forces policières municipales, régionales, autochtones, provinciales et territoriales, je crois qu'on pourrait recommander que le gouvernement fédéral encourage tous ces partenaires à suivre une formation normalisée, de sorte que les victimes de cyberviolence puissent s'attendre à un même niveau d'éducation de la part des agents d'exécution de la loi, peu importe l'endroit où elles se trouvent au pays. Les policiers doivent être sensibles au traumatisme et comprendre la culture numérique.
    C'est exactement cela. Je dirais aussi qu'il est bon d'entretenir des liens avec les écoles.
    Ce qu'on a vu et qu'on continue de voir aux États-Unis, c'est que la cyberintimidation des filles est souvent appelée « slut-shaming ». On ne la perçoit même pas comme une forme de cyberviolence. On juge plutôt du comportement de la fille. Il est essentiel que les écoles puissent reconnaître que lorsque les filles sont victimes de cyberintimidation, souvent d'une manière très sexualisée, c'est une forme de violence et non un jugement sur son comportement sexuel.
    Vos témoignages sont très utiles et rejoignent ceux des ONG de première ligne, des victimes et des survivants; merci de votre travail et d'avoir pris le temps de témoigner devant nous aujourd'hui.
    Excellent.
    La parole est maintenant à M. Fraser. Vous avez sept minutes, monsieur.
    Je remercie tous les témoins de leur présence ici aujourd'hui. J'aime beaucoup vos témoignages.
    J'espère que nous pourrons régler ma première question rapidement et passer à une autre. Je crois que c'est Mme Saada Saar qui a dit qu'il y avait des outils pour retirer le contenu offensant des résultats de recherche, mais bien sûr, Google ne peut pas retirer le contenu des sites de quelqu'un d'autre. Est-ce que le contenu controversé ou offensant est déclaré aux organismes d'application de la loi ou à des personnes qui pourraient faire retirer le contenu d'un autre hôte?
    Nous travaillons toujours au développement de Conversation AI. Ce n'est pas un produit fini, mais je vais vous donner un exemple sur le retrait du contenu. Lorsque nous découvrons des images d'agressions sexuelles d'enfants — et nous ratissons toutes nos plateformes pour les trouver —, nous communiquons avec le NCMEC, le National Center for Missing and Exploited Children, et nous lui signalons ce contenu. Les images d'agressions sexuelles d'enfants sont retirées.
    Pourquoi ne pourrions-nous pas faire de même pour le contenu explicite partagé sans le consentement de la personne visée?
    C'est la pornographie vengeresse.
    En ce qui a trait à la pornographie vengeresse, lorsqu'un utilisateur nous signale que l'image a été diffusée sans son consentement, nous la retirons, mais nous lui expliquons aussi comment communiquer avec un gestionnaire Web pour la retirer d'Internet.
    D'accord. Merci beaucoup.
    Je vais maintenant passer à un autre sujet. De toute évidence, le travail que vous faites et qui est fait en ligne de nos jours est très novateur. Les avantages économiques et sociaux d'une bonne organisation de l'information en ligne sont énormes. Je crains parfois que lorsqu'on tente de réglementer Internet d'une façon ou d'une autre, cela donne lieu à des conséquences négatives involontaires, malgré nos bonnes intentions.
    Y a-t-il certaines mesures que nous devrions éviter dans nos recommandations à l'intention du gouvernement, que ce soit la surveillance accrue, certains types de filtres de contenu ou autre chose?

  (1605)  

    Je crois que ce qu'il faut avant tout, c'est être aussi précis que possible, parce que quand vous arrivez avec... Si l'on interdit la nudité sur Internet, avec les exemples que je vous ai donnés à propos de l'éducation en matière de santé ou de la nudité artistique, nous nous limitons pour tout ce contenu.
    Au moment d'élaborer la réglementation, il est important d'être aussi précis que possible.
    D'accord.
    Avez-vous d'autres suggestions, Malika?
    Je confirme que ce Lauren a dit. Il est important — comme vous le verrez dans la façon dont nous avons conçu nos politiques — de tout adapter très précisément afin d'obtenir un juste équilibre entre l'innovation, la libre expression et la sécurité.
    C'est excellent.
    Nous avons consacré un peu de temps à parler de culture numérique, et je crois que c'est vous, madame Skelly, qui avez dit qu'il fallait créer un citoyen numérique mieux informé ou quelque chose qui ressemblait à cela, ce qui me paraît vraiment bien.
    Nous avons entendu des témoignages semblables d'autres groupes, comme HabiloMédias. Je pense que cela formera un élément essentiel de notre étude. Je l'espère, du moins.
    Je suis curieux, cependant. Qu'est-ce que cela apporte à Google? Quel est votre intérêt, outre se comporter comme un bon citoyen qui fait la promotion d'une communauté numérique bien informée?
    Je pense qu'il y a aussi l'angle du talent, dans les compétences numériques. Nous devons engager beaucoup de gens pour faire le travail que nous faisons. En ce moment, il y a une pénurie de personnes possédant ces compétences. C'est ce qui est intéressant pour nous, mais je dirais que nous accordons une grande priorité à la sécurité de tous en ligne ainsi qu'à la collaboration avec tous nos partenaires à cette fin.
    Il y a aussi notre engagement envers la démocratie. Nous voulons que les idéaux de la démocratie, l'inclusion et la diversité fassent partie des interactions en ligne. Il s'agit de la façon dont nous bâtissons notre société civile et de la façon dont les personnes, nos citoyens de la société numérique, déterminent le type de société que nous composons.
    En ce qui concerne ce que nous pourrions recommander plutôt que ce que nous devrions éviter, comment pouvons-nous faire les meilleures recommandations possible au gouvernement, au moyen de notre étude, pour encourager la culture numérique chez le public en général, et en particulier la culture numérique qui contribuera à protéger les jeunes femmes et les filles contre la cyberviolence ou le harcèlement, quel qu'il soit?
    Je pense que cela commence à l'école. Les organisations comme HabiloMédias — les gens qui font du travail lié aux compétences en codage et en programmation — sont des organisations formidables et très importantes, mais il faut que cela commence en classe. Je pense que cela commence par le programme d'enseignement. Je sais, évidemment, que le programme d'enseignement n'est pas de votre ressort, mais tout ce que vous pouvez faire pour favoriser cela au plus jeune âge est très important, je crois.
    Il est aussi important de parler de cela à la lumière de la position de pouvoir. Aux États-Unis, nous avons Black Girls Code et Girls Who Code. C'est important, parce que nous pouvons ainsi veiller à ce que nos filles ne possèdent pas que la culture numérique, mais aussi les compétences nécessaires pour téléverser des applications, et ce, vers l'amont également. Nous voulons qu'elles soient incluses dans notre conception de produits et dans nos vies en ligne. C'est la culture numérique, mais nous veillons bien aussi à ce que les filles, y compris les filles de couleur, comptent parmi les architectes, sans se limiter au rôle de destinataires.
    D'après vous, sachant la capacité d'intervention limitée du gouvernement fédéral en matière d'éducation, parce que c'est une compétence provinciale, est-ce que la meilleure façon serait de donner du soutien aux organisations communautaires qui travaillent dans les écoles ou qui font du travail communautaire? Est-ce que cela garantira que nous ciblons des groupes qui peuvent aider les femmes risquant de subir des formes interreliées de discrimination à participer au processus de création du contenu, et comme utilisatrices, à en apprendre davantage sur les manières de se protéger?
    Absolument.
    Il ne me reste que 30 secondes. Je pense que nous pourrions difficilement en accomplir davantage, alors je vais simplement vous remercier. C'était très informatif.
    Excellent.
    C'est maintenant au tour de Mme Vecchio, pour cinq minutes.
    Je vous remercie beaucoup d'être venus aujourd'hui. J'ai quelques questions.
    L'une des choses que vous avez mentionnées dans votre exposé est le programme de culture numérique Applejacks. Pouvez-vous me donner d'autres renseignements à ce sujet, comme le taux de participation? Où cela se fait-il en ce moment? Quel est le groupe d'âge ciblé? Est-ce que cela commencer à la maternelle? Pouvez-vous me donner plus d'information? Je présume que c'est aux États-Unis, mais est-ce que nous avons cela ici au Canada aussi? Quels États participent à ce programme en ce moment?

  (1610)  

    Je vais m'assurer que les personnes qui s'occupent d'Applejacks à notre bureau soient mises en contact avec vous et qu'elles vous donnent une explication plus approfondie de ce qu'elles font.
    À ma connaissance, nous intervenons dans les écoles intermédiaires, et il s'agit de pouvoir avoir de la latitude dans notre façon d'interagir avec les élèves et avec les enseignants. Je ne gère pas ce programme, mais je serai ravie de veiller à ce qu'une description plus complète de ce programme vous soit transmise.
    Avez-vous quelque chose à dire, madame Skelly?
    Oui. Nous avons ouvert à tous plusieurs éléments d'autoapprentissage d'Applejacks. Ils se trouvent dans notre Centre de sécurité Google. Je crois que cela comporte un outil que vous pouvez parcourir, en tant que parent, avec votre enfant, et qui dure 45 minutes.
    Nous aimerions manifestement amener Applejacks au Canada. Nous n'avons pas encore la portée nécessaire pour le faire, mais nous examinons cette possibilité.
    Excellent.
    Vous avez parlé de la loi, et la question de l'application de la loi a beaucoup été soulevée. Quand vous parlez de crimes de ce genre aux organismes d'application de la loi, ce n'est évidemment pas bien compris.
    Que recommanderiez-vous comme programme? Est-ce que Google pourrait faire quelque chose en particulier? Devons-nous plutôt envisager de concevoir un programme et, encore une fois, d'en confier l'application à divers sous-utilisateurs?
    Aux États-Unis, nous nous sommes associés au National Network to End Domestic Violence. C'est eux qui s'occupent essentiellement de joindre les femmes pour leur enseigner comment se protéger en ligne, ainsi que de former les organismes d'application de la loi pour qu'ils comprennent que c'est une nouvelle forme de violence contre les femmes et les filles.
    Pour terminer, j'aimerais parler de profils.
    Certains ordinateurs ont de multiples profils, alors que d'autres n'ont que le profil d'une famille. Chez nous, nous utilisons « Vecchio ». Quand vous avez des profils singuliers, est-ce que c'est l'ordinateur qui vous soumet à ces algorithmes, ou est-ce selon le profil qui est utilisé? Par exemple, si j'utilise l'ordinateur pour faire une recherche, est-ce que ma recherche va apparaître si mon fils de 13 ans pose les mêmes questions? Sera-t-il en mesure d'obtenir essentiellement la même chose si nous utilisons les mêmes codes, en raison de l'utilisation différente que nous en faisons?
    Que diriez-vous à propos des profils?
    Je peux répondre.
    Le navigateur Chrome donne la possibilité de « gérer les utilisateurs ». Vous pouvez en gros configurer des versions personnalisées pour chaque membre de votre famille et établir des paramètres en fonction de l'âge de chacun. Vous pouvez choisir le degré de pertinence. Vous pouvez établir des paramètres de sécurité et bloquer certains sites. Vous pouvez adapter le contenu. Cependant, si vous n'utilisez que le profil de la famille Vecchio, le navigateur va présumer que vous êtes une seule personne.
    D'accord. Ce n'est pas un problème.
    Enfin, est-ce que d'autres gouvernements et pays ont, à votre connaissance, des lois ou des règlements que nous devrions regarder, qui pourraient nous aider à faire des choix plus éclairés pour le Canada?
    Je vais vous donner un exemple lié à ma situation personnelle.
    J'ai eu la chance de subir du cyberharcèlement criminel dans le District de Columbia, plutôt qu'en Virginie. En effet, à l'époque, la Virginie n'estimait pas que le cyberharcèlement était du harcèlement, alors que c'était le cas dans le D.C. Je pense qu'il est important en droit de reconnaître juridiquement la cyberviolence, le cyberharcèlement criminel et le cyberharcèlement comme étant des formes de harcèlement et de harcèlement criminel.
    Il nous reste du temps pour une dernière question, soit environ une minute et demie. Madame Ludwig, vous pouvez y aller.
    Je vous remercie de vos exposés.
    Ma question s'adresse à Malika.
    La future première dame, Melania Trump, a déclaré : « Il n'est jamais acceptable qu'une fille ou un garçon de 12 ans fasse l'objet de moqueries, d'intimidation ou d'attaques. C'est terrible quand cela se produit au terrain de jeu, et c'est absolument inacceptable quand une personne le fait sur Internet de façon anonyme en se cachant. »
    J'ai deux questions.
    Quand des célébrités se saisissent d'un problème pour en faire un engagement clé, quel effet cela a-t-il sur la sensibilisation et, au bout du compte, les politiques et les enjeux comme la cyberintimidation? Deuxièmement, si vous faisiez partie du comité de Mme Trump, que voudriez-vous qu'elle mette en évidence?

  (1615)  

    En réponse à votre première question, je dirais que nous constatons que dans divers cas, quand des célébrités se prononcent, l'enjeu dont il est question se retrouve au coeur de la culture populaire, sur la place publique, et c'est très utile. Nous avons vu, aux États-Unis et au Canada, des filles se suicider à cause de la cyberintimidation subie. Ce qui ressort des expériences de toutes ces filles, c'est l'incroyable isolement qu'elles vivaient. Elles étaient blessées, et la violence qu'on leur a fait subir n'a jamais été nommée.
    Je crois que les célébrités ont le pouvoir de nommer les choses et de permettre à la fille qui se sent isolée et qui croit que personne ne l'écoute d'avoir une certaine validation en raison de la présence de la célébrité en question. Cela nous permet aussi de parler de cela sur la scène publique, ce qui est d'après moi absolument nécessaire.
    Encore là, c'est très semblable à la violence familiale. Une partie du travail consiste à nommer cela comme étant de la violence. Si nous pouvons parler de cela de diverses façons et généralement, c'est encore mieux.
    C'est excellent.
    Le temps est écoulé. Je suis désolée.
    Je remercie tous nos témoins d'aujourd'hui pour l'information fournie et pour le travail accompli.
    Si vous avez de l'information qui pourrait, d'après vous, intéresser le Comité, veuillez la transmettre à la greffière, et nous serons ravis d'en prendre connaissance.
    Nous allons nous arrêter brièvement, puis nous reprendrons la séance à huis clos afin de traiter des instructions pour la rédaction d'un projet de rapport.
    [La séance se poursuit à huis clos.]
Explorateur de la publication
Explorateur de la publication
ParlVU