Passer au contenu
Début du contenu

ETHI Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique


NUMÉRO 153 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le mardi 28 mai 2019

[Enregistrement électronique]

  (1040)  

[Traduction]

    Je déclare ouverte la 153e séance du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique, et, par conséquent, le Grand Comité international sur les mégadonnées, la protection des renseignements personnels et la démocratie. Des représentants des pays prendront aussi la parole. Nous allons commencer par mon coprésident, M. Damian Collins, du Royaume-Uni.
    Voici le fonctionnement structurel: nous ferons passer les délégations, à commencer par un représentant par pays, suivi du deuxième représentant. Vous devriez tous avoir votre propre période de cinq minutes.
    Avant de commencer, M. Angus veut dire quelque chose.
    Monsieur le président, permettez-moi d'invoquer le Règlement à l'intention de notre comité; nous sommes très surpris, je crois, que M. Zuckerberg ait décidé — ainsi que Mme Sandberg — de faire fi de l'assignation d'un comité parlementaire, particulièrement à la lumière du fait que nous avons ici des représentants internationaux. À ma connaissance, nous n'avons même pas été informés de son absence. Je n'ai jamais vu de situation où un dirigeant d'entreprise fait fi d'une assignation légale.
    À la lumière de ce fait, j'aimerais donner un avis de motion à mettre aux voix:
Que le Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique, en raison du refus de M. Mark Zuckerberg et de Mme Sheryl Sandberg d'y comparaître le 28 mai, dirige le président à livrer une assignation s'ils arrivent au Canada pour quelconque raison pour comparaître devant le Comité à la prochaine réunion après la date de l'assignation, et s'ils sont convoqués pendant que la Chambre ne siège pas, que le Comité dirige le président de convenir une réunion extraordinaire aussi tôt que possible en raison d'obtenir leur témoignage.
    Monsieur le président, j'ignore si nous avons déjà utilisé une assignation ouverte au Parlement — nous avons vérifié et n'en avons pas trouvé —, mais je crois que vous jugerez que c'est en règle. Si M. Zuckerberg ou Mme Sandberg décidaient de venir ici pour une conférence sur les technologies ou pour aller pêcher, le Parlement pourrait signifier cette assignation et les faire venir ici.
    Merci, monsieur Angus.
    Pour les membres d'office du Comité, nous sommes saisis d'une motion sur laquelle nous devrons voter, et il y aura donc un certain débat.
    D'autres membres souhaitent-ils débattre de la motion?
    Monsieur Kent, allez-y.
    Merci, monsieur le président.
    Oui, l'opposition officielle, le Parti conservateur, est tout à fait disposée à appuyer la motion de M. Angus. Comme nous l'avons entendu dans certains des témoignages précédents, Facebook, parmi d'autres grandes plateformes, a manifesté un manque de respect et un mépris extrêmes devant les gouvernements étrangers et les comités qui les représentent, à l'égard de leurs préoccupations et de leur recherche d'explications quant à la raison pour laquelle des mesures utiles n'ont pas été prises à ce jour et n'a pas fourni d'explication claire et explicite concernant sa réponse aux préoccupations du monde entier, et certainement des démocraties et des membres du grand comité international.
    Nous appuierons cette motion. Merci.
    Nous avons déjà discuté du fait qu'aucune motion de fond n'avait été présentée au Comité. Cela dit, avec l'assentiment de tout le monde ici, je crois que nous pourrions convenir de l'entendre — et nous l'entendons aujourd'hui — et de voter sur celle-ci.
    Avons-nous...? Je vois que tout le monde est en faveur du dépôt de la motion dont nous sommes saisis.
    Y a-t-il d'autres commentaires au sujet de la motion?
    Monsieur Lucas, allez-y.
    C'est un cas de récidive de la part de M. Zuckerberg. C'est une situation qui s'est déjà produite et qui nous préoccupe vivement. C'est une préoccupation particulièrement grande pour moi, car malheureusement, les gouvernements continuent de rencontrer M. Zuckerberg, et je crois qu'il est important que nous témoignions, en tant que parlementaires, de notre préoccupation au sujet du manque de respect dont fait preuve M. Zuckerberg à l'égard des parlementaires du monde entier. Ils devraient examiner l'accès qu'ils donnent à M. Zuckerberg, l'accès aux gouvernements et aux ministres, en privé, sans nous respecter nous, en tant que parlementaires, et sans respecter nos électeurs, qui sont exclus des discussions confidentielles qui ont lieu sur ces affaires cruciales.
    Merci, monsieur Lucas.
    Monsieur Erskine-Smith, vous avez la parole.
    J'aimerais juste dire que je trouve comique que le 30 mars, soit il y a moins de deux mois, Mark Zuckerberg ait écrit un article dans le Wall Street Journal. Il a écrit qu'il croit que Facebook a une responsabilité pour réagir au contenu préjudiciable, protéger les élections, protéger les renseignements personnels et les données ainsi que la portabilité des données — les questions mêmes dont nous discutons aujourd'hui — et qu'il était impatient d'en parler avec les législateurs du monde entier. C'était ses mots il y a moins de deux mois. S'il avait été honnête en les écrivant, il serait assis dans ce fauteuil aujourd'hui.
    Merci, monsieur Erskine-Smith.
    Y a-t-il d'autres commentaires sur la motion?
    Bien franchement, pour répondre à votre question, en tant que président des deux comités, le comité international et notre comité de l'éthique, je trouve odieux qu'il ne soit pas ici aujourd'hui et que Mme Sandberg ne soit pas là non plus. On leur a fait savoir très clairement qu'ils devaient comparaître devant nous aujourd'hui. Une assignation a été délivrée, ce qui est déjà un geste inhabituel pour un comité. Je crois qu'il est donc tout naturel que l'on prépare un mandat de comparution. Dès que M. Zuckerberg ou Mme Sandberg mettront les pieds dans notre pays, ils se verront signifier une assignation et devront comparaître devant notre comité. S'ils décident de ne pas le faire, la prochaine étape consistera à les reconnaître coupables d'outrage.
    Je crois que les mots sont forts, monsieur Angus, et je vous félicite de votre motion.
    S'il n'y a pas d'autres interventions relativement à la motion, nous passerons au vote.
    (La motion est adoptée.)
    Le président: Merci, monsieur Angus.
    Nous passons maintenant aux plateformes, en commençant par Facebook, puis Google, puis...
    Je vais mentionner les noms. Nous recevons Kevin Chan, directeur des politiques mondiales pour le Canada, et Neil Potts, directeur des politiques mondiales, de Facebook Inc. Nous accueillons Derek Slater, directeur mondial, Politique de l'information, de Google LLC; et Colin McKay, chef, Relations gouvernementales et politiques publiques, de Google Canada. Nous recevons Carlos Monje, directeur, Politique publique, et Michele Austin, chef, gouvernement, Politique publique, Twitter Canada, de Twitter Inc.
    Je tiens à dire que ce ne sont pas juste les PDG de Facebook qui ont été invités aujourd'hui. Les PDG de Google ont été invités, tout comme le PDG de Twitter. Nous sommes plus que déçus qu'ils aient décidé eux aussi de ne pas se présenter.
    Nous allons commencer par M. Chan, pour sept minutes.
    Merci.

  (1045)  

    Merci beaucoup, monsieur le président.
    Je m'appelle Kevin Chan, et je suis accompagné aujourd'hui de mon collègue Neil Potts. Nous sommes tous les deux directeurs des politiques mondiales chez Facebook.
    Internet a transformé la façon dont des milliards de personnes vivent, travaillent et communiquent ensemble. Des entreprises comme Facebook ont d'immenses responsabilités pour assurer la sécurité des personnes sur leurs services. Chaque jour, nous avons comme défi de prendre des décisions pour savoir quels discours sont préjudiciables, ce qui constitue des publicités politiques et comment prévenir des cyberattaques élaborées. Il s'agit d'un travail essentiel pour assurer la sécurité de nos collectivités, et nous reconnaissons que ce travail n'est pas quelque chose que des entreprises comme la nôtre devraient faire seules.

[Français]

    De nouvelles règles pour Internet devraient permettre de préserver ce qu'il y a de mieux en matière d'économie numérique et d'Internet, encourager l'innovation, soutenir la croissance des petites entreprises et permettre la liberté d'expression, tout en protégeant la société contre des dommages plus graves. Ce sont des enjeux très complexes à résoudre, et nous souhaitons travailler avec les gouvernements, les universitaires et la société civile pour garantir l'efficacité de la nouvelle réglementation.

[Traduction]

    Nous sommes ravis de vous faire part aujourd'hui de certaines de nos nouvelles réflexions dans quatre domaines d'action réglementaire possibles: le contenu préjudiciable, la protection de la vie privée, la portabilité des données et l'intégrité électorale.
    Cela dit, je vais céder la parole à mon collègue Neil, qui aimerait échanger avec vous au sujet du contenu préjudiciable.
    Monsieur le président, mesdames et messieurs, merci de me fournir l'occasion d'être ici aujourd'hui.
    Je m'appelle Neil Potts, et je suis le directeur chargé de la surveillance de l'élaboration et de la mise en œuvre des normes communautaires de Facebook. Voici nos lignes directrices concernant les types de contenus qui sont autorisés sur notre plateforme.
    Toutefois, avant de continuer, j'aimerais juste signaler que M. Chan et moi sommes des directeurs des politiques mondiales, des experts en la matière, qui sommes prêts à échanger avec vous sur ces questions. M. Zuckerberg et Mme Sandberg, notre PDG et notre directrice des opérations, sont déterminés à travailler avec le gouvernement de façon responsable. Ils estiment qu'ils nous ont mandatés pour comparaître devant vous aujourd'hui afin de discuter de ces sujets, et nous sommes heureux de le faire.
    Comme vous le savez, la mission de Facebook est de donner aux gens le pouvoir de bâtir une communauté et de rapprocher le monde. Plus de deux milliards de personnes utilisent notre plateforme chaque mois pour communiquer avec des membres de la famille et des amis, découvrir ce qui se passe dans le monde, créer leur entreprise et aider ceux dans le besoin.
    Quand nous donnons une voix aux gens, nous voulons nous assurer qu'ils ne l'utilisent pas pour blesser d'autres personnes. Facebook assume pleinement la responsabilité de s'assurer que les outils que nous créons sont utilisés pour faire le bien et que nous assurons la sécurité des gens. Nous prenons ces responsabilités très au sérieux.
    Plus tôt ce mois-ci, Facebook a signé l'Appel à l'action de Christchurch visant à éliminer les contenus terroristes et extrémistes violents en ligne, et nous avons pris des mesures immédiates touchant la diffusion en direct. Concrètement, les gens qui ont enfreint certaines règles sur Facebook, ce qui comprend notre politique « Individus et organismes dangereux », se verront interdire l'utilisation de Facebook Live.
    Nous investissons aussi 7,5 millions de dollars dans de nouveaux partenariats de recherche avec d'éminents universitaires pour composer avec la manipulation médiatique contradictoire que nous avons vue après l'événement de Christchurch — par exemple, quand certaines personnes ont modifié la vidéo pour éviter d'être repérées afin de pouvoir la republier après son retrait.
    Puisque le nombre d'utilisateurs de Facebook a augmenté et que la difficulté liée au fait de trouver le juste milieu entre la liberté d'expression et la sécurité s'est accrue, nous sommes parvenus à la conclusion que Facebook ne devrait pas prendre seule un si grand nombre de ces décisions difficiles. C'est pourquoi nous allons créer un comité de surveillance externe pour aider à régir les discours sur Facebook d'ici la fin de 2019. Le comité de surveillance sera indépendant de Facebook, et il s'agira d'un dernier niveau d'appel pour le contenu qui reste sur notre plateforme et celui qui est retiré.
    Malgré la mis en place du comité de surveillance, nous savons que des gens utiliseront une panoplie de plateformes et de services en ligne différents pour communiquer, et nous nous en porterions tous mieux s'il existait des normes de base claires pour toutes les plateformes. C'est pourquoi nous aimerions travailler avec les gouvernements à établir des cadres clairs liés au contenu préjudiciable en ligne.
    Nous avons collaboré avec le président Macron de la France sur exactement ce type de projet et nous sommes ouverts à la possibilité de dialoguer avec un plus grand nombre de pays dans l'avenir.
    Monsieur Chan, voulez-vous prendre le relais?

  (1050)  

    Pour ce qui est de la protection de la vie privée, nous comprenons très clairement notre responsabilité importante en tant que gardiens des données des gens et de la nécessité pour nous de faire mieux. C'est pourquoi, depuis 2014, nous avons pris des mesures importantes pour réduire de façon radicale la quantité de données auxquelles des applications tierces peuvent accéder sur Facebook et ce pourquoi nous mettons sur pied une fonction en matière de protection de la vie privée beaucoup plus importante et vigoureuse au sein de l'entreprise. Nous avons aussi réalisé des progrès considérables afin de donner aux gens plus de transparence et de contrôle sur leurs données.
    Nous reconnaissons que, même si nous menons beaucoup plus d'activités sur la protection de la vie privée, nous nous portons tous mieux lorsque des cadres généraux régissent la collecte et l'utilisation des données. De tels cadres devraient protéger votre droit de choisir la façon dont votre information est utilisée, tout en permettant l'innovation. On devrait tenir des entreprises comme Facebook responsables en imposant des sanctions lorsque nous commettons des erreurs et l'on devrait clarifier les nouveaux sujets d'étude, y compris le moment où les données peuvent être utilisées pour le bien public et la façon dont cela devrait s'appliquer à l'intelligence artificielle.
    Il existe déjà certains bons modèles que l'on peut reproduire, y compris le Règlement général sur la protection des données de l'Union européenne et la Loi sur la protection des renseignements personnels et les documents électroniques du Canada. L'atteinte d'un certain degré d'harmonisation autour du monde serait souhaitable et faciliterait la croissance économique.
    Nous croyons aussi que le principe de la portabilité des données est suprêmement important pour le choix des consommateurs et pour assurer un marché dynamique et compétitif en matière de services numériques. Les gens devraient être en mesure de prendre les données qu'ils ont mises sur un service et de les déplacer vers un autre service. On doit ensuite se demander comment la portabilité des données peut se faire d'une façon sécuritaire qui protège la vie privée. La portabilité des données n'est utile que s'il y a en place des normes communes, et c'est pourquoi nous soutenons un format standard pour le transfert des données et le projet de transfert des données ouvertes.
    Enfin, Facebook fait tout son possible pour protéger les élections sur sa plateforme dans le monde entier en investissant considérablement dans les gens, la technologie et les partenariats. Nous avons triplé le nombre de personnes qui travaillent sur des questions de sécurité dans le monde, le faisant passer de 10 000 à 30 000 personnes. Nous avons mis au point une technologie d'intelligence artificielle de pointe qui nous permet de déceler et de retirer de faux comptes en masse.
    Bien sûr, nous ne pouvons pas réussir si nous faisons cavalier seul, et nous nous sommes donc associés à un vaste éventail d'organisations. Au Canada, nous sommes fiers de travailler avec l'Agence France-Presse sur la vérification de faits par des tiers, HabiloMédias sur la littéracie numérique et l'organisme À voix égales pour assurer la sécurité des candidats, plus particulièrement des candidates, en ligne.
    Facebook est une ardente défenseure des règlements qui font la promotion de la transparence des publicités politiques en ligne. Nous croyons qu'il est important que les citoyens puissent voir toutes les publicités politiques qui sont offertes en ligne, particulièrement celles qui ne leur sont pas destinées. C'est pourquoi nous appuyons et respecterons le projet de loi C-76, la Loi sur la modernisation des élections du Canada, que le Parlement a adoptée, et nous dialoguerons au cours des prochaines semaines avec des publicitaires politiques canadiens, y compris les partis politiques fédéraux représentés ici aujourd'hui, sur des changements importants au chapitre des publicités politiques qui seront apportés sur la plateforme d'ici la fin juin.
    Enfin, monsieur le président, comme vous le savez, Facebook est partie à la Déclaration du Canada sur l'intégrité électorale en ligne, qui énonce 12 engagements que le gouvernement du Canada et certaines plateformes en ligne acceptent d'entreprendre ensemble en prévision des élections fédérales d'octobre. Il s'agit d'une expression forte de la mesure dans laquelle nous prenons au sérieux nos responsabilités au Canada, et nous sommes impatients de travailler de pair avec des représentants pour nous prémunir contre l'ingérence étrangère.
    Merci de m'avoir donné l'occasion d'être ici.

[Français]

    Nous avons hâte de répondre à vos questions.

[Traduction]

    Merci, monsieur Chan.
    Nous passons maintenant à M. Slater, de Google.
    Merci de me donner l'occasion de comparaître devant vous aujourd'hui.
    Je m'appelle Derek Slater, et mon rôle chez Google est d'aider à façonner l'approche de l'entreprise à l'égard des politiques d'information et de la réglementation du contenu. Je suis accompagné de mon collègue Colin McKay, chef des politiques publiques pour Google au Canada.
    Nous reconnaissons votre leadership et sommes heureux d'avoir l'occasion de discuter de l'approche de Google afin d'examiner nos nombreux enjeux en commun.
    Pendant près de 20 ans, nous avons conçu des outils pour aider les utilisateurs à accéder à de l'information, à en créer et à en partager comme jamais auparavant, en leur donnant plus de choix, de possibilités et d'exposition à une diversité de ressources et d'opinions. Toutefois, nous savons que les plateformes mêmes qui ont procuré ces avantages sociétaux peuvent aussi faire l'objet d'abus, et cela va du hameçonnage à l'extrémisme violent et plus encore. L'examen attentif des législateurs et de nos utilisateurs guide et améliore nos produits ainsi que les politiques qui les régissent.
    Nous n'avons pas attendu la réglementation du gouvernement pour nous attaquer aux défis d'aujourd'hui. Le fait de réagir au contenu illégal et problématique en ligne est une responsabilité partagée qui nécessite la collaboration entre les gouvernements, la société civile et l'industrie, et nous faisons notre part et continuerons de la faire.
    Je vais faire ressortir certaines de nos activités en ce moment. Sur YouTube, nous combinons des examens automatisés et humains pour repérer et retirer le contenu qui contrevient aux règlements. Nous nous sommes améliorés au fil du temps et avons éliminé plus rapidement une partie de ce contenu, et ce, même avant qu'il soit consulté. Entre janvier et mars 2019, YouTube a retiré près de 8,3 millions de vidéos qui violaient ses lignes directrices communautaires, et 76 % de celles-ci ont été signalées par des machines plutôt que par des gens. Parmi les vidéos repérées par des machines, plus de 75 % n'avaient jamais été visionnées une seule fois.
    Lorsqu'il s'agit de lutter contre la désinformation, nous avons investi dans nos systèmes de classement pour nous assurer que la qualité compte dans l'élaboration de politiques, la surveillance de menaces et les mécanismes d'application de la loi afin de nous attaquer à des comportements malveillants, de même que dans des outils qui fournissent aux utilisateurs plus de contexte, comme la vérification des faits ou les panneaux d'information sur la recherche Google et YouTube.
    De plus, dans le contexte de l'intégrité électorale, nous concevons depuis plus de 10 ans des produits qui fournissent des renseignements en temps opportun et faisant autorité au sujet des élections du monde entier. En outre, nous avons consacré des ressources importantes pour aider les campagnes, les candidats et les représentants électoraux à améliorer leur posture en matière de cybersécurité à la lumière des menaces existantes et émergentes. Notre site Web Protection Élections offre des ressources gratuites comme la protection avancée, qui offre le compte de sécurité optimal de Google, et Project Shield, un service gratuit conçu pour atténuer le risque d'attaques de déni de service distribué qui inondent les sites de trafic dans le but de les fermer.
    Même si l'industrie doit faire sa part, les décideurs, bien sûr, ont un rôle fondamental à jouer pour faire en sorte que tout le monde récolte les avantages personnels et économiques des technologies modernes tout en tenant compte des coûts sociaux et en respectant les droits fondamentaux. Les gouvernements et les assemblées législatives de près de 200 pays et territoires dans lesquels nous exerçons des activités sont parvenus à des conclusions différentes quant à la façon de régler des problèmes comme la protection des données, la diffamation et les discours haineux. Les cadres juridiques et réglementaires d'aujourd'hui sont le produit de processus délibératifs, et à mesure que la technologie et les attentes de la société évoluent, nous devons rester attentifs à la façon de mieux améliorer ces règles.
    Dans certains cas, les lois doivent être modernisées, par exemple, dans le cas de la protection des données et de l'accès des organismes d'application de la loi aux données. Dans d'autres cas, une nouvelle collaboration entre l'industrie, le gouvernement et la société civile peut se traduire par des institutions et des outils complémentaires. Le récent Appel à l'action de Christchurch sur l'extrémisme violent n'est qu'un exemple de ce type de collaboration pragmatique et efficace.
    De même, nous avons travaillé avec l'Union européenne sur le récent code de conduite contre les discours haineux, ce qui renferme un processus de vérification pour surveiller la façon dont les plateformes respectent leurs engagements, et sur le récent code de bonnes pratiques de l'Union européenne contre la désinformation. Nous avons convenu d'aider des chercheurs à étudier ce sujet et d'assurer la vérification régulière de nos prochaines étapes associées à cette lutte.
    De nouvelles approches comme celles-là doivent reconnaître les différences pertinentes entre des services aux fonctions et aux fins différentes. La surveillance des politiques sur le contenu devrait naturellement se focaliser sur les plateformes de partage de contenu. Les médias sociaux, les sites d'échange de vidéos et d'autres services dont le but principal est d'aider des gens à créer du contenu et à le communiquer à un vaste public devraient être différenciés d'autres types de services comme des services de recherche, des services d'entreprise, et des services de stockage de dossiers et de courriels, qui nécessitent des ensembles de règles différents.
    Cela dit, nous voulons faire ressortir aujourd'hui quatre éléments clés à prendre en considération dans le cadre de l'évolution de la surveillance et de la discussion concernant les plateformes de partage de contenu.
    Premièrement, il fait établir des définitions claires.
    Les plateformes sont responsables d'établir des règles du jeu claires pour ce qui est ou non permissible, et les gouvernements ont aussi la responsabilité d'établir les règles par rapport à ce qu'ils estiment être des discours illégaux. Les restrictions devraient être nécessaires et proportionnelles, établies à partir de définitions claires et de risques fondés sur les données probantes et élaborées en consultation avec les parties prenantes pertinentes. Ces définitions claires, combinées à des avis clairs au sujet d'éléments de contenu particuliers, sont essentielles pour que les plateformes puissent agir.

  (1055)  

    Deuxièmement, on doit élaborer des normes concernant la transparence et les pratiques exemplaires.
    La transparence est le fondement d'une discussion éclairée et elle aide à établir les pratiques efficaces dans l'ensemble de l'industrie. Les gouvernements devraient adopter une approche souple qui renforce la recherche et soutient l'innovation responsable. Des exigences trop restrictives comme des délais de retrait universels, l'utilisation obligatoire de technologies particulières ou des sanctions disproportionnées réduiront au bout du compte l'accès du public à de l'information légitime.
    Troisièmement, on doit miser sur des défaillances systémiques récurrentes plutôt que sur des cas isolés.
    La détermination du contenu problématique et la réaction par rapport à celui-ci est semblable, d'une certaine façon, à la sécurité de l'information. Il y aura toujours de mauvais acteurs, des bogues et des erreurs. L'amélioration dépend de la collaboration entre de nombreux joueurs qui utilisent des approches axées sur les données pour comprendre si des cas particuliers sont exceptionnels ou représentatifs de problèmes systémiques récurrents plus importants.
    Quatrièmement et finalement, on doit renforcer la coopération internationale.
    Comme le démontre la réunion d'aujourd'hui, ces préoccupations et ces enjeux sont mondiaux. Les pays devraient s'échanger leurs pratiques exemplaires et éviter des approches conflictuelles qui imposent des fardeaux de conformité indus et créent de la confusion pour les clients. Cela dit, des pays individuels feront des choix différents au sujet des discours permissibles en fonction de leurs traditions juridiques, de leur histoire et de leurs valeurs, conformément aux obligations internationales en matière de droits de la personne. Un contenu illégal dans un pays pourrait être légal dans un autre.
    Ces principes ont pour but de contribuer à une conversation aujourd'hui sur la façon dont les législateurs et les gouvernements devraient s'attaquer aux enjeux que nous sommes susceptibles d'aborder, y compris les discours haineux, la désinformation et l'intégrité électorale.
    Pour terminer, je dirai qu'Internet présente des défis pour les institutions traditionnelles qui aident la société à organiser, à conserver et à communiquer de l'information. Quant à nous, nous sommes déterminés à réduire au minimum le contenu qui s'éloigne des éléments utiles que nos plateformes ont à offrir. Nous espérons travailler avec les membres du Comité et des gouvernements du monde entier pour surmonter ces difficultés à mesure que nous continuons d'offrir des services qui préconisent et diffusent des renseignements fiables et utiles.
    Merci.

  (1100)  

    Merci.
    Nous allons maintenant passer à Twitter. Je crois que M. Monje prendra la parole.
    Allez-y.
    Monsieur le président Zimmer, monsieur le président Collins et chers membres du Comité, je m'appelle Carlos Monje, et je suis directeur des politiques publiques pour Twitter. Je suis accompagné de Michele Austin, qui est notre chef des politiques publiques pour le Canada.
    Au nom de Twitter, j'aimerais reconnaître le travail acharné de tous les membres du Comité par rapport aux questions qui vous sont présentées. Nous vous remercions de votre dévouement et de votre volonté de travailler avec nous.
    Twitter a pour objectif de servir la conversation publique. Toute tentative pour miner l'intégrité de notre service érode les principes mêmes de la liberté d'expression en ligne. C'est la valeur sur laquelle repose notre entreprise.
    Les questions soulevées au Comité nous préoccupent profondément en tant que personnes. Nous voulons que les gens se sentent en sécurité sur Twitter et qu'ils comprennent notre approche à l'égard de la santé et de la sécurité du service. Il y aura toujours plus de choses à faire, mais nous avons réalisé des progrès considérables.
    J'aimerais aborder brièvement notre approche à l'égard de la protection de la vie privée des gens, et j'ai hâte d'entendre vos questions.
    Twitter s'efforce de protéger la vie privée des gens qui utilisent notre service. Nous croyons que la protection de la vie privée est un droit de la personne fondamental. Twitter est publique par défaut. Cela distingue notre service d'autres sites Internet. Quand un particulier crée un compte Twitter et commence à envoyer des gazouillis, ceux-ci sont immédiatement visibles et consultables par n'importe qui dans le monde. Les gens comprennent la nature publique par défaut de Twitter et ils vont sur le site en s'attendant à voir une conversation publique et à s'y joindre. Eux seuls contrôlent le contenu qu'ils partagent sur Twitter, y compris la mesure dans laquelle ce contenu peut être personnel ou privé.
    Nous croyons que lorsque des gens nous confient leurs données, nous devrions nous montrer transparents dans notre façon de fournir un contrôle utile quant aux données qui sont recueillies, à la façon dont elles sont utilisées et au moment où elles sont communiquées. Ces paramètres sont facilement accessibles et conçus dans un esprit de convivialité. Nos paramètres de données qui permettent la plus grande personnalisation sont situés sur une seule page.
    Twitter rend aussi accessible la trousse à outils « Vos données Twitter », qui offre aux personnes un instantané des types de données stockées par nous, comme le nom d'utilisateur, l'adresse de courriel, le numéro de téléphone associés au compte, des détails sur la création du compte et de l'information au sujet des inférences que nous pourrions avoir tirées. À partir de cet ensemble d'outils, les gens peuvent faire des choses comme modifier les intérêts présumés, télécharger leurs renseignements et comprendre ce que nous offrons.
    Twitter cherche aussi de manière proactive à contrer les pourriels, l'automatisation malveillante, la désinformation et la manipulation des plateformes en améliorant les politiques et en élargissant les mesures d'application de la loi, en fournissant un plus grand contexte aux utilisateurs, en renforçant les partenariats avec les gouvernements et les experts et en assurant une plus grande transparence. Tout cela vise à renforcer la santé du service et à protéger les gens qui utilisent Twitter.
    Nous continuons de promouvoir la santé de la conversation publique en contrant toutes les formes de manipulation des plateformes. Nous définissons la manipulation des plateformes comme l'utilisation de Twitter pour perturber la conversation en participant à une activité agressive ou trompeuse en bloc. Nous avons réalisé des progrès considérables. De fait, en 2018, nous avons repéré et remis en question plus de 425 millions de comptes que l'on a soupçonné avoir participé à la manipulation des plateformes. De ceux-là, environ 75 % ont fini par être suspendus. De plus en plus, nous utilisons des méthodes de détection automatisées et proactives pour trouver les abus et les manipulations sur notre service avant qu'ils n'aient une incidence sur l'expérience de qui que ce soit. Plus de la moitié des comptes que nous suspendons sont retirés dans la semaine suivant leur enregistrement — et bon nombre, au bout de quelques heures à peine.
    Nous continuerons d'améliorer notre capacité de lutter contre le contenu manipulatif avant qu'il n'influence l'expérience des gens qui utilisent Twitter. Twitter se préoccupe beaucoup de la désinformation dans tous les contextes, mais l'amélioration de la santé de la conversation au sujet des élections revêt la plus grande importance. Un aspect clé de notre stratégie électorale est l'élargissement des partenariats avec la société civile pour accroître notre capacité de comprendre, de repérer et de faire cesser les tentatives de désinformation.
    Ici, au Canada, nous travaillons avec Élections Canada, le commissaire aux élections fédérales, le Centre canadien pour la cybersécurité, le Bureau du Conseil privé, des institutions démocratiques et des partenaires de la société civile, comme le Centre Samara pour la démocratie et le Projet Démocratie.
    En plus de déployer des efforts pour protéger le service, nous estimons que la transparence est un outil éprouvé et puissant dans la lutte contre la désinformation. Nous avons pris un certain nombre de mesures pour perturber les activités étrangères et limiter la suppression d'électeurs et avons augmenté de manière considérable la transparence au sujet de ces mesures. Nous avons mis à la disposition du public et des chercheurs les plus grandes archives sur les activités d'information au monde. Nous avons parcouru des données et des renseignements sur plus de 9 600 comptes, y compris des comptes en provenance de la Russie, de l'Iran et du Venezuela, pour un total de plus de 25 millions de gazouillis.
    Nous croyons fondamentalement que ces comptes et leur contenu devraient être accessibles et consultables, de sorte que les membres du public, les gouvernements et les chercheurs puissent mener des enquêtes, tirer des apprentissages et acquérir des capacités en matière de littératie médiatique pour l'avenir. Ils nous aident aussi à nous améliorer.

  (1105)  

    J'aimerais souligner un exemple particulier dans le cadre de nos efforts pour lutter contre la désinformation ici, au Canada.
    Plus tôt ce printemps, nous avons lancé un nouvel outil pour diriger les personnes vers des ressources de santé publique crédibles lorsqu'elles cherchaient des mots clés associés aux vaccins sur Twitter. Dans ce cas-ci, nous nous sommes associés à l'Agence de la santé publique du Canada. Ce nouvel investissement s'appuie sur notre travail existant pour nous protéger contre l'amplification artificielle de contenu non crédible au sujet de la sécurité et de l'efficacité des vaccins. De plus, nous nous assurons déjà que le contenu publicitaire ne contient pas d'affirmations trompeuses au sujet du remède, du traitement, du diagnostic ou de la prévention de toute maladie, y compris des vaccins.
    Pour terminer, Twitter continuera d'imaginer de nouveaux moyens de maintenir son engagement à l'égard de la protection de la vie privée, de lutter contre la désinformation sur son service et de demeurer responsable et transparente à l'égard des gens du monde entier. Nous avons réalisé des progrès notables et constants, mais notre travail ne sera jamais terminé.
    Encore une fois, merci de nous avoir donné l'occasion d'être ici. Nous sommes impatients de répondre à vos questions.
    Merci.
    Tout d'abord, nous allons nous tourner vers mon coprésident, Damian Collins, puis nous observerons la séquence.
    Vous aurez chacun cinq minutes. Essayez d'être aussi succincts que vous le pouvez.
    Monsieur Collins, c'est à vous.
    Je vais adresser ma première question aux représentants de Facebook. Je suis sûr que vous savez que l'une des principales préoccupations des membres du Comité a été que des renseignements trompeurs, communiqués de manière délibérée et malveillante par l'intermédiaire des outils créés par les entreprises de médias sociaux, portent préjudice à la démocratie, et cette désinformation est utilisée pour nuire à des politiciens chevronnés et à des personnalités publiques, à des institutions publiques et au processus politique.
    Cela dit, Facebook pourrait-elle expliquer pourquoi elle a choisi de ne pas retirer la vidéo de Nancy Pelosi qui donne une fausse impression d'elle pour miner sa réputation publique? La raison pour laquelle je crois que c'est très important, c'est que nous savons tous très bien que la nouvelle technologie va faciliter la création de ces sortes de documents faux ou manipulés. Vous pourriez peut-être expliquer pourquoi Facebook ne va pas retirer ce film.
    Merci, monsieur Collins.
    Je suis heureux d'expliquer de façon un peu plus claire notre approche à l'égard de la désinformation pour le Comité.
    D'abord, je tiens à exprimer clairement que nous prenons des mesures contre cette vidéo...
    Je suis désolé, monsieur Potts, mais nous n'avons pas beaucoup de temps. J'aimerais que vous répondiez à la question qui vous a été posée, plutôt que de faire une déclaration au sujet des politiques de Facebook sur la désinformation ou ce que vous auriez pu faire d'autre. J'aimerais que vous répondiez à la question: pourquoi vous, contrairement à YouTube, ne retirez pas ce film?
    Nous prenons des mesures dynamiques pour déclasser ce...
    Je sais que vous êtes en train de le déclasser. Pourquoi ne retirez-vous pas le film?
    Nous avons pour politique d'informer les gens lorsque nous détenons des renseignements sur la plateforme qui pourraient être faux, pour qu'ils puissent prendre leurs propres décisions au sujet de ce contenu.
    Mais il s'agit de contenu qui est largement considéré, à mon avis, comme étant faux. YouTube l'a retiré. Les vérificateurs des faits qui travaillent auprès de Facebook disent que c'est un faux; pourtant, on permet que la vidéo reste en ligne, et sa présence est beaucoup plus puissante que toute clause de non-responsabilité qui pourrait être écrite en dessous ou au-dessus.
    Pourquoi ne dites-vous pas que les films qui sont clairement faux et sont désignés de façon indépendante comme étant faux, qui sont là pour tromper les gens par rapport à certains des politiciens les plus chevronnés de notre pays, seront retirés?
    Nous effectuons des recherches sur nos traitements de l'information. C'est le traitement qui révèle que quelque chose est faux. Par exemple, si quelqu'un souhaitait partager cette vidéo avec ses amis ou qu'il l'avait déjà partagée ou la voyait dans un fil de nouvelles, il recevrait un message disant que c'est faux.
    Facebook accepte que ce film soit une déformation des faits, n'est-ce pas?
    Monsieur Potts, vous êtes plus près de cela, mais je crois comprendre que la vidéo en question a été ralentie. Est-ce bien le cas?
    C'est exact. Je crois que c'est manipulé...
    C'est un film qui a été manipulé pour créer l'impression déformée que Nancy Pelosi était en quelque sorte en état d'ébriété lorsqu'elle parlait. C'est ce qui s'est produit et c'est pourquoi YouTube a retiré le film et pourquoi il y a eu une reconnaissance générale, y compris par les vérificateurs des faits indépendants qui travaillent pour Facebook, que ce film est déformé et qu'il crée une impression déformée de la personne qui vient au troisième rang des politiciens les plus expérimentés aux États-Unis.

  (1110)  

    Puisque vous avez mentionné les vérificateurs des faits, nous travaillons avec plus de 50 vérificateurs des faits à l'échelle internationale qui sont...
    Ce n'est pas remis en question. Les vérificateurs des faits reconnaissent que c'est faux. Vous dites que la vidéo peut rester là. Ne voyez-vous pas que ce que Facebook fait donne le feu vert à quiconque dans le monde veut faire un film déformé ou un faux documentaire au sujet d'un politicien d'expérience, ou peut-être utiliser dans l'avenir la technologie des hypertrucages pour le faire, en sachant que, peu importe ce qui se passe, Facebook ne va pas retirer le film?
    Je crois que vous posez une question philosophique, monsieur. Devrions-nous retirer le film ou aviser les gens qu'il est faux? Nous avons choisi d'aviser les gens que c'est faux, de manière à ce qu'ils comprennent pourquoi la vidéo se trouve sur la plateforme et quelles autres parties indépendantes ont jugé qu'elles l'étaient. Elles ont considéré qu'elle était fausse et elles voient maintenant cela sur notre plateforme si elles y vont pour la partager. À mon avis, toutes ces questions sont très complexes, mais cela permet aux gens de prendre leurs propres décisions et de dire aux autres qu'elle est fausse.
    Vous avez mentionné que la vidéo est ralentie, ce que tout le monde et les vérificateurs des faits ont dit, mais je crois qu'il existe de nombreux cas différents où les vidéos sont ralenties et ne seraient peut-être pas une justification pour le Comité...
    La question ici, c'est de dire que si quelqu'un fait un film, ralentit un film ou le manipule, il essaie de créer la fausse impression qu'une personnalité publique d'expérience n'est pas apte à assumer ses fonctions, c'est donc une tentative de lui nuire, ainsi que nuire à sa charge publique.
    Ce n'est pas une question d'opinion ni de liberté de parole. C'est une question de gens qui manipulent du contenu pour nuire à des personnalités publiques, et ma préoccupation, c'est que le fait de laisser ce type de contenu en ligne, que l'on sait faux et déformé de manière indiscutable, et de permettre le partage de ce contenu et la promotion par d'autres utilisateurs est irresponsable.
    YouTube a retiré ce contenu. Je ne comprends pas pourquoi Facebook ne fait pas la même chose.
    Monsieur, je comprends vos préoccupations, mais je crois que vos questions sont les bonnes et qu'elles révèlent la complexité de cet enjeu et aussi peut-être le fait que l'approche que nous adoptons fonctionne. Vous n'entendez pas les gens...
    Désolé, mais avec tout le respect que je vous dois, ce que cela montre, c'est la simplicité de ces enjeux, la solution de simplicité qu'a choisie une autre entreprise, reconnaissant les mêmes enjeux. Il s'agit simplement de dire que c'est clairement faux et déformé, que c'est fait pour nuire à des personnalités publiques d'expérience et que cela ne devrait en fait pas avoir sa place sur la plateforme ni faire partie de votre communauté.
    Vous avez raison, et je respecte évidemment l'opinion de YouTube comme entreprise indépendante, mais nous n'entendons pas des gens parler de cette vidéo comme si elle était réelle. Nous les entendons plutôt discuter du fait qu'elle est fausse et qu'elle se trouve sur la plateforme; donc, par rapport à la question de savoir si nous avons informé les gens du fait que la vidéo était fausse, oui, nous l'avons fait. Je crois que c'est le discours prédominant en ce moment. Que ce soit dans la conversation que nous tenons en ce moment, que ce soit dans les nouvelles ou ailleurs, les gens comprennent que cette vidéo est fausse, et ils peuvent prendre d'autres décisions à partir de là.
    Mon inquiétude à ce sujet, c'est que cela établit un précédent très dangereux. Votre collègue Monika Bickert a dit la semaine dernière à CNN que, essentiellement, Facebook a pour politique de ne pas retirer tout contenu politique, tout contenu de désinformation lié aux politiques: on mettrait des notes pour les utilisateurs afin qu'ils voient que les faits sont contestés, mais le contenu ne sera jamais retiré.
    Si vous acceptez que des gens qui produisent des films de désinformation ciblant des utilisateurs dans le but de miner la démocratie abusent ainsi de votre plateforme, et que la meilleure solution, que vous ayez trouvée, c'est simplement de les signaler pour dire que certaines personnes contestent ce film, je crois que vous créez un précédent très dangereux.
    Merci, monsieur Collins.
    Nous allons maintenant passer à M. Erskine-Smith.
    Allez-y, pour cinq minutes.
    Merci beaucoup.
    Vous parlez assez souvent à M. Zuckerberg, parce que vous êtes ici en son nom. Rappelez-moi pourquoi il n'est pas ici aujourd'hui.
    Je suis désolé, monsieur. Je n'arrive pas à voir votre nom.
    C'est M. Erskine-Smith.
    Monsieur Erskine-Smith, M. Zuckerberg et Mme Sandberg nous ont chargés de représenter l'entreprise ici aujourd'hui. Nous sommes des experts en la matière dans ces domaines et sommes plus qu'heureux d'avoir l'occasion d'être ici, mais je veux...
    Il a dit: « J'ai hâte de discuter de ces problèmes avec les législateurs du monde entier » il y a moins de deux mois. Il ne voulait pas juste dire ces législateurs-là, mais aussi d'autres législateurs, j'en suis sûr.
    Je vais parler de la protection de la vie privée. Dans son plus récent rapport, notre commissaire à la protection de la vie privée a dit que le cadre de protection de la vie privée de Facebook était « une coquille vide ». Puis, le 7 mai, devant le Comité, notre commissaire à la protection de la vie privée a dit que les conclusions s'appliquent toujours, soit que c'est une coquille vide. Si Facebook prend au sérieux la protection de la vie privée, et j'entends M. Chan dire qu'il le fait — ce ne sont pas mes mots; ce sont ceux du commissaire à la protection de la vie privée — pourquoi avait-il « rejeté d'emblée ou refusé de mettre en œuvre » les recommandations du commissaire à la protection de la vie privée?
    Vu que le commissaire a annoncé qu'il allait porter l'affaire devant la Cour fédérale, nous sommes en quelque sorte limités dans ce que nous pouvons dire, mais ce que je peux vous raconter, c'est que...
    Vous n'êtes pas du tout limité dans ce que vous pouvez dire, monsieur Chan.
    Je vais continuer avec ce que je peux vous raconter, c'est-à-dire que nous avons en fait travaillé très dur au cours des derniers mois pour parvenir à une résolution et à une marche à suivre avec le commissaire à la protection de la vie privée du Canada...
    Donc vous n'avez pas rejeté d'emblée ou refusé de mettre en œuvre les recommandations.
    Je crois que nous avons entamé une conversation sur la façon dont nous pourrions atteindre les objectifs que nous recherchons tous.

  (1115)  

    Lorsque le commissaire à la protection de la vie privée a écrit ces mots précis dans son rapport particulier, il avait tort, à votre avis.
    Je ne... Si je peux me permettre, j'aimerais juste expliquer un peu plus, parce que je suis limité dans ce que je peux dire...
    En fait, monsieur Chan...
    Monsieur Chan, la priorité est donnée aux membres du Comité, donc si vous voulez continuer de parler, vous devez entendre.
    Mark Zuckerberg a aussi dit que l'avenir est privé. Fait intéressant, cependant, selon la politique sur la protection de la vie privée de Facebook en 2004, l'entreprise n'avait pas et n'utiliserait pas de témoins pour recueillir des renseignements privés auprès de tout utilisateur. Cela a changé en 2007. Au départ, Facebook a donné aux utilisateurs la capacité d'empêcher la collecte de leurs renseignements personnels par des tiers, et cela a aussi été changé.
    Quand M. Zuckerberg a dit que l'avenir est privé, veut-il dire que l'avenir retourne à notre passé, lorsqu'on se souciait davantage de la protection de la vie privée que des profits?
    Je crois que nous faisons des pieds et des mains pour repenser ce à quoi les services de communications en ligne vont ressembler. Je pense que beaucoup de choses intéressantes ont été écrites, pas juste par des gens de l'entreprise, mais dans le monde entier. Nous voyons une ligne de tendance où les gens se concentrent de plus en plus sur les communications individuelles. Elles sont privées, par définition, mais ce que cela soulève, monsieur, en matière de questions de politiques publiques, c'est un équilibre très intéressant entre la protection de la vie privée et l'accès légitime à de l'information ainsi que des questions d'encryptage. Ce sont de fortes tensions. Je crois qu'elles ont été soulevées plus tôt, y compris dans des législatures précédentes au Canada, mais nous espérons dialoguer sur ces questions.
    Pour ce qui est de dialoguer sur ces questions, le RGPD a été adopté par l'Union européenne. Nous avons déjà recommandé, au Comité, que le Canada aille plus loin.
    L'an dernier, Facebook a fait 22 milliards de dollars, et Alphabet, 30 milliards de dollars. Dans le passé, vous avez utilisé des millions de ces dollars pour des activités de lobbyisme contre le RGPD. Maintenant, vous convenez que c'est une norme qui devrait être en place ou que des normes semblables devraient être en place.
    J'aimerais une réponse simple par oui ou non, monsieur Chan et monsieur Slater.
    Oui, nous appuyons pleinement le RGPD.
    Et vous, monsieur Slater?
    Si vous n'y voyez pas d'inconvénient, monsieur Erskine-Smith, je vais répondre en tant qu'expert en matière de protection de la vie privée.
    Bien sûr.
    Oui.
    M. McNamee était ici et il a dit que le consentement ne devrait peut-être pas être la seule règle en jeu et que, dans certains cas, nous devrions simplement interdire certaines pratiques. Il a utilisé le suivi sur le Web.
    À quand remonte la dernière fois que Google a lu mes courriels pour me cibler au moyen de publicités? C'était il y a combien d'années?
    Nous avons cessé d'utiliser votre contenu Gmail pour faire de la publicité en 2017. Ce contenu était propre à vous. Cette information n'a jamais été communiquée à l'externe.
    Est-ce quelque chose que nous devrions songer à interdire, de sorte que les personnes ne pourraient jamais consentir à ce que leurs courriels soient lus afin qu'on puisse les cibler au moyen de publicités? Seriez-vous à l'aise avec cette idée?
    C'est certainement la pratique en ce moment. J'hésite à utiliser le mot « interdiction », parce qu'un vaste éventail de services qui pourraient être utilisés dans ce contexte particulier sont raisonnables.
    L'autorité de la concurrence allemande a dit ceci en février dernier:
En raison de la position de l’entreprise sur le marché, une acceptation obligatoire des conditions générales d’utilisation n’est pas une base suffisante pour un traitement des données aussi intensif. Le seul choix qui s'offre à l'utilisateur est d'accepter la combinaison complète des données ou de s'abstenir d'utiliser le réseau social. Dans une situation aussi difficile, le choix de l'utilisateur ne peut être considéré comme un consentement volontaire.
    Messieurs Chan et Slater, croyez-vous que la protection de la vie privée est une considération clé dans les décisions relatives à la concurrence et aux fusions, et les autorités de la concurrence du monde entier devraient-elles tenir compte des questions sur la protection de la vie privée?
    Je suis désolé. Pourriez-vous répéter la question, juste pour que je m'assure que je la comprends?
    Êtes-vous d'accord pour dire que les autorités de la concurrence du monde entier devraient examiner la protection de la vie privée — tout comme elles examinent actuellement les prix — et la collecte de données de nos renseignements personnels comme considération clé dans le droit de la concurrence et au moment d'examiner des fusions et des acquisitions?
    C'est une question de politiques publiques très intéressante. On peut supposer que certains...
    Vous pouvez juste répondre par oui ou non.
    Ce sont des questions complexes, monsieur, comme vous pouvez le comprendre, et si vous me le permettez, j'aimerais juste dire quelques mots de plus par rapport à cette question, car je crois que c'est compliqué.
    Je crois qu'il est clair que les politiques en matière de concurrence et celles sur la protection de la vie privée sont assez différentes. Je soupçonne que les autorités responsables de la protection des données dans le monde entier auraient des points de vue très différents par rapport au fait de savoir si c'est ou non approprié de déverser des concepts propres à d'autres domaines dans la loi sur la protection des données.
    Ce n'est pas ce que je dis. Je demande si, puisque nous protégeons actuellement les consommateurs par rapport au prix, nous ne devrions pas les protéger par rapport à la vie privée? Nous avons une autorité de la concurrence allemande qui laisse entendre que nous devrions le faire.
    Je vois, je suis désolé. Je comprends mieux ce que vous dites.

  (1120)  

    J'ai lu directement une citation de l'autorité de la concurrence allemande.
    Vous avez tout à fait raison de dire que la protection des données... que nous devrions traiter la protection de la vie privée comme le pilier fondamental de l'économie numérique.
    Du droit de la concurrence.
    Je crois que ce sont deux choses très distinctes. Je ne suis pas le seul à le croire. Je pense que si vous parlez aux autorités de la concurrence et aux autorités de la protection des données, elles pourraient très bien arriver à des points de vue semblables.
    Ce n'est pas l'extrait que je vous ai lu.
    Nous sommes bien au courant de cela. J'ai parlé de cette question avec certains de mes collègues en Allemagne. Selon notre compréhension, le RGPD doit évidemment être appliqué et interprété par les autorités responsables de la protection des données en Europe.
    Merci.
    Nous allons continuer.
    Nous passons maintenant à M. Gourde, pour cinq minutes.

[Français]

    Merci, monsieur le président.
    Les plateformes numériques que vous représentez ont mis au point, au fil des années, des outils très performants, même excessivement performants. Vous êtes en train de mener une course effrénée à la performance. Or, ce n'est pas nécessairement pour le bien-être de l'humanité, mais plutôt pour les intérêts personnels de vos compagnies.
    Je vais faire une analogie. Vous avez conçu des automobiles qui peuvent rouler jusqu'à 250 kilomètres à l'heure, mais vous les louez à des utilisateurs qui roulent à cette vitesse dans des zones scolaires. Vous avez mis au point des outils qui sont devenus dangereux, qui sont devenus des armes.
    En tant que législateur, je n'accepte pas que vous rejetiez du revers de la main la responsabilité que vous avez à cet égard. Ces outils vous appartiennent, vous les avez dotés de fonctions, mais vous ne choisissez pas nécessairement les utilisateurs. Vous louez donc vos outils de façon commerciale à des gens qui les utilisent à mauvais escient.
    Au cours de l'élection que nous allons vivre dans quelques mois au Canada, aurez-vous la capacité technique d'arrêter immédiatement toute fausse nouvelle, toute forme de publicité haineuse ou toute forme de publicité qui porterait atteinte à notre démocratie? Pourrez-vous agir de façon très rapide? À la rigueur, pourrez-vous enrayer toute publicité pendant les élections au Canada et dans les autres pays, si vous ne pouvez pas nous garantir le contrôle absolu des publicités qui peuvent être placées sur vos plateformes?
    Nous allons commencer par les représentants de Facebook, puis j'aimerais entendre ceux de Google et de Twitter.
    Merci beaucoup, monsieur Gourde.
    Je vais commencer par dire que c'est sûr que nous voulons faire tout ce que nous pouvons pour protéger l'élection d'octobre 2019.
    Comme vous le savez, nous travaillons en étroite collaboration avec le Parti conservateur, le Nouveau Parti démocratique et le Parti libéral. Il faut mentionner aussi les autres partis, comme le Parti vert, le Parti populaire, le Bloc québécois...
    Excusez-moi, monsieur Chan, mais ce n'est pas une question de partis. Il est question de la population qui devra faire un choix en s'appuyant sur des informations que nous allons lui communiquer, et non pas sur de fausses informations.
    Avez-vous la capacité d'arrêter rapidement la diffusion de fausses informations ou même d'enrayer carrément toute publicité qui peut être mise sur vos plateformes, si vous n'en avez pas le contrôle?
    Merci de la question.
    Ici, au Canada, nous avons une équipe qui travaille sur chaque élection. Nous avons fait cela en Ontario, au Québec, en Colombie-Britannique, à l'Île-du-Prince-Édouard, au Nouveau-Brunswick...
    Ne me nommez pas toutes les provinces.
    Je veux savoir si vous avez la capacité d'enrayer en tout temps toute publicité haineuse ou toute fausse information durant la prochaine élection.
    Pour le moment, au cours de toutes les autres élections, il n'y a pas eu de problèmes que nous n'ayons pu résoudre rapidement.
    Merci.
    Je pose la même question aux représentants de Google.

[Traduction]

    Il est absolument essentiel de bien faire les choses. Nous investissons fortement dans des activités visant à prévoir et à prévenir les tentatives de miner l'intégrité électorale. Pour ce faire, nous rendons des renseignements utiles accessibles dans des recherches ou nous traitons avec les acteurs qui pourraient faire des déclarations trompeuses ou donner d'eux-mêmes une image inexacte dans des publicités.
    Twitter a consacré beaucoup de temps à l'amélioration de notre capacité interne de repérer ce type de désinformation. Nous avons tiré des apprentissages des élections dans le monde entier. Nous avons activement dialogué avec la société civile ici, et récemment durant les élections en Alberta, et nous estimons être très bien préparés. Toutefois, nous ne pouvons pas perdre de vue le prix. Ce sont les gens qui veulent manipuler la conversation qui continueront d'innover, et nous continuerons d'innover afin d'avoir une longueur d'avance sur eux.

  (1125)  

[Français]

    À la suite de vos réponses, je reste dans le doute et dans l'inquiétude.
    Vos véhicules peuvent rouler à 250 kilomètres à l'heure, mais la limite sur l'autoroute est de 100 kilomètres à l'heure. Êtes-vous capables de réduire la capacité de vos outils, pour que ce soit juste et équitable envers tout le monde?
    Qu'est-ce que cela donne d'avoir des outils si performants, si c'est pour faire le mal, alors qu'une moins grande performance pourrait servir le bien de l'humanité?
    Si vous me le permettez, je vais m'exprimer en anglais pour être plus clair, puisque c'est ma langue maternelle.

[Traduction]

    J'aimerais juste dire, monsieur Gourde, que c'est exactement ce que nous allons faire. Le mois prochain, comme votre parti et d'autres partis au Canada le savent, nous présenterons un processus très intensif pour quiconque veut publier des publicités politiques. Nous obligerons ces gens à obtenir une autorisation ou à démontrer qu'ils sont Canadiens. Nous devrons valider indépendamment le fait qu'ils sont Canadiens, puis nous leur donnerons un code — ou une clé, si vous le voulez — avec quoi ils devront s'authentifier avant de pouvoir diffuser une publicité.
    Ce processus ne se fera pas dans une heure ou une journée, mais sur plusieurs jours. Je vous garantis que nous dialoguerons et travaillerons en étroite collaboration avec tous les partis politiques du Canada pour les guider dans le cadre de ce processus. Concernant les ralentisseurs ou les freins, je dirais que ce sera un mécanisme de ralentissement important dans le système, mais je crois que c'est ce qu'il faut faire pour assurer la transparence des publicités, pour réglementer le droit de faire des publicités politiques et pour se prémunir contre l'ingérence étrangère.
    Merci, monsieur Gourde.
    Le prochain est M. Angus.
    Merci, monsieur le président.
    Merci beaucoup de ces exposés. Ils sont très utiles.
    Monsieur Chan, nous savons que M. Zuckerberg et Mme Sandberg sont des personnes très importantes. Sont-elles occupées aujourd'hui?
    Je ne suis pas au courant de leur horaire aujourd'hui, mais je crois que c'est exact. Elles ont malheureusement dû transmettre leurs excuses.
    D'accord.
    Je vais essayer de comprendre la gouvernance d'entreprise de Facebook. Vous venez du milieu politique canadien. Vous avez travaillé pour le Parti libéral. Nous sommes en quelque sorte doux et dociles ici, au Canada. Je n'ai même pas souvenir qu'on ait délivré une assignation au chef d'une société. Je ne connais personne qui ait déjà décidé de faire fi d'une assignation.
    J'ose croire qu'ils ont quelque chose de vraiment pressant qui les garde occupés. Quand M. Zuckerberg a parlé récemment, comme mon collègue l'a souligné, au sujet de sa volonté, de son désir de parler avec les législateurs, est-ce que c'était une blague?
    Ma question s'adresse à M. Chan. J'aimerais savoir ce qu'il en pense, parce qu'il nous représente au Canada.
    Eh bien, monsieur, je dois dire que nous souhaitons beaucoup collaborer avec le Parlement et le gouvernement du Canada. L'élection qui s'en vient sera importante, et elle sera importante pour nous afin que nous fassions bien les choses à Facebook. Nous voulons assurer une élection libre et juste. C'est pourquoi nous avons fait tout ce que nous avons fait.
    Nous nous conformons au projet de loi C-76. À ma connaissance, nous pourrions être la seule entreprise représentée ici qui va de l'avant avec un système d'architecture pour le faire. Nous avons réagi rapidement aux promoteurs de haine au Canada, autant les organisations que les particuliers, et nous avons signé la Déclaration du Canada sur l'intégrité électorale. J'aimerais...
    Oui, et je vous en remercie. Désolé, je n'ai que quelques minutes.
    Je reconnais ce travail. Je suis un grand admirateur de Facebook.
    M. Kevin Chan: Merci, monsieur.
    M. Charlie Angus: J'ai beaucoup parlé des outils puissants qu'il offre dans les collectivités autochtones que je représente.
    Mon inquiétude a trait à cette idée d'adhésion et de retrait de Facebook quand il s'agit de la législation nationale. Tout d'abord, vous avez fait fi d'une assignation du Parlement, parce que M. Zuckerberg pourrait être occupé. C'est peut-être son jour de congé. Je ne sais pas.
    Vous avez récemment été reconnu coupable par notre organisme de réglementation de la violation par Cambridge Analytica. M. Therrien a dit ceci:
Le risque est élevé pour les Canadiens qui utilisent Facebook de voir leurs renseignements personnels utilisés à des fins qui leur sont inconnues pour lesquelles ils n'ont pas consenti et qui peuvent être contraires à leurs intérêts ou à leurs attentes.
Les préjudices peuvent être très réels, notamment le [...] politique et la surveillance.
    Ce qui était frappant, c'est que Facebook n'a pas reconnu que nous avons compétence sur nos propres citoyens. Si vous dites que vous êtes prêts à travailler avec les parlementaires, je ne comprends pas cette adhésion quand cela fonctionne pour Facebook et ce retrait quand...
    Pourriez-vous me donner un exemple d'une entreprise qui dit qu'elle ne reconnaît juste pas si oui ou non nous avons compétence sur nos citoyens?

  (1130)  

    Monsieur, j'ai aussi été surpris quand j'ai vu ces rapports, et j'ai donc lu l'affaire avec attention et j'en ai parlé à un conseiller juridique.
    Ce que je comprends, c'est que cela faisait allusion au fait que, à notre connaissance, selon les données probantes disponibles dans le monde et les preuves documentées, pas seulement en ce qui concerne des contrats et des choses du genre, mais aussi selon des témoins qui ont des récits de première main, aucune donnée de Canadiens ou, en fait, d'utilisateurs non américains n'a jamais été transférée à Cambridge Analytica. Je crois, si je peux...
    D'accord, mais sur ce point — je n'ai que peu de temps — 622 000 Canadiens se sont vu prendre leurs données. Facebook en a eu connaissance en 2015, et l'entreprise n'a rien dit jusqu'à ce qu'elle ait été exposée à l'échelle internationale, en raison de la violation dont s'est rendue coupable Cambridge Analytica. Il s'agissait d'une violation du droit canadien en contravention de la LPRPDE.
    Vous connaissez cette loi; pourtant, le fait de dire aux législateurs canadiens que nous devions prouver les préjudices individuels avant que Facebook puisse reconnaître la compétence, pour moi, ce serait la même chose qu'une entreprise automobile internationale qui dit: « Oui, il y a eu de nombreux décès au Brésil; oui, il y a eu des morts en masse aux États-Unis; oui, il y a eu des morts en masse dans toute l'Europe; mais puisque personne n'est mort dans un accident automobile au Canada, nous n'allons pas nous conformer à la loi canadienne ».
    Comment décidez-vous quelles lois vous respectez et quelles lois ne s'appliquent pas à vous? Pourquoi pensez-vous cela?
    Monsieur Angus, avec tout le respect que je vous dois, nous respectons entièrement la loi...
    Non, vous ne le faites pas. Vous ne reconnaissez pas notre compétence.
    ... comme le sait le Parlement du Canada.
    Comment pouvez-vous nous dire cela sans broncher, monsieur Chan? Comment est-ce possible?
    Parce que c'est la vérité, monsieur.
    Donc nous devons vous traduire devant les tribunaux pour que vous reconnaissiez que nous avons la compétence de protéger nos citoyens, après que vous avez caché une violation dont vous étiez au courant depuis trois ans et n'avez rien fait pour nous le dire, car vous ne vouliez pas mettre fin à votre modèle opérationnel.
    Pour ce qui est de l'intégrité des élections, nous respectons la loi...
    Je parle du droit à la vie privée des Canadiens et de la violation de notre loi dont vous avez été reconnu coupable. C'est la question.
    Nous pouvons aussi en parler, monsieur, dans le temps qu'il nous reste, si vous me le permettez.
    Comme je l'ai dit, nous voulions parvenir à une résolution avec le commissaire. Il a décidé de nous amener devant les tribunaux, ce qui est bien sûr le cadre qui est prescrit pour lui...
    Il devait vous traduire en justice, parce que vous ne vouliez pas reconnaître que nous, en tant que législateurs, avions même compétence sur nos propres citoyens. Il ne s'agit pas de parvenir à une résolution. C'est comme dire: « Hé, Facebook, est-ce que cela vous va si nous venons jeter un coup d'œil et que nous arrangeons les choses? » Ce n'est pas ainsi que la loi fonctionne. Peut-être que c'est ainsi que cela fonctionne pour M. Zuckerberg, mais sur la scène internationale, ce n'est pas comme ça, et c'est pourquoi nous sommes ici. C'est parce que nous avons des législateurs internationaux qui sont frustrés...
    Nous avons le plus grand respect pour...
    ... par le manque de respect du droit international.
    Nous avons le plus grand respect pour le droit au Canada et pour l'autorité juridique dans le monde.
    Merci.
    Nous allons maintenant passer à M. Tong, de Singapour.
    Mon temps est limité, donc je vous serais reconnaissant si vous vous en teniez à mes questions et donniez directement les réponses.
    Nous avons beaucoup entendu parler de ce que vous souhaitez faire, des gens avec qui vous avez noué un dialogue, des gens que vous souhaitez voir et de la façon dont vous allez travailler sur vos politiques, mais voyons juste ce qui se passe dans la réalité et ce qui continue d'apparaître sur vos plateformes.
    Pour ce faire et pour gagner du temps, j'ai préparé un petit document qui résume plusieurs cas, et je suis certain que vous les connaissez. Veuillez juste les parcourir rapidement. Ce sont tous des cas qui ont été sensationnels. Ils sont tous devenus viraux rapidement. Ils ont probablement été amplifiés par des trolls et des bots — de faux comptes. Ils incitent à la peur, ils causent une désaffection et des tensions et ils s'attaquent à des lignes de faille sociales qui divisent: la race, la religion et l'immigration.
    Un fait essentiel, c'est que ce sont tous de faux renseignements également, et tout cela a entraîné des préjudices dans le monde réel: des blessures physiques, des décès, des soulèvements, l'accentuation des divisions et des lignes de faille entre les religions et les races, qui ont causé de la peur.
    Si vous pouvez juste aller à la dernière page du document et regarder le Sri Lanka, en avril 2019. Le chef des terroristes ayant fait exploser des bombes à Pâques au Sri Lanka avait publié des vidéos qui se trouvaient sur vos plateformes — Facebook et YouTube — pendant au moins six mois avant les attentats à la bombe proprement dits. Dans les vidéos, il dit: « les non-musulmans et les gens qui n'acceptent pas les musulmans peuvent être tués, en plus des femmes et des enfants ». Ailleurs, il dit: « Nous pouvons tuer des femmes et des enfants avec des bombes. C'est juste. »
    Il s'agit clairement d'un discours haineux, n'est-ce pas?
    C'est un discours haineux.
    Et c'est une violation de vos propres politiques, est-ce exact?
    Ce serait une violation de nos politiques. C'est exact, monsieur.
    Ces passages, publiés des mois avant les attentats de Pâques, prédisent ce qu'il va se passer, et c'est arrivé, horriblement, en avril, de la même manière que ce prêtre allégué, M. Zahran Hashim, a dit que cela arriverait — des bombes ont tué des femmes et des enfants — sur vos plateformes.
    Pourquoi? Pourquoi est-ce que cela n'a pas été retiré?
    Merci, monsieur Tong.
    Rapidement, juste pour...

  (1135)  

    Non, veuillez répondre à ma question. Pourquoi cela n'a-t-il pas été retiré? Vous dites que c'est une violation de vos propres politiques. Pourquoi la vidéo n'a-t-elle pas été retirée en septembre 2018?
    Quand nous prenons connaissance de ce contenu, nous le retirons. Si ce n'est pas signalé ou si nous ne l'avons pas repéré de manière proactive, alors nous ne le retirons pas, car honnêtement, nous ne savons pas que ça existe.
    J'aimerais dire que nos pensées vont aux gens du Sri Lanka et d'ailleurs que vous avez mentionnés ici, dans votre document. La violence ethnique intercommunautaire est une chose horrible. Nous ne voulons pas que nos plateformes soient entraînées dans ces activités et utilisées à ces fins. En fait, nous avons pris des mesures vigoureuses pour nous y attaquer. Nous avons maintenant plus de 30 000 personnes qui travaillent à la sécurité...
    Monsieur Potts, je n'ai pas besoin de discours sur ce que vous allez faire.
    Je m'excuse.
    Quelle est la difficulté de comprendre que les phrases: « Nous pouvons tuer des femmes et des enfants avec des bombes. C'est juste » est un discours haineux? Quelle est la difficulté là-dedans?
    La question n'est pas difficile, monsieur Tong. Il s'agit plutôt de repérer le contenu. Si nous ne sommes pas mis au courant de l'existence du contenu, que ce soit au moyen d'un rapport d'utilisateur ou de nos propres mesures proactives, alors nous ne savons pas que ce contenu se trouve sur la plateforme.
    Donc rien, ni l'intelligence artificielle ou la technologie, ni les vérificateurs des faits ou l'armée de gens qui ont scruté vos plateformes n'a repéré cela huit mois avant l'événement, et vous nous demandez de faire confiance aux processus que vous avez l'intention de mettre en place, d'avoir confiance, car l'intelligence artificielle que vous détenez maintenant le fera dans l'avenir.
    L'intelligence artificielle est un excellent levier pour nous aider à repérer cela. Ce n'est pas parfait. Il n'est pas évident qu'elle permettra de découvrir 100 % des activités, tout comme les humains ne découvriront pas 100 % des activités. Il me faudrait vérifier précisément cette vidéo, mais si nous en avions eu connaissance, nous l'aurions retirée. C'est une décision très directe.
    Monsieur Potts, si vous faites vos devoirs et vos vérifications, les dirigeants musulmans locaux l'ont signalée sur Facebook, et Facebook ne l'a pas retirée même si l'entreprise était au courant, même s'il s'agissait, comme vous le dites, d'une violation claire de vos propres politiques. J'aimerais savoir pourquoi.
    Monsieur, il me faudrait voir comment le contenu a été partagé. La façon dont vous avez...
    Vous avez dit, messieurs Potts et Chan, que vous êtes tous deux des spécialistes du contenu. Vous êtes des spécialistes du domaine. Vous êtes ici pour remplacer M. Zuckerberg et Mme Sandberg, et vous devriez le savoir. Cela s'est produit il y a quelques mois, donc pourquoi la vidéo n'a-t-elle pas été retirée, même si Facebook était au courant? Pourriez-vous expliquer pourquoi?
    J'essaie d'expliquer que je ne connais pas la situation. Il faudrait que je vérifie pour m'assurer que nous le savions. Je ne crois pas que nous étions au fait de cette vidéo à ce moment-là.
    Je dirais que vous n'avez pas retiré la vidéo parce que son contenu était sensationnel, à même de susciter la peur, la violence, la haine et les théories du complot. Comme M. McNamee nous l'a expliqué précédemment, c'est ce qui attire les gens sur vos plateformes. C'est ce qui attire les utilisateurs vers vos plateformes et c'est ainsi que vous générez des profits.
    Monsieur Tong, je rejette cette affirmation. Je la rejette sans réserve. Si nous sommes au fait d'un cas de discours haineux, si nous savons que cela suscite la violence, nous agissons plus rapidement.
    Nous avons eu une discussion précédemment sur la mésinformation. Si nous savons qu'un cas de mésinformation peut mener à des préjudices physiques et à de la violence, nous travaillons avec des partenaires dignes de confiance sur le terrain, la société civile et d'autres intervenants, pour qu'ils nous le disent — et même les représentants de l'application de la loi —, puis, en fait, nous retirons le contenu en question.
    Monsieur Potts, Facebook a été informée de tout cela. Vous pouvez vérifier. Facebook a aussi été informée des problèmes au Sri Lanka en 2018 par le gouvernement sri lankais. L'entreprise a refusé de retirer le contenu parce qu'il ne violait pas ses propres politiques. M. McNamee affirme que, en conséquence, les gouvernements au Sri Lanka, en Indonésie et en Inde ont pris des mesures proactives pour interdire l'accès aux médias sociaux comme Facebook et WhatsApp. Est-ce ainsi que vous voulez que les choses se passent?
    Pouvons-nous faire confiance aux politiques que vous mettez en place? Pouvons-nous être sûrs que ce que vous faites et ce que vous mettez en place — les vérifications pour trouver et retirer de tels éléments de contenu — fonctionneront?
    Merci, monsieur Tong. Il faut passer au prochain intervenant.
    Nous tenons à souhaiter la bienvenue à la délégation d'Irlande. Les représentants viennent d'arriver ce matin par avion.
    Bienvenue.
    Nous allons donner les cinq premières minutes à Hildegarde Naughton.
    Je vais commencer par formuler mes questions, puis les entreprises des médias sociaux pourront répondre. J'ai environ trois questions. La première est liée à la protection des données.
    Il est évident que vous vous efforcez tous de trouver une façon de rendre les règles claires en matière de protection de la vie privée et de protéger les données des utilisateurs. La mise en place du RGPD a changé complètement la donne en ce qui a trait à la protection des données en Europe. En fait, la commissaire irlandaise à la protection des données a maintenant la tâche de réglementer l'Europe, vu le nombre d'entreprises des médias sociaux dont les sièges sociaux sont situés en Irlande.
    Dans les 11 mois qui ont suivi l'entrée en vigueur du RGPD, la commissaire a reçu près de 6 000 plaintes. Elle a dit s'être concentrée sur Facebook parce qu'elle ne pensait pas qu'il pouvait y avoir autant de violations importantes touchant les données associées à une seule entreprise. En outre, à un moment donné, elle était informée de manquements en vertu du RGPD aux deux semaines, alors elle a mis en place une enquête conjointe pour se pencher sur la situation. J'aimerais demander à Facebook de formuler des commentaires sur ses remarques et d'expliquer pourquoi l'entreprise a tellement de difficultés à protéger les données des utilisateurs.
    Pour ce qui est de la prochaine question, je vais peut-être demander à Google et Facebook de répondre. Mon collègue James Lawless, le sous-ministre Eamon Ryan et moi avons rencontré plus tôt cette année Mark Zuckerberg, en Irlande, et il a dit qu'il aimerait que le RGPD soit adopté à l'échelle internationale. Certains des plus gros marchés de Facebook se trouvent dans des pays en développement, comme l'Asie et l'Afrique et, parmi les 10 principaux pays, il y en a seulement deux du monde industrialisé, soit les États-Unis et le Royaume-Uni. Certains experts affirment qu'une approche universelle ne fonctionnera pas en ce qui a trait au RGPD, parce que certaines régions ont des interprétations différentes de l'importance de la protection des renseignements personnels.
    J'aimerais obtenir le point de vue de Google là-dessus: que pensez-vous de la mise en place d'un RGPD à l'échelle internationale? De quelle façon cela fonctionnerait-il? Devrait-on mettre un tel règlement en place à l'échelle internationale? Et j'aimerais aussi connaître vos préoccupations quant aux différentes interprétations faites de la protection des renseignements personnels.
    Et pour terminer, en raison du travail de notre comité responsable des communications dans l'Oireachtas — le Parlement irlandais — le gouvernement irlandais est sur le point de créer un commissaire à la sécurité numérique qui aura le pouvoir juridique de demander le retrait de communications néfastes en ligne. Vu que l'Irlande accueille les sièges sociaux internationaux et européens de nombreuses entreprises des médias sociaux, croyez-vous qu'une telle loi permettra réellement à l'Irlande de réglementer le contenu en Europe et, possiblement, au-delà des frontières européennes?
    Quiconque le désire peut répondre en premier.

  (1140)  

    Merci, madame. Je tiens à souligner que Neil et moi avons passé du temps avec nos homologues irlandais et qu'ils n'ont que de bonnes choses à dire à votre sujet, alors je suis heureux de vous rencontrer.
    En ce qui concerne la question des violations que vous avez mentionnées, évidemment, nous ne sommes pas au courant des renseignements précis qui auraient été envoyés à l'autorité irlandaise responsable de la protection des données, alors je ne peux pas vous parler précisément de cela, mais je peux dire que notre position générale, c'est d'être le plus transparents possible.
    Vous — et divers membres du Comité — savez probablement que nous sommes assez francs en ce qui a trait à la communication publique de nos failles, des situations où nous avons trouvé des renseignements justifiant des enquêtes, des situations où nous avons été mis au fait de certaines choses. C'est notre engagement à votre égard, mais aussi à l'égard des utilisateurs partout dans le monde, et je crois que vous continuerez d'entendre parler de ces choses à mesure que nous les découvrons. C'est une position importante pour nous, parce que nous voulons faire la bonne chose, soit informer nos utilisateurs, mais aussi informer le public et les législateurs le plus possible lorsque nous découvrons de telles situations.
    Nous voulons être très transparents, et c'est la raison pour laquelle vous entendrez de plus en plus parler de nous. Encore une fois, malheureusement, je ne peux pas vous parler précisément de ce à quoi faisait référence l'autorité responsable de la protection des données.
    Google, puis-je, s'il vous plaît, connaître vos points de vue à ce sujet?
    Comme nous l'avons décrit dans notre déclaration préliminaire, nous cherchons des normes internationales applicables à une diversité de cadres sociaux, culturels et économiques. Nous misons sur des cadres fondés sur les principes, particulièrement lorsqu'il est question de protection des données. C'est ce qu'on a pu voir relativement au RGPD et aussi au sujet des principes antérieurs de l'OCDE.
    Le fait d'élargir la portée du RGPD au-delà des frontières actuelles est quelque chose que nous jugeons souhaitable. La question est la suivante: de quelle façon peut-on l'adapter dans des administrations précises où il faudra l'appliquer, vu que l'environnement européen et l'histoire européenne en matière de protection des données sont très différents de ce qu'on retrouve ailleurs dans le monde, surtout dans certaines régions du globe, qu'on parle de l'Afrique, ou de l'Asie, que vous avez mentionnées?
    Nous sommes d'accord là-dessus. Nous avons même appliqué les mesures de protection accordées aux Européens à l'échelle internationale, mais il faut se demander à quoi cela peut ressembler au sein d'un pays.
    Pour ce qui est de votre deuxième question sur le commissaire responsable de la sécurité numérique, je vais céder la parole à M. Slater.
    Merci, madame Naughton. En fait, le temps est écoulé, alors nous devons passer au prochain délégué. Toutes mes excuses. Nous avons peu de temps.
    Pour la prochaine question, nous nous tournons vers la République d'Allemagne.
    Je vais aussi commencer par Facebook. Je suis heureux de rencontrer l'équipe canadienne responsable des politiques publiques. Je connais l'équipe allemande.
    Pour commencer, j'aimerais revenir sur ce que mon collègue de Singapour a demandé. À la lumière de l'expérience en Allemagne, j'ai une réponse relativement simple. C'est tout simplement que de nombreuses entreprises — aussi présentes aujourd'hui — n'ont pas assez d'employés pour s'occuper de tous ces problèmes et traiter toutes ces plaintes. Comme cela a déjà été mentionné, l'intelligence artificielle n'est pas toujours suffisante pour faire ce travail. Après l'adoption de la NetzDG en Allemagne, nous avons constaté qu'une augmentation massive du nombre d'employés était nécessaire pour gérer toutes les plaintes et qu'elle permettait aussi d'accroître le nombre de plaintes traitées. Je ne connais pas la situation dans d'autres pays, mais c'est assurément un aspect important.
    Je veux poser une question sur une décision antitrust en Allemagne concernant le fait de savoir si les données de Facebook, WhatsApp et Instagram devraient être combinées sans le consentement des utilisateurs. Vous allez à l'encontre de la décision allemande, alors, évidemment, vous n'êtes pas d'accord, mais vous pourriez peut-être décrire un peu plus clairement votre position.

  (1145)  

    Merci beaucoup, monsieur. Une de mes collègues au Canada m'a dit avoir passé du temps avec vous, hier, dans le cadre d'une table ronde. Merci beaucoup de l'invitation.
    En ce qui a trait aux diverses plateformes, comme vous le savez, nos conditions de service et notre politique sur les données des utilisateurs soulignent le fait que nous allons communiquer l'infrastructure de données entre les divers services. C'est en grande partie, franchement, pour nous assurer de pouvoir offrir un certain niveau de sécurité d'une plateforme à l'autre.
    Facebook est une plateforme qui exige la vraie identité des utilisateurs. Nous voulons nous assurer que les gens sont bien qui ils disent être, mais il y a beaucoup de bonnes raisons pour lesquelles on voudra mettre ce même genre de mesures en place sur la plateforme Instagram, par exemple. Il y a de nombreuses situations où — et vous avez entendu parler de tout ce qui concernait même notre lutte coordonnée contre les comportements inauthentiques — pour pouvoir réaliser des enquêtes adéquates à l'échelle du système, nous devons avoir une certaine capacité de comprendre la provenance de certains éléments de contenu et de certains comptes. Le fait d'avoir une infrastructure commune nous permet de relever ce genre de défi de façon très efficace.
    Oui, et cela vous permet aussi de regrouper très efficacement des données et d'accroître votre connaissance des utilisateurs et vos profits. N'est-ce pas là la raison sous-jacente?
    Il serait possible, encore une fois, de donner à tous les utilisateurs la capacité de prendre ces décisions. Ce serait très facile, mais je crois que ce serait aussi très coûteux pour vous.
    Monsieur, je crois que, lorsque vous parlez de notre objectif plus général et de la situation vers laquelle nous nous dirigeons, c'est exact. Nous voulons donner aux gens plus de contrôle. Nous voulons que les gens puissent...
    D'accord, mais alors pourquoi allez-vous à l'encontre de la décision rendue en Allemagne?
    Je crois que le nœud du problème, encore une fois, tient à la question posée par M. Erskine-Smith: où commence et où se termine la politique sur la concurrence relativement aux limites du droit à la vie privée?
    D'accord. Merci.
    Je veux aussi m'adresser à Google. Vous avez mentionné avoir besoin de définitions claires de la notion de « discours illicites ». Je me suis penché sur le rapport allemand sur la transparence, et il s'avère que, des 167 000 plaintes en Allemagne, seulement 145 cas ont exigé que vos collègues se tournent vers des spécialistes pour déterminer si, oui ou non, il était question de discours illicites. Pourquoi, alors, croyez-vous que c'est vraiment problématique? Est-ce vraiment un problème de définition ou est-ce plutôt un problème lié à la gestion du nombre de plaintes et à l'immense quantité de discours haineux en ligne?
    C'est une question très importante. La NetzDG est une loi complexe, mais l'une des composantes pertinentes, ici, c'est qu'elle cerne, si je ne m'abuse, 22 lois précises qu'elle régit.
    En fait, la NetzDG dit essentiellement que, en Allemagne, il faut respecter les lois allemandes, un point c'est tout.
    Je comprends, et ce qui a été dit au sujet de ces 22 lois, c'est: « Voici les exigences en matière de délai de traitement et de rapport sur la transparence ayant mené aux données que vous aviez. » Selon moi, une des choses importantes dans ce cas-ci, c'est qu'on parle précisément de définitions législatives claires. Ces définitions nous permettent ensuite d'agir en fonction d'avis clairs de façon rapide et conformément au cadre législatif.

  (1150)  

    Nous allons maintenant passer à la République d'Estonie.
    Allez-y, vous avez cinq minutes.
    Je viens d'Europe, de l'Estonie. C'est vrai que, deux jours après les élections européennes, on pourrait dire que vous avez fait des progrès en ce qui a trait au retrait de faux comptes, mais c'est aussi vrai que ces faux comptes n'auraient jamais dû exister d'entrée de jeu.
    Ma première question est la suivante: quel genre de changements prévoyez-vous mettre en place pour identifier vos utilisateurs dès le départ?
    Merci de la question. Je crois que nous sommes prudents, mais heureux des résultats en ce qui a trait au rendement de la plateforme en Europe. Cependant, pour ce qui est des faux comptes, je dirais — et je crois que mon collègue M. Potts l'a mentionné — qu'il y a un genre de course à l'armement entre nous et nos adversaires, les délinquants qui essaient de créer des comptes et du contenu inauthentiques sur la plateforme.
    Je crois que nous devons constamment nous améliorer et évoluer...
    De quelle façon pouvez-vous améliorer le processus d'identification initial?
    L'une des choses que je peux vous dire — et encore là il est question de la publicité politique que nous tentons de gérer —, c'est que nous voulons être assez sûrs de l'identité des personnes qui font de la publicité.
    Au Canada, comme je l'ai mentionné précédemment, nous le ferons, et ce ne sera pas facile. Les annonceurs politiques au Canada devront obtenir une preuve d'identité quelconque. Il faudra vérifier de façon indépendante cette preuve d'identité, puis nous enverrons à la personne une clé quelconque — une clé numérique, si vous voulez — qu'elle utilisera pour s'authentifier avant de pouvoir faire de la publicité politique.
    C'est très coûteux, et il s'agit d'un investissement important. Ce n'est pas non plus quelque chose qui se fera sans créer certaines frictions. Personnellement, je crains qu'il y ait des situations où les gens voudront publier une publicité sans connaître l'exigence, pour ensuite constater qu'il leur faudra plusieurs jours avant de pouvoir le faire.
    Je crains aussi qu'il y ait de faux positifs, mais je crois que c'est la bonne chose à faire pour protéger les élections partout dans le monde et ici même, au Canada, en octobre. Nous sommes prêts à y consacrer le temps et l'argent et, possiblement, à composer avec certaines des frictions pour bien faire les choses.
    D'accord. Merci.
    Ma deuxième question concerne les fausses nouvelles et les fausses vidéos. Quelle est votre politique en matière de fausses nouvelles, par exemple, les vidéos truquées? Seront-elles retirées ou indiquera-t-on tout simplement qu'il s'agit de vidéos truquées?
    La question des vidéos truquées... Merci de la question. C'est un nouvel enjeu très important. Nous avons des lignes directrices claires aujourd'hui au sujet du contenu qu'il faut retirer. Si une vidéo truquée est visée par nos lignes directrices, nous la retirerons.
    Nous comprenons aussi qu'il faut faire plus de recherches. Nous avons travaillé activement avec la société civile et le milieu universitaire à cet égard.
    Et qu'en est-il de Facebook?
    Merci.
    Nous menons aussi des enquêtes et réalisons des recherches sur cette politique pour nous assurer de faire la bonne chose. Actuellement, nous indiquerions que c'est un faux, nous informerions les utilisateurs, mais nous tentons constamment...
    Les vidéos truquées ne seront pas retirées.
    Nous mettons constamment à jour nos politiques, et nous pourrons les mettre à jour à l'avenir, à mesure que les choses évoluent. Nous travaillons avec des organismes de recherche et des gens sur le terrain pour comprendre de quelle façon ces vidéos pourraient se manifester. Comme je l'ai déjà mentionné, si ces vidéos — ou tout type de mésinformation — peuvent mener à des préjudices dans le vrai monde — à des préjudices hors ligne, en fait — nous retirerons le contenu.
    Et du côté de Twitter?
    Nous partageons la même préoccupation au sujet des vidéos truquées. Si nous constatons que des vidéos truquées sont utilisées pour transmettre de faux renseignements en contravention de nos règles, nous retirerons le contenu.
    Ma dernière question sera à nouveau adressée à M. Collins. C'est la question qui a été posée au début, au sujet de la fausse vidéo de Nancy Pelosi. Disons qu'une vidéo similaire devait être produite, mais qu'elle mettait en scène M. Zuckerberg, serait-elle retirée ou indiqueriez-vous seulement que c'est une fausse vidéo?
    Des voix: Ha, ha!
    Je suis désolé, à cause des rires... Je n'ai pas entendu le nom.
    Désolée pour les éclats de rire. Si une vidéo similaire à ce qui a été présenté — la vidéo de Nancy Pelosi — était affichée, mais qu'elle mettait en vedette Mark Zuckerberg, la retireriez-vous ou indiqueriez-vous simplement qu'il s'agit d'une fausse nouvelle?
    Si c'était la même vidéo, mais qu'il s'agissait de M. Zuckerberg plutôt que de la présidente Pelosi, le traitement serait le même.
    Merci.
    Je veux expliquer rapidement ce qui se passe derrière moi. Vos présidents ont décidé de continuer de travailler durant le dîner, alors n'hésitez pas à aller chercher quelque chose. Nous continuerons les témoignages durant le dîner.
    Nous passons maintenant au Mexique. Allez-y. Vous avez cinq minutes.

  (1155)  

     [Le témoin s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:]
    Merci. Je vais parler dans ma langue.
    J'ai plusieurs questions. Dans le cas de Google, que faites-vous pour protéger les renseignements personnels des gens? Je sais qu'il y a beaucoup de cas de vidéos liés à du sextage qui sont encore accessibles, et quand les victimes de ces vidéos se tournent vers vos bureaux à Mexico — et je suis au fait de plusieurs cas — Google leur dit de présenter la plainte aux États-Unis. On parle de vidéos qui constituent une attaque violente contre une personne et ne peuvent pas être téléchargées. Que faites-vous dans de tels cas?
    Je ne connais pas les cas précis dont vous parlez, mais nous avons des lignes directrices strictes lorsqu'on parle de choses qui peuvent inciter à la violence ou qui constituent des violations de la vie privée, par exemple. Si nous sommes informés et que nous sommes mis au fait de quelque chose du genre, nous passons à l'action, s'il s'agit d'une violation des lignes directrices en question. Je ne suis pas au fait des cas précis, mais je serais heureux de faire un suivi.
     [Le témoin s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:]
    J'ai des renseignements sur des cas très précis, mais nous ne savons pas vers qui nous tourner au Mexique, parce que les représentants ne font rien. Nous espérons que vous vous occuperez de ce dossier, parce que les gens doivent attendre des années avant que ces choses soient retirées.
    J'aimerais poser une question à Twitter sur la création de tendances au moyen de robots. C'est très courant au Mexique. Chaque jour, il y a des tendances créées par des robots, ce qu'on appelle les fermes de robots. Je ne sais pas quelle est la politique de Twitter, parce que vous semblez permettre les tendances artificielles — ou les mots-clics — lorsqu'ils sont préjudiciables pour quelqu'un. Pourquoi ne laissez-vous pas les tendances se produire de façon organique? Je suis d'accord avec les tendances, des choses deviennent virales et il faut respecter la liberté d'expression, mais pourquoi permettre l'utilisation de robots? Si tout le monde peut détecter ces choses, pourquoi Twitter n'y arrive-t-elle pas?
    Les tendances mesurent la conversation en temps réel et essaient de distinguer les conversations qui suscitent toujours un haut niveau d'engagement, le Championnat d'Angleterre de football, par exemple, ou les élections mexicaines. Ce que les tendances tentent de cerner, c'est une accélération au-dessus de la moyenne. Lorsque cela se produit de façon organique, comme vous l'avez mentionné, la tendance est différente de ce que l'on constate lorsque le processus est accéléré par des robots.
    Depuis 2014, ce qui est il y a très longtemps pour nous, nous avons la capacité de protéger les tendances de ce genre d'activités automatisées non organiques. M. Chan a mentionné une course à l'armement. Je crois que c'est une bonne expression pour exprimer la lutte contre l'automatisation à des fins malicieuses. Actuellement, nous vérifions 450 millions de comptes par année que nous croyons être inauthentiques, et nos outils sont très subtils, très créatifs. On regarde des choses comme les gazouillis partagés ou les activités qui se passent si vite que c'est impossible que ce soit le fait d'un humain.
    Et malgré cela, on en a éliminé 75 %, et il y a donc 25 % des comptes que nous estimions être inauthentiques qui ont subi le test avec succès. Nous ratissons plus large que nécessaire pour essayer de mettre fin à ces activités inauthentiques. C'est un contexte où il n'y a pas d'écart entre les valeurs sociétales de confiance à l'égard des activités en ligne et nos impératifs en tant qu'entreprise, soit le fait que nous voulons que les gens se tournent vers Twitter pour croire ce qu'ils voient, en sachant que les robots russes ou peu importe ne leur jouent pas des tours, alors nous travaillons très dur pour bien faire les choses et nous continuons d'apporter des améliorations chaque semaine.
     [Le témoin s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:] Mais c'est quelque chose qui se passe normalement chaque jour, pas seulement durant les élections. C'est quelque chose qui se passe chaque fois qu'une tendance est gonflée par des robots. La réaction à tout cela a été inadéquate. Il y a des choses qui sont agressives.
    J'ai une question pour Twitter et Facebook. Lorsqu'un utilisateur signale une publication, très souvent, on précise que la chose reprochée n'enfreint pas la politique, mais c'est tout de même quelque chose d'agressif aux yeux de l'utilisateur. On nous dit que la publication n'enfreint pas la politique, mais c'est tout de même quelqu'un qui ment, qui attaque, et la personne visée se sent vulnérable. Très souvent, il ne se passe rien parce que vos politiques ne sont pas enfreintes.
    De plus, pour ce qui est de toute la question de l'authentification, lorsque les comptes sont authentifiés grâce à des crochets bleus, même les autres comptes peuvent être bloqués. Certaines personnes disent « identifiez-vous » et bloquent tous les comptes. Parallèlement, il y a des milliers de faux comptes, et rien ne se fait, même si on les signale. Il y a des utilisateurs qui signalent constamment ces faux comptes. Pourquoi avez-vous une politique différente?

  (1200)  

    Donnez une réponse brève, s'il vous plaît.
    Nous nous efforçons de rajuster nos politiques. Il y a des choses qui vont à l'encontre de nos règles, et d'autres qui ne constituent pas des infractions, même si les gens ne les aiment pas. C'est ce que nous appelons, à l'interne, l'écart. Ce que nous avons fait et ce que nos équipes font, c'est essayer d'éliminer ces problèmes, morceau par morceau, et de comprendre quelles sont les attentes de nos utilisateurs qui ne correspondent pas à leur expérience.
    Notre approche est, encore une fois, très cohérente. Nous voulons que les gens se sentent à l'aise et en sécurité en ligne. Nous ne voulons pas miner l'expression publique, et ce sont des enjeux que nous avons beaucoup à cœur et relativement auxquels nous nous sentons visés personnellement.
    Merci.
    Nous allons maintenant passer au Royaume du Maroc pour cinq minutes.

[Français]

    Je remercie également l'équipe sympathique qui nous fait l'honneur d'être ici aujourd'hui: Kevin Chan, Derek Slater, Neil Potts, Carlos Monje et Michele Austin. Nous aurions souhaité que M. Mark Zuckerberg soit des nôtres, mais il nous a fait faux bond. Nous espérons le revoir à une autre occasion.
    J'ai été très attentif à deux propositions de M. Chan. Je tiens ici à faire une précision de nature linguistique, à l'intention des interprètes: quand j'utilise le terme « proposition », en anglais, cela renvoie au terme « proposition », et non « proposal ».
    En présentant les enjeux que soulève sa compagnie, M. Chan disait qu'il n'appartenait pas qu'à Facebook de les résoudre. Nous sommes tout à fait d'accord sur ce point.
    Ensuite, toujours au sujet de ces enjeux, il a ajouté qu'il fallait protéger la société des conséquences. Bien sûr, ces plateformes présentent des avantages sur le plan social. Cependant, nous parlons aujourd'hui des troubles sociaux qu'elles engendrent; c'est ce qui nous interpelle plus que jamais.
    Facebook, Twitter et YouTube se voulaient, dans un premier temps, une évolution numérique, mais cela s'est transformé en révolution numérique. En effet, cela a mené à une révolution des systèmes, à une révolution contre les systèmes, à une révolution du comportement, et même à une révolution de notre perception du monde.
    Il est vrai qu'aujourd'hui, l'intelligence artificielle dépend de l'accumulation massive de données personnelles. Cela étant, cette accumulation met à risque d'autres droits fondamentaux, car cela repose sur des données qui peuvent être faussées.
    Au-delà de l'aspect commercial et du profit, ne serait-il pas opportun pour vous aujourd'hui de tenter un sursaut moral, voire une révolution morale? Après avoir permis ce succès fulgurant, pourquoi ne pas désormais mettre l'accent beaucoup plus sur l'homme que sur l'algorithme, moyennant que vous imposiez au préalable des restrictions strictes, dans un souci de promouvoir la responsabilité et la transparence?
    On se demande parfois si vous manifestez autant d'intérêt quand la désinformation ou les discours haineux surviennent dans des pays autres que la Chine ou situés ailleurs qu'en Europe ou en Amérique du Nord, entre autres.
    On ne s'explique pas toujours que des jeunes, voire des enfants, puissent mettre en ligne des vidéos montées de toutes pièces qui contiennent des scènes obscènes, des commentaires insultants ou des gros mots. On trouve cela inacceptable. Parfois, on trouve que cela s'écarte de la finalité de ces outils, de la règle commune et de la norme sociale admise.
    Nous ne sommes pas là pour vous juger ni pour faire votre procès, mais beaucoup plus pour vous implorer de prendre nos remarques en considération.
    Merci.

  (1205)  

    Merci beaucoup, monsieur Ouzzine.
    Encore une fois, permettez-moi de vous répondre en anglais. Ce n'est pas parce que je ne veux pas vous répondre en français, mais je pense que je serai plus clair en anglais.

[Traduction]

    Je serai heureux de répondre à la première question liée à ce dont vous parlez, les humains contre les machines ou les humains contre les algorithmes. Honnêtement, je crois qu'on a besoin des deux, parce que, évidemment, on parle de quantités astronomiques. Il y a plus de 2 milliards de personnes sur la plateforme. Par conséquent, pour dissiper certaines des préoccupations soulevées ici par les membres, nous avons besoin de systèmes automatisés qui peuvent cerner de façon proactive certains des problèmes.
    Pour revenir à la première question de M. Collins, je crois qu'il est tout aussi important d'inclure des humains dans tout ça, parce que, au bout du compte, le contexte aidera à déterminer si, oui ou non, quelque chose est malveillant. Le contexte est donc extrêmement important.
    Si vous me le permettez, monsieur, en ce qui concerne les enjeux humains, je crois que vous mettez le doigt sur quelque chose de très important. C'est quelque chose que j'avais déjà mentionné. Selon moi, il ne faut pas que les entreprises comme Facebook prennent toutes les décisions de ce genre. Nous le comprenons. Je crois que les gens veulent plus de transparence et qu'ils veulent mieux comprendre de quelle façon nous prenons nos décisions en ce qui concerne les choses qui restent, et celles qu'on retire.
    Je peux vous dire que, au cours des derniers mois, y compris au Canada, nous avons entrepris un processus de consultation international auprès d'experts de partout dans le monde pour obtenir des commentaires sur la façon de créer un comité d'appel externe de Facebook, une entité qui serait indépendante de Facebook et qui prendrait des décisions sur les questions très difficiles liées au contenu. Selon nous, il y a une question qui se pose — du moins là où nous en sommes dans notre réflexion quant à ce que nous proposerons —, et c'est celle de savoir si les décisions d'un tel comité seraient publiques et contraignantes pour Facebook. C'est un peu ainsi que nous avons imaginé tout ça. En outre, nous recevons des commentaires et nous continuerons de consulter les experts. Notre engagement, c'est que ça soit prêt d'ici la fin de 2019.
    Assurément, nous comprenons que c'est difficile sur notre plateforme. Nous voulons miser à la fois sur des humains et sur des algorithmes, si vous voulez, mais nous comprenons aussi que les gens feront plus confiance aux décisions s'il y a un comité d'appel, au bout du compte, et c'est ce que nous mettrons en place d'ici la fin de 2019.
    Bien sûr, nous sommes ici aujourd'hui pour discuter de la question plus générale des cadres réglementaires qui devraient s'appliquer à tous les services en ligne. De ce côté-là, encore une fois, évidemment, l'aspect humain sera incroyablement important. Je vous remercie donc, monsieur, d'avoir soulevé cet enjeu, parce que c'est exactement ce que, selon moi, nous tentons de faire, soit de trouver le juste équilibre et de mettre en place le bon cadre pour la plateforme, mais aussi à l'échelle de tous les services en ligne.
    Merci, monsieur Chan.
    Nous allons maintenant passer à l'Équateur pour cinq minutes.
     [La déléguée s'exprime en espagnol. Traduction de l'interprétation.]
    Merci beaucoup.
    Je veux revenir sur certaines des préoccupations qui ont déjà été soulevées durant la réunion et aussi exprimer une grande préoccupation au sujet des gazouillis et de Twitter et de la prolifération de faux comptes non détectés. Ces comptes restent de toute évidence actifs très longtemps sur les médias sociaux et génèrent, dans la plupart des cas, des messages et des tendances de nature négative contre différents groupes, tant des groupes politiques que des entreprises et des syndicats de différents secteurs.
    Je ne sais pas quels mécanismes vous avez décidé d'adopter pour authentifier ces comptes, parce que ce sont des comptes qui sont liés à des centres de trolls ou des usines à trolls, qui, en Équateur, apparaissent vraiment souvent, et la tendance se maintient. Ces centres disséminent des messages à grande échelle, des messages malveillants qui vont à l'encontre de l'information réelle et véridique et qui déforment vraiment les points de vue.
    Plutôt que de continuer à souligner les problèmes qui ont déjà été mentionnés, je vous prie de réfléchir à des mécanismes de vérification des faits pouvant détecter ces comptes rapidement, parce qu'il est évident que vous ne le faites pas aussi rapidement qu'il le faut, ce qui permet à des messages nuisibles de proliférer et de générer différentes pensées en plus de déformer la vérité sur beaucoup de sujets.
    Je ne sais pas quelles sont les options, en pratique, ni ce que vous faites concrètement pour éviter ou prévenir ce genre de choses et pour prévenir l'existence de ces centres de trolls et la création de faux comptes, qui sont extrêmement nombreux.

  (1210)  

    Merci. C'est exactement la bonne question à poser, et c'est un sujet sur lequel nous travaillons chaque jour.
    Je tiens à souligner que notre capacité de cerner, de perturber et d'éliminer les activités d'automatisation malveillantes s'améliore chaque jour. Nous cernons — je me suis trompé précédemment — 425 millions de comptes, c'est le nombre de comptes que nous avons contestés en 2018.
    Premièrement, il faut mettre fin aux mauvaises activités coordonnées constatées sur la plateforme. Deuxièmement, nous devons travailler pour soutenir des personnes dont les messages sont crédibles, comme les journalistes, les politiciens, les experts et la société civile. Partout en Amérique latine, nous travaillons avec la société civile — surtout dans le contexte des élections —, pour comprendre quand les principaux événements se produisent, afin de pouvoir cibler nos efforts d'application de la loi en conséquence et de donner plus de renseignements contextuels aux gens sur les personnes qu'ils ne comprennent pas.
    Je vais vous donner un exemple, parce qu'on a peu de temps. Si vous allez sur Twitter actuellement, vous pouvez voir la source du gazouillis, ce qui signifie que vous pouvez savoir si le message vient d'un iPhone, d'un appareil Android, de TweetDeck ou de Hootsuite ou d'une des autres façons utilisées par les gens pour coordonner leurs activités sur Twitter.
    Le dernier élément d'information — ou la façon de penser à tout ça — concerne la transparence. Selon nous, notre approche doit consister à faire silencieusement notre travail pour nous assurer que la plateforme reste saine et solide. Lorsque nous cernons des activités d'information précises parrainées par un État, nous communiquons publiquement notre découverte. Nous avons une interface de programmation d'applications publiques très transparente que tout le monde peut consulter. Nous apprenons et nous nous améliorons en raison des travaux que des chercheurs ont réalisés — tout comme les gouvernements — dans cet ensemble de données.
    Selon moi, c'est un enjeu extrêmement complexe. L'une des choses que vous avez mentionnées, c'est qu'il est facile pour nous d'identifier les gazouillis partagés instantanés et les choses automatisées du genre. C'est plus difficile de le faire lorsque les gens sont payés pour gazouiller, ou, comme on l'a vu dans le contexte vénézuélien, s'il est question de messages de trolls et de ce genre de choses.
    Nous allons continuer d'investir dans la recherche et dans la lutte contre les trolls afin de nous améliorer.
    Nous allons passer au dernier intervenant sur notre liste, puis nous recommencerons la séquence au début.
    Nous passons à Sainte-Lucie. Vous avez cinq minutes, s'il vous plaît.
    Merci, monsieur le coprésident.
    Mes questions sont destinées à Neil Potts, directeur des politiques mondiales. J'ai deux questions.
    La première est la suivante: j'aimerais que lui et Facebook m'aident à comprendre et à savoir, de façon générale, s'ils comprennent le principe des « branches égales de gouvernement ». Il semble, à la lumière de ce qu'il a dit précédemment dans sa déclaration préliminaire qu'il est prêt à nous parler, ici, et qu'il accepte de le faire et que M. Zuckerberg parlera aux gouvernements. Cela montre un... Je ne comprends pas... Il ne se rend pas compte du rôle très important que nous jouons en tant que parlementaires dans cette situation.
    Ma question suivante concerne la référence à la vidéo de Nancy Pelosi et à la déclaration qu'il a faite relativement au Sri Lanka. Il a dit que les vidéos seraient seulement retirées en cas de violence physique.
    Permettez-moi de formuler une déclaration, ici. Les comptes Facebook du premier ministre de Sainte-Lucie ont été « piratés » ou « répliqués » — peu importe comment vous voulez le dire — et il s'efforce maintenant d'informer les gens qu'il s'agit d'une fausse vidéo ou d'un faux compte. Pourquoi est-ce que cela se produit? Si on mentionne que c'est un faux, c'est un faux et ça ne devrait pas...
    Permettez-moi de lire un extrait du faux... Voici ce qui est dit au sujet d'une subvention. Je cite:
C'est une subvention des Nations unies pour les gens qui ont besoin d'aide pour payer leurs factures, commencer un nouveau projet, bâtir des maisons, parrainer des écoles, lancer une nouvelle entreprise ou soutenir une entreprise qui existe déjà.
Les fonds démocratiques et les services humains des Nations unies aident les jeunes, les personnes âgées, les retraités ainsi que les personnes handicapées de la société...
    Lorsqu'on publie une telle déclaration, c'est un acte de violence contre certaines populations vulnérables de notre société. Il faut retirer le message. On ne peut pas attendre qu'il y ait de la violence physique. Ce n'est pas seulement la violence physique qui est de la violence. Si c'est le cas, il n'est pas nécessaire qu'il y ait de la violence lorsqu'on parle de relations entre les sexes ou peu importe. De la violence, c'est de la violence, qu'elle soit psychologique ou physique.
    C'est la question que je vous pose, monsieur. Ne faudrait-il pas que ces vidéos, ces pages, soient retirées immédiatement une fois qu'elles sont identifiées comme étant fausses?

  (1215)  

    Si quelqu'un se fait passer pour un membre du gouvernement, nous allons retirer tout ça si nous en sommes informés. Je ferai un suivi auprès de vous après l'audience pour m'assurer que nous avons l'information nécessaire et que nous pourrons la transmettre à notre équipe afin d'agir rapidement.
    Si vous me permettez, peut-être, de revenir sur quelques-unes des autres conversations que nous avons ici, un thème qui semble revenir, c'est l'idée que M. Zuckerberg et Mme Sandberg ne sont pas ici parce qu'ils fuient leurs obligations d'une façon ou d'une autre. Ils ont demandé à M. Chan et à moi-même — et ils nous ont autorisés — de comparaître devant le Comité pour travailler avec vous tous. Nous voulons le faire en misant vraiment sur la coopération. Ils comprennent leurs responsabilités. Ils comprennent l'idée des branches égales du gouvernement, qu'il s'agisse de la branche législative, de la branche exécutive ou de la branche judiciaire. Ils comprennent ces notions et sont prêts à travailler. Nous sommes ici maintenant pour travailler sur...
    Avec tout le respect que je vous dois, monsieur Potts, permettez-moi de vous interrompre un instant.
    À cet égard, ce n'est pas votre décision de déterminer si vous allez venir ou non. Le Comité a demandé à M. Zuckerberg et Mme Sandberg de venir, c'est très simple, pour comparaître devant notre Grand Comité international. Nous représentons 400 millions de personnes, alors quand nous demandons à ces deux personnes de venir, c'est exactement ce à quoi nous nous attendons. C'est un peu un manque de respect de Mark Zuckerberg et de Mme Sandberg de tout simplement choisir de ne pas venir. Cela montre tout simplement qu'ils ne comprennent pas bien ce que nous faisons, en tant que législateurs, comme le représentant de Sainte-Lucie l'a souligné. L'expression « nous faire faux bond », eh bien je crois qu'on peut la répéter, mais il faut souligner qu'ils ont été invités à comparaître et qu'on s'attendait à ce qu'ils comparaissent et qu'ils ont choisi de ne pas le faire. Vous envoyer vous deux en tant que remplaçants n'est tout simplement pas acceptable.
    Je vais revenir à M. Daniel, de Sainte-Lucie.
    Merci, monsieur Zimmer. Je veux que ce soit clair. Je ne connais pas les procédures du Parlement canadien et les exigences en matière de comparution. Je respecte tout ça, mais je tiens à dire à nouveau pour le compte rendu que nous sommes déterminés à travailler avec le gouvernement et à être responsables relativement à ces enjeux.
    De plus...
    Je dirais, monsieur Potts, que si c'était le cas, les personnes demandées seraient assises à votre place actuellement.
    Poursuivez.
    De plus, pour répondre à une autre question qui, selon moi, revient souvent et qui concerne la façon dont nous identifions et retirons certains éléments de contenu, nous pouvons retirer du contenu pour une diversité de types d'abus. Ce n'est pas seulement en cas de violence. Dans ce cas précis, lorsqu'on parle de mésinformation, la diffusion de certaines images, comme on l'a vu au Sri Lanka et dans d'autres pays, nous avons retiré les images parce qu'elles pouvaient mener à de la violence. Cependant, nous avons des politiques qui concernent des choses comme le discours haineux, où la violence n'est pas nécessairement imminente. Il peut y avoir des choses comme des renseignements personnels qui permettent d'identifier les gens, l'intimidation — que nous prenons très au sérieux — et d'autres choses qui ne mènent pas nécessairement à la violence, mais nous appliquons quand même ces politiques directement et nous essayons de le faire le plus rapidement possible.
    Nous avons maintenant 30 000 personnes à l'échelle internationale qui s'en occupent. Quelqu'un a dit précédemment qu'il fallait compter sur des gens qui ont les renseignements contextuels nécessaires pour faire le travail. Dans le cas de tous les pays qui sont représentés ici, je tiens à dire que, parmi ces 30 000 personnes, il y a 15 000 modérateurs de contenu qui parlent plus de 50 langues. Ils travaillent 24 heures sur 24 et 7 jours sur 7. Certains travaillent dans les pays qui sont représentés ici aujourd'hui. Nous prenons ces choses très au sérieux.
    De plus, nous sommes déterminés à travailler avec nos partenaires — les gouvernements, la société civile et les universités — afin de trouver des réponses qui, selon nous, sont adaptées à de tels enjeux. Je crois que nous reconnaissons tous que ce sont des enjeux très complexes et qu'il faut faire la bonne chose. Tout le monde ici, selon moi, veut assurer la sécurité des membres de notre communauté, qui comptent tous parmi vos électeurs. Selon moi, nous partageons les mêmes objectifs. Il faut tout simplement s'assurer de le faire de façon transparente dans le cadre de nos discussions et d'en venir à une situation où nous pouvons nous entendre sur la meilleure marche à suivre. Merci.
    Merci.
    On vient de porter à mon attention une incohérence dans votre témoignage, monsieur Potts.
    D'un côté, M. Collins a posé une question au sujet de la vidéo de Mme Pelosi, et vous avez dit que vous n'alliez pas la retirer. Puis, 30 minutes ou une heure plus tard, vous venez de répondre au représentant de Sainte-Lucie et affirmer que vous la retireriez immédiatement. Je tiens à ce que vous compreniez très bien qu'on s'attend de vous que vous disiez toute la vérité au Comité en ce moment, et ce, sans incohérence dans votre témoignage.

  (1220)  

    Monsieur Zimmer, si j'ai été incohérent, je m'en excuse, mais je ne crois pas avoir répondu à cette question différemment. Si j'avais la transcription, évidemment, je pourrais vous dire où j'ai fait une erreur et je pourrais corriger le tir immédiatement.
    Encore une fois, lorsqu'il est question de mésinformation qui ne mène pas immédiatement à des préjudices, notre approche consiste à atténuer la portée de l'information, à informer les utilisateurs de la fausseté de l'information et à éliminer les comptes inauthentiques. Si quelqu'un agit de façon inauthentique et fait semblant d'être quelqu'un d'autre, ce sera retiré. L'authenticité est au centre de nos principes; nous voulons des personnes authentiques sur notre plateforme. C'est la raison pour laquelle nous exigeons les vrais noms des gens.
    La question que, selon moi, M. Collins posait concernait la vidéo en tant que telle. L'utilisateur ne communiquait pas la vidéo de façon inauthentique. Il s'agissait d'une vraie personne, et il y avait une vraie personne derrière la page. Ce n'est pas un compte de troll ou un robot ou quelque chose du genre. Ce genre de choses, nous les éliminerions.
    Si je me suis mal exprimé, je m'en excuse, mais je veux que ce soit clair que je ne crois pas que mon...
    Je ne crois pas que ce soit plus clair pour quiconque dans la salle, mais je vais passer au prochain intervenant.
    Nous allons passer à M. Baylis, pour cinq minutes.
    Merci. Je vais commencer par M. Slater.
    Il y a deux ou trois semaines, nous avons accueilli un de vos collègues qui nous a dit que Google n'allait pas se conformer au projet de loi C-76, notre nouvelle loi sur la campagne électorale. Je lui ai demandé pourquoi, et il a répondu: « Eh bien, nous ne pouvons pas faire le travail de programmation en six mois ».
    Je lui ai souligné que Facebook pouvait le faire, et il a dit: « Eh bien, nos systèmes sont plus difficiles et plus complexes ».
    Il a dit: « Nous ne pouvons pas le faire en six mois », alors je lui ait demandé: « D'accord, de combien de temps aurez-vous besoin? Quand cela pourra-t-il être fait? » Il m'a répondu ne pas le savoir.
    Pouvez-vous m'expliquer tout ça?
    Les représentants vous ont donné beaucoup de renseignements à cet égard, mais, si je peux ajouter mon grain de sel, oui, nous sommes un service différent, et même si nous savons que, malheureusement, nous ne pouvons pas permettre de la publicité électorale à ce moment-ci, nous aimerions pouvoir le faire à l'avenir.
    Si vous pouvez dire que vous ne pouvez pas le faire en six mois, sans pour autant savoir de combien de temps vous auriez besoin, comment pouvez-vous être vraiment sûr de ne pas pouvoir le faire en six mois alors que Facebook peut y arriver?
    Nos services sont très différents et sont assortis de caractéristiques différentes à plusieurs égards.
    Comment pouvez-vous ne pas savoir combien de temps sera nécessaire?
    C'est en partie parce que les choses continuent d'évoluer au fil du temps. C'est un espace qui évolue rapidement, tant du point de vue juridique que du point de vue de nos services. Par conséquent, pour ce qui est de savoir exactement quand cela pourrait être prêt, nous ne voulons pas mettre...
    Vous savez que vous ne pouvez pas le faire en six mois.
    Oui.
    Cependant, vous ne savez pas combien de temps cela peut prendre.
    C'est exact.
    La situation m'inquiétait, alors j'ai demandé: « Qu'arrivera-t-il, alors, si quelqu'un fait paraître une annonce sans avoir le droit de le faire? » Il a dit que je n'avais pas à m'en inquiéter, et vous savez pourquoi? Il a dit que l'entreprise allait trouver la publicité instantanément et la retirer.
    J'ai demandé: « Comment pouvez-vous faire ça? » Et il m'a répondu que l'entreprise mise sur l'intelligence artificielle et qu'une équipe est là pour s'en occuper.
    Donc, vous dites pouvoir identifier la publicité instantanément, et notre loi dit que, une fois la publicité trouvée, il faut le déclarer. Vous avez 24 heures pour la mettre dans une base de données, mais ça, vous ne pouvez pas le faire.
    Pouvez-vous m'expliquer la situation? Comment pouvez-vous avoir toute cette technologie qui vous permet d'identifier n'importe quelle publicité sur n'importe quelle plateforme instantanément, mais ne pas pouvoir demander à vos développeurs de la transférer dans les 24 heures dans une base de données? En outre, vous dites qu'il vous faudra plus de six mois pour y arriver.
    Si j'ai bien compris la question, il est plus simple d'adopter une approche plus conservatrice, une approche générale qui est plus restrictive qu'une approche selon laquelle nous allons valider qu'il s'agit d'une publicité électorale qui respecte la loi et ainsi de suite.
    Vous avez déjà pris une décision. Vous avez procédé à la validation, parce que vous la bloquez. C'est ce qu'il m'a dit. Vous le faites déjà.
    Oui. Nous pouvons bloquer quelque chose pour une diversité de raisons en cas de violation de nos politiques.
    Non. Pas vos politiques. Il parlait de « publicité politique ». Ma question était très précise.
    Vous pouvez enlever la politique, mais vous ne pouvez pas la transférer dans une base de données. J'aimerais comprendre la différence.
    Il y a une grande différence entre le fait de dire que nous allons adopter, de façon générale, une approche conservatrice, et dire, d'un autre côté: « Je vais dire clairement qu'il s'agit d'une publicité électorale légitime », et faire ce pas de plus.
    Une fois que vous constatez que c'est une publicité, vous ne permettez pas son affichage. Vous la bloquez. Vous pouvez décider instantanément que c'est une publicité, mais, une fois que vous avez décidé que c'était une publicité, c'est trop de travail de programmer votre système afin de la transférer dans une base de données. C'est ce que notre loi demande: de tout simplement mettre ça dans une base de données.
    Vous dites: « Ça, c'est quelque chose que nous ne pouvons pas faire ».
    Le besoin d'appliquer la loi précisément comme elle a été rédigée n'était pas possible pour nous dans la période qui était prévue si nous voulions bien faire les choses. En outre, si nous devons permettre des publicités électorales au pays, nous voulons être sûrs de bien faire les choses.
    C'est la décision que nous avons prise ici, malheureusement, mais nous serons heureux de travailler là-dessus à l'avenir.
    Vous pouvez affirmer ne pas pouvoir le faire en six mois — même si quelqu'un d'autre peut le faire — et affirmer être en mesure d'identifier immédiatement toute publicité n'importe où et n'importe quand, sans pour autant avoir les capacités technologiques chez Google de mettre la publicité cernée dans une base de données en 24 heures. Vous n'avez tout simplement pas la capacité de programmer une telle chose en six mois.
    Nous n'avons pas la capacité en ce moment de respecter totalement la nouvelle loi.

  (1225)  

    Vous n'avez pas la capacité. Vous êtes sérieux lorsque vous dites ça?
    Dites-vous sérieusement que vous pouvez identifier n'importe quelle publicité sur n'importe quelle plateforme, mais vous ne pouvez pas demander à vos développeurs de transférer cette information dans une base de données? Il vous faut trop de temps pour tout simplement programmer le système de façon à ce que les publicités cernées soient transférées dans une base de données.
    Je ne peux pas parler des services fournis par n'importe qui, n'importe où. Pour être clair, nous utilisons des machines et des gens pour surveiller les publicités qui sont présentées par l'intermédiaire de nos systèmes et nous assurer qu'elles respectent nos règles.
    Pour ce qui est des obligations supplémentaires, non, nous ne pouvions pas les respecter dans ce cas-ci.
    D'accord. J'ai une autre question pour Google et Facebook, une question simple.
    Je n'aime pas vos conditions d'utilisation. Qu'est-ce que je peux faire?
    Monsieur, si vous pouviez me fournir un peu plus d'explications, peut-être m'en dire un peu plus sur ce que vous n'aimez pas...
    Je n'aime pas qu'on m'espionne.
    Oh, eh bien, nous ne faisons rien de tel, monsieur.
    Vous recueillez des données à mon sujet que je ne veux pas que vous recueilliez.
    Comme vous le savez, je consacre beaucoup de temps à l'alphabétisation numérique. Ce qui est approprié, c'est que les gens ne doivent pas mettre plus d'information sur notre service qu'ils ne le souhaitent.
    Monsieur, si vous me permettez, j'aimerais fournir un point de vue un peu différent sur tout ça. Comme vous le savez, je crois, nous allons offrir un type d'expérience très différente relativement à nos produits très bientôt et les utilisateurs pourront retirer non seulement les renseignements qu'ils ont communiqués sur le service, mais aussi les renseignements qui s'y trouveraient en raison de l'intégration avec d'autres services d'Internet. Nous allons donner aux gens cette fonctionnalité, alors, encore une fois, dans la mesure où une personne jugerait que ce n'est pas souhaitable, nous voulons lui donner ce contrôle.
    Merci, monsieur Baylis. Malheureusement, nous devons poursuivre.
    Les cinq prochaines minutes reviennent à M. Kent.
    Merci, monsieur le président.
    J'ai une question pour M. Chan.
    Si un employeur canadien se tourne vers Facebook et veut mettre en place une publicité liée à l'emploi misant sur un microciblage en fonction de l'âge et du sexe en excluant d'autres groupes démographiques, Facebook accepterait-elle de faire une telle publicité?
    Monsieur, merci de la question. Encore une fois, je tiens aussi à vous remercier de nous avoir invités à participer à votre récente table ronde à Oshawa. C'est quelque chose dont nous sommes très reconnaissants.
    Ce serait une violation de nos politiques, alors ce ne serait pas accepté.
    Nous avons deux ou trois choses, et je crois comprendre là où vous voulez en venir...
    Si vous me le permettez, parce que j'ai peu de temps... Serez-vous surpris d'apprendre que l'opposition officielle au Parlement a reçu une réponse à une question inscrite au Feuilleton aujourd'hui selon laquelle plusieurs ministères du gouvernement du Canada ont placé des publicités assorties de ces mêmes conditions de microciblage et que le nom de votre entreprise revient plusieurs fois?
    Monsieur, comme vous le savez, cette information a été dévoilée grâce aux reportages incroyablement détaillés d'Elizabeth Thompson de CBC; cette information appartient également au domaine public, car c'est là que j'ai lu la nouvelle en premier.
    Vous devriez savoir que cela constitue une violation de notre politique, monsieur. Ces derniers temps, nous avons pris des mesures assez énergiques pour éliminer toute une série de pratiques de ciblage différentes à l'égard de ces types d'annonces. Pour ce qui est des annonces concernant le logement, l'emploi et le crédit, pour être précis, nous avons également exigé de tous les annonceurs qu'ils garantissent à l'avenir qu'ils ne diffuseront pas d'annonces relatives au logement ni au crédit.
    Avez-vous informé le gouvernement libéral du Canada du fait que cette pratique de microciblage qu'il emploie ne sera plus acceptée à l'avenir? Répondez simplement par oui ou non.
    Nous avons envoyé des courriels à tous les administrateurs pour leur dire qu'ils ne peuvent pas utiliser cette pratique.
    Pour en revenir à la question originale de M. Collins au sujet de la vidéo manipulée, sexiste et politiquement hostile dont on a autorisé la diffusion continue sur votre plateforme Facebook, je crois comprendre que, après que le Washington Post a communiqué avec Facebook, une déclaration a été publiée disant: « Nous n'avons pas de politique [...] exigeant que les renseignements que vous affichez sur Facebook soient véridiques. »
    D'après vos réponses antérieures, il semblerait que Facebook refuse de retirer cette vidéo politiquement hostile, plaidant une défense pervertie de liberté d'expression, et que 24 heures après que le Washington Post vous a informé de la situation, ce même journal a signalé que le nombre de visionnements sur une seule page Facebook a atteint plus de 2,5 millions, chiffre qui se multiplie nombre de fois si on inclut d'autres pages Facebook.
    Si un événement du genre se produisait pendant l'élection canadienne — si une vidéo semblable montrant un politicien canadien, peut-être le chef de l'un des partis, était manipulée et publiée de la même manière pour donner l'impression que la personne souffre d'un handicap mental ou qu'il est en état d'ébriété —, est-ce que Facebook retirerait cette vidéo ou est-ce que votre intervention se limiterait à donner des réponses semblables à celles que vous avez fournies à M. Collins, soit de dire simplement que ce n'est pas vrai, malgré le fait que certains continuent d'exploiter la fausseté de la vidéo?

  (1230)  

    Monsieur, mettons simplement de côté la vidéo en question qui provient des États-Unis. Nous examinons la question, et depuis plus de deux ans, je me penche personnellement sur la question afin de trouver des façons de mieux sécuriser la plateforme en vue des élections à venir.
    Je peux vous dire que, lorsque nous recevons des demandes provenant de diverses personnes et parties et de divers secteurs, dans 99 % des cas où nous trouvons quelque chose qu'on nous a signalé, nous allons en fait au-delà du contenu. Nous ne cherchons pas le contenu. Nous cherchons le comportement.
    Mais supprimeriez-vous la vidéo?
    Si elle provient d'un faux compte ou que ce semble être un contenu indésirable, ou si la vidéo viole d'une manière ou d'une autre les normes d'une communauté, il est certain que nous la supprimerions.
    Je peux vous assurer que dans presque tous les cas, j'ai...
    Mais elle est fausse. Ce n'est pas la vérité. Est-ce que Facebook défend toujours le concept selon lequel le contenu n'a pas à être véridique pour se retrouver sur sa plateforme?
    Monsieur, je crois comprendre où vous voulez en venir. Si vous me le permettez, la façon dont j'aimerais en parler est la suivante...
    Un oui ou un non suffira.
    C'est pourquoi nous sommes ici. Nous serions favorables à...
    Donc, tout ceci est une expérience d'apprentissage pour vous?
    Des voix: Ha, ha!
    Monsieur Kent...
    Je pose la question avec respect et courtoisie.
    Nous accueillerions favorablement des normes de base que les législateurs pourraient imposer à la plateforme à propos de ce qui devrait être publié et de ce qui devrait être supprimé. Si les législateurs, avec leur sagesse, souhaitent établir certaines limites qui pourraient relever ou non de la censure, il est certain que nous appliquerions la loi locale.
    Je vais peut-être terminer par un commentaire.
    Chris Hughes, un cofondateur désillusionné de Facebook, qui est devenu en quelque sorte un dénonciateur pour certains, a dit: « Quelques règles de plus ne font pas peur à Facebook. Facebook craint qu'il y ait une action antitrust. »
    Étiez-vous au courant que, dans des démocraties du monde entier, vous vous rapprochez de plus en plus d'une action antitrust?
    Je suis au courant de nombreuses questions qui concernent la réglementation à l'échelle mondiale, oui, monsieur.
    Merci.
    Merci, monsieur Kent.
    Simplement pour que vous soyez au courant, je tiens à rappeler à tous le déroulement de la période de questions. Tout d'abord, il y aura une question par délégation, par pays. Vous pouvez voir comment l'ordre a été établi. Puis, il y aura différentes rondes jusqu'à ce que tous les membres aient eu la chance de poser une question. Par exemple, le prochain membre de la délégation poserait la question suivante, etc.
    À l'heure actuelle, nous avons le deuxième membre de la délégation du Royaume-Uni, M. Lucas. Il posera la prochaine question de cinq minutes, ou ce sera peut-être Jo Stevens.
    Préparez-vous en conséquence. Je me tournerai peut-être vers différents pays. Si vous avez un deuxième délégué, la personne aura la possibilité de poser une question également.
    Allez-y, madame Stevens, vous avez cinq minutes.
    Monsieur Potts et monsieur Chan, je tiens à vous remercier d'être présents aujourd'hui, mais mes collègues et moi-même du Parlement du Royaume-Uni souhaitions poser nos questions à Mark Zuckerberg. Il ne voulait pas venir répondre à nos questions à Londres, dans notre Parlement, alors nous avons traversé l'Atlantique pour lui faciliter la tâche. Nous pouvons seulement conclure que l'examen de ses pratiques l'effraie. Pour éviter tout doute, j'en ai assez de passer des heures assise à entendre les représentants de Facebook dire des platitudes et employer des tactiques d'évitement pour ne pas répondre aux questions. Je veux que le patron prenne ses responsabilités, donc je vous prie de transmettre ce message à M. Zuckerberg.
    J'aimerais poser une question aux représentants de Google.
    Dans tous les autres secteurs, le monopole de votre entreprise aurait été déjà démantelé. Que faites-vous à l'heure actuelle pour vous préparer à cette éventualité?
    Je pense que nous travaillons très fort pour montrer à nos utilisateurs et aux organismes de réglementation que nous apportons de la valeur au marché et à nos utilisateurs. Ils comprennent clairement — que ce soit en utilisant nos cartes à partir de leur compte ou en mode de navigation privée, en utilisant Gmail ou nos services d'infrastructure — que nous leur offrons une certaine valeur et que nous jouons un rôle positif sur le marché en leur offrant non seulement de la valeur en ce qui a trait aux services informatiques, mais aussi des produits et des services qui favorisent la croissance des entreprises dans le monde.
    Nous pensons que les organismes de réglementation ont le droit et, certainement, l'obligation de surveiller nos activités et de les examiner à l'intérieur du cadre de leurs compétences locales. Nous participerons à ce processus et essaierons d'expliquer de quelle manière nous offrons cette valeur tout en respectant les obligations prévues par les règlements, d'après leur interprétation.

  (1235)  

    Toutefois, vous ne prenez actuellement aucune mesure pour vous préparer en vue d'actions futures.
    En ce moment, nous nous concentrons sur la prestation de services qui comblent et anticipent les besoins de nos utilisateurs.
    Je pourrais peut-être poser une question au sujet d'une audience en particulier durant laquelle un représentant de Facebook a témoigné en février 2018. Lorsque nous avons interrogé le représentant de Facebook au sujet de Cambridge Analytica à Washington, on ne nous a pas informés de l'incident de données impliquant Cambridge Analytica et Aleksandr Kogan.
    Monsieur Potts, en ce qui a trait à la transparence, dont vous avez parlé, pourquoi n'avons-nous pas été informés de l'incident touchant Cambridge Analytica, que nous avons précisément soulevé ce jour-là?
    Merci, monsieur Lucas.
    Je suis désolé, mais je ne suis pas certain de ce qui s'est passé au cours de cette audience. Je peux essayer de trouver précisément ce qui a été présenté et les données fournies, mais malheureusement, je ne m'en souviens pas.
    C'est dans le domaine public. La raison pour laquelle nous voulons que Mark Zuckerberg vienne ici, c'est parce que nous voulons des réponses claires de dirigeants de Facebook à des questions précises que nous avons posées.
    Monsieur Chan, pouvez-vous répondre à la question pour moi?
    Monsieur, je ne veux pas parler à tort et à travers, mais nous ne sommes pas au courant de ce qui s'est passé en février 2018, si c'est bien le mois dont vous avez parlé. Nous pouvons certainement nous pencher sur la question.
    Je peux vous dire exactement ce qui s'est passé. Je pourrais lire la réponse. Nous avons soulevé la question de Cambridge Analytica, l'incident lié aux données et le problème relatif à Cambridge Analytica. On ne nous a pas dit qu'il y avait eu un incident lié à des données impliquant Aleksandr Kogan, lequel a fait les manchettes dans les deux mois suivants. Vous êtes au courant de l'incident, je présume.
    Nous sommes au courant de la situation de Cambridge Analytica. Encore une fois, nous ne savons pas ce qui a été dit.
    Avez-vous considéré l'incident impliquant Cambridge Analytica comme étant grave?
    Oui, monsieur Lucas.
    Savez-vous quelles mesures ont été prises par les dirigeants de Facebook lorsque l'incident de Cambridge Analytica impliquant Aleksandr Kogan...? Quelles mesures ont été prises? Le savez-vous?
    Si je comprends bien votre question, depuis 2014, nous avons réduit considérablement...
    Je vous ai posé une question précise. Quelles mesures ont été prises par les dirigeants de Facebook lorsque vous avez été mis au courant de l'incident impliquant Cambridge Analytica? Je choisis mes mots très soigneusement; la majorité des gens emploieraient des termes moins sympathiques. Certaines personnes qualifieraient cette situation d'atteinte à la sécurité des données, mais en ce qui a trait à l'incident impliquant Aleksandr Kogan, quelles mesures ont été prises par les dirigeants de Facebook?
    En ce qui concerne précisément l'application d'Aleksandr Kogan, elle a été bannie de la plateforme.
    Qui a pris la décision?
    L'entreprise... Je ne saurais vous dire. Si vous cherchez une personne en particulier, je ne peux vraiment pas vous dire, mais l'entreprise...
    La personne en particulier à qui j'aimerais poser la question, c'est Mark Zuckerberg, car j'aimerais savoir s'il était au courant de l'incident à ce moment-là. Le savait-il?
    J'ai posé la question à Mike Schroepfer, et il m'a dit qu'il me reviendrait avec la réponse. C'était l'été dernier. Mark Zuckerberg était-il au courant de cette atteinte à la sécurité des données en 2015?
    Monsieur, nous serons ravis de vous fournir une réponse. Quant au fait que vous n'avez pas reçu de réponse, ce que vous semblez dire, nous sommes désolés. Il est évident que nous voulons toujours collaborer quant aux questions...
    Puis-je vous arrêter là?
    Monsieur Potts, vous avez dit que l'incident était grave. Pouvez-vous me donner un exemple d'entreprise ou de personne qui a été retirée de la plateforme de Facebook pour le type de brèche ou d'incident survenu impliquant Aleksandr Kogan et touchant la communication de renseignements?
    Je pense que vous venez tout juste d'en nommer une. Monsieur Lucas, je ne m'occupe pas directement des questions de protection des renseignements personnels. Ces questions sont traitées par une équipe distincte.
    Je tiens à dire que, comme M. Chan l'a dit, nous nous engageons à vous revenir avec une réponse. J'ai eu le plaisir de témoigner devant un comité récemment et...

  (1240)  

    Je suis désolé, monsieur Potts. Nous voulons la simple honnêteté, qui est une valeur universelle, et il y a des gens des quatre coins du monde à cette table. Nous comprenons tous l'honnêteté. Nos systèmes juridiques diffèrent...
    Je suis tout à fait...
    ... et je veux des réponses directes. J'ai entendu quatre témoignages de votre part.
    Monsieur Lucas, je suis tout à fait d'accord avec vous en ce qui a trait à l'honnêteté et...
    Je suis désolé, monsieur Potts...
    ... et ce n'est pas rien que d'attaquer l'intégrité d'une personne.
    Monsieur Potts, la priorité est accordée aux membres du Comité, et M. Lucas a la parole.
    Allez-y, monsieur Lucas.
    Je n'ai pas reçu de réponse directe de la part de votre entreprise. Vous avez été envoyé ici par M. Zuckerberg pour parler au nom de Facebook. Il a été informé de ces questions suffisamment à l'avance.
    Je suis désolé, monsieur, laissez-moi simplement... Si je comprends bien, votre question est la suivante: y a-t-il d'autres applications qui ont été bannies de Facebook pour utilisation inappropriée ou abusive de la plateforme? La réponse est oui.
    Pour le transfert des données...
    Le temps est écoulé; je vais devoir donner la parole au prochain intervenant. Il s'agit de M. Lawless de l'Irlande.
    Monsieur le président, merci de nous inviter ici aujourd'hui. Je suis ravi d'être présent.
    Au sein de notre comité irlandais, nous avons bien évidemment dialogué avec les entreprises et nous avons rencontré M. Zuckerberg à Dublin récemment.
    Je dois dire que je salue la participation des représentants des compagnies technologiques qui sont ici présents, mais je trouve extraordinaires certaines des déclarations qui ont été faites, notamment celle de M. Potts, il y a quelques minutes, selon laquelle il ne connaissait pas la procédure parlementaire, et c'était peut-être pour expliquer certaines lacunes dans son témoignage.
    Je trouve également extraordinaire le fait que certains des témoins ne soient pas au courant de ce qui a été dit lors d'audiences ou de discours antérieurs à propos de ces enjeux dans chacun de nos parlements. J'aurais cru que c'était une condition fondamentale pour entrer dans la pièce, si vous vouliez être qualifié pour faire le travail. C'est le bémol que je mets à mes questions. C'est décevant. Je veux que cela figure au compte rendu.
    Pour en revenir aux questions spécifiques, nous avons entendu — aujourd'hui et par le passé — beaucoup de choses, dont certaines sont positives et plutôt encourageantes, à supposer que nous les croyons, de la part de représentants de divers échelons. Toutefois, je suppose que les actes sont plus éloquents que les mots; c'est ma philosophie. Aujourd'hui, nous avons beaucoup entendu parler du scandale impliquant Cambridge Analytica et Kogan. Encore une fois, je tiens à dire pour le compte rendu que le commissaire à la protection des données de l'Irlande a relevé ce problème en 2014 et en a avisé les dirigeants de Facebook. Cependant, je crois comprendre qu'il n'y a pas eu de suivi. Je pense qu'il a fallu deux ou trois ans avant qu'on fasse quelque chose. Tout ce qui s'est produit depuis aurait potentiellement pu être évité si des mesures avaient été prises et qu'il y avait eu un suivi à l'époque.
    Encore une fois, je reviens là-dessus pour mettre les entreprises à l'épreuve concernant les mesures réellement prises, je suppose. Les premières questions s'adressent aux représentants de Facebook.
    Nous avons entendu M. Zuckerberg dire en public, et d'autres témoins l'ont répété ici aujourd'hui, que le RGPD est possiblement une norme d'excellence, qu'il s'agirait d'un bon modèle de gestion de données et qu'il pourrait éventuellement être déployé à l'échelle mondiale. Selon moi, c'est tout à fait logique. J'approuve cette mesure. Je siégeais au comité qui a intégré ce règlement au droit irlandais, et je peux voir les avantages.
    Si tel est le cas, pourquoi Facebook a-t-elle rapatrié 1,5 milliard d'ensembles de données des serveurs irlandais la nuit précédant l'entrée en vigueur du RGPD? La situation, c'est qu'une énorme portion des données mondiales de Facebook se trouvait sur le territoire irlandais, car il s'agit du territoire de l'Union européenne, et à la veille de l'adoption du RGPD — moment où, bien évidemment, le règlement serait entré en vigueur —, 1,5 milliard d'ensembles de données ont été retirés des serveurs et rapatriés aux États-Unis. Cela ne semble pas être un geste de bonne foi.
    Nous allons peut-être commencer par cette question, puis nous poursuivrons si nous avons le temps.
    Merci beaucoup, monsieur.
    Je suis tout à fait d'accord avec vous pour dire que les actes sont plus éloquents que les mots. Je pense que, dans la mesure où nous devons faire la preuve de nos intentions, dans les mois et les années à venir, nous travaillerons de sorte que nos actes témoignent de notre objectif de préserver la sécurité de notre service et de protéger les renseignements personnels des gens, et du fait que nous voulons faire la bonne chose.
    Quant à ce que vous avez dit à propos du transfert... Encore une fois, pour tout dire — déclaration complète —, je ne suis pas avocat, mais je crois comprendre que ce transfert est conforme à nos conditions de service.
    Il est conforme, mais c'est tout un hasard qu'il soit survenu la nuit avant l'entrée en vigueur du RGPD.
    Je vais poser une autre question du même genre. Je crois comprendre que les dirigeants de Facebook continuent d'interjeter appel d'un certain nombre de décisions. Le commissaire à l'information du Royaume-Uni a récemment rendu une conclusion défavorable à Facebook, laquelle a été portée en appel. Ma collègue, Hildegarde Naughton, a parlé des conclusions du commissaire à la protection des données de l'Irlande.
    Si vous levez la main et dites: « Nous avons commis certaines erreurs », et que vous faites preuve de bonne foi — ce que je saluerais si c'était le cas —, pourquoi continuez-vous d'interjeter appel de ces nombreuses décisions?

  (1245)  

    Il y a des cas... Comme les appels sont assujettis aux processus judiciaires, je crois qu'il y a des limites à ce que je peux dire aujourd'hui. Comme vous le savez probablement, nous déployons beaucoup d'efforts pour en arriver à un règlement dans d'autres affaires en cours. Je vous exhorte d'examiner nos actions à mesure que nous les rendons publiques dans le cadre de ces processus et de prendre une décision à ce moment-là.
    J'ai simplement une petite question pour les représentants de Google.
    Je crois comprendre que l'approche de Google consiste à ne diffuser absolument aucune publicité politique, du moins dans le contexte canadien. Nous avons eu une décision semblable en Irlande durant le référendum sur l'avortement il y a un an. Je suis préoccupé par cette décision, car je crois qu'elle permet à des acteurs malveillants de publier des renseignements erronés qui ne sont pas ciblés. En fait, je pense qu'il serait peut-être mieux de permettre aux acteurs politiques d'être transparents et de diffuser des publicités, dans un contexte légitime et vérifié.
    C'est tout simplement un aspect qui me préoccupe, et j'espère qu'il ne s'agit pas d'une mesure à long terme. Peut-être s'agit-il d'une mesure provisoire.
    Il me reste quelques secondes, et j'aimerais faire une observation. Tant en Irlande qu'au Canada, nous nous retrouvons dans une position où il y a de l'incertitude quant à ce que nous pouvons garantir aux électeurs. Nous voulons nous assurer de mettre en place un cadre rigoureux quant à la façon dont nous présentons les publicités et reconnaissons nos responsabilités. Comme l'a dit mon collègue plus tôt, l'un de nos objectifs à l'avenir est de mettre en place des outils, qu'il soit question d'ambiguïté ou d'acteurs malveillants, pour assurer aux utilisateurs la transparence des activités ainsi que la clarté et l'uniformité dans l'ensemble de nos produits.
    Merci, monsieur Lawless.
    Nous allons passer à notre prochaine ronde de questions.
    C'est au tour des représentants du Parlement de Singapour.
    M. Potts a dit plus tôt qu'il n'était pas au courant que les vidéos incendiaires avaient été diffusées sur Facebook. J'aimerais attirer l'attention sur le fait que, dans un article paru dans le Wall Street Journal, M. Hilmy Ahamed, vice-président du conseil musulman du Sri Lanka, a dit que des dirigeants musulmans avaient signalé les vidéos incendiaires de Hashim diffusées sur Facebook et YouTube en utilisant les services intégrés à votre système de signalement.
    Puis-je simplement confirmer avec M. Potts que, si Facebook avait été au courant de l'existence de ces vidéos, elles auraient été retirées de la plateforme?
    Oui, madame. C'est exact. Si nous l'avions su, nous aurions retiré les vidéos. Dans ce cas en particulier, je n'ai pas les données avec moi; je ne suis pas certain si nous en avons été informés, mais si cela avait été le cas, ces vidéos auraient été retirées.
    Merci.
    Par ailleurs, dans la même veine, puis-je confirmer que, si Facebook avait été au courant qu'une vidéo avait été falsifiée —et nous avons discuté du cas de Nancy Pelosi plus tôt —, Facebook aurait précisé qu'elle savait que la vidéo était falsifiée?
    Lorsque l'un de nos tiers, de nos partenaires qui vérifient les faits... Nous avons plus de 50 vérificateurs de faits à l'échelle mondiale qui adhèrent aux principes de Poynter. Ils auraient considéré la vidéo comme fausse. Nous aurions alors publié la mise en garde. Nous aurions pris des mesures dynamiques pour réduire ce type d'information et signaler non seulement aux utilisateurs qui regardent la vidéo, mais aussi à ceux qui tentent de la partager ou qui l'ont déjà fait, qu'il s'agit d'une fausse vidéo.
    Votre mise en garde dirait en fait que vous savez que les renseignements contenus sont faux.
    Elle comporterait un lien qui mène à l'article de l'un des vérificateurs de faits qui conteste son authenticité et qui affirme qu'il s'agit d'une fausse vidéo.
    Cette mise en garde serait envoyée à tous ceux qui auraient vu la vidéo originale.
    Si vous étiez en train de la visionner, vous verriez la mise en garde apparaître soit dans le bas de votre fil de nouvelles, soit peut-être sur le côté si vous utilisez un ordinateur portable. Si vous aviez partagé la vidéo, vous seriez informé du fait que la validité du contenu est contestée.
    Monsieur Chan, vous avez parlé du fait que Facebook intègre des mécanismes de ralentissement au système. Puis-je confirmer avec vous que Facebook s'est engagé à éliminer toute ingérence étrangère dans les activités politiques et les élections et que vous intégrez activement des mécanismes de ralentissement au système pour vous assurer d'éliminer une telle ingérence étrangère?
    J'imagine que vous parlez d'éventuelles mesures législatives à Singapour. Vous auriez tout intérêt à examiner la Loi sur la modernisation des élections que le Canada a mise en place...
    Ma question était assez précise. Je voulais que vous confirmiez ce que vous avez dit plus tôt, que vous intégrez des mécanismes de ralentissement au système. Vous avez précisément utilisé ce terme.
    Le Parlement nous a bien conseillés, et nous avons décidé d'intégrer des mécanismes de ralentissement au système. Vous pourriez peut-être envisager le modèle canadien au moment d'élaborer des mesures législatives ailleurs.

  (1250)  

    Merci.
    Nous avons entendu à peu près tous les délégués. Nous allons revenir au Royaume-Uni pour une autre question. Vous n'avez pas eu à partager votre temps; nous allons donc vous en accorder un peu plus.
    Nous allons écouter M. Erskine-Smith, et je pense que M. Angus avait une autre question. Madame Stevens, vous avez encore la parole, puis je pense que nous aurons terminé.
    À titre de président, je vais essayer d'accorder cinq minutes à tout le monde. Quand tout le monde aura parlé, nous demanderons à M. de Burgh Graham de suivre l'ordre. Puis, nous passerons à la deuxième série de questions de cinq minutes, donc si vous souhaitez poser une autre question, faites-le-moi savoir, et j'essaierai de vous accorder la priorité.
    Pour la suite des choses, nous écoutons M. Erskine-Smith.
    Merci beaucoup.
    Je vais simplement reprendre où j'en étais à propos de Google. Appuieriez-vous un cadre de concurrence qui intègre la protection des renseignements personnels au mandat du commissaire à la concurrence?
    Nous avons deux mécanismes de réglementation au Canada: l'un pour la concurrence, et l'autre pour la protection des données. C'est ce qui a été mis de l'avant dans la récente charte numérique du gouvernement. Les deux mécanismes feront l'objet d'un examen au cours de la prochaine année, et je pense que nous pouvons discuter de cet équilibre dans le cadre de ce processus.
    Donc les dirigeants de Google n'ont pas d'opinion à l'heure actuelle. D'accord.
    Quant à Twitter... Et je pose la question en partie parce que notre commissaire à la concurrence, sans que Facebook, précisément, soit au courant, prendra part à cette même discussion jeudi. Il n'y a pas seulement que l'organisme de réglementation allemand. On organise un forum sur les données au Centre national des Arts.
    Est-ce que les dirigeants de Twitter ont une vision de la politique de la concurrence et de la protection des renseignements personnels?
    Je vous remercie de poser la question, ainsi que d’avoir fait la distinction entre les plateformes qui sont concernées. Twitter possède une part à un seul chiffre du marché publicitaire. Nous comptons quelque 130 millions d’utilisateurs quotidiens. Nous les chérissons tous. Nous travaillons à garder leur confiance et à les tenir mobilisés, et nous surveillons de près les lois antitrust et relatives à la concurrence...
    Souscrivez-vous à l’opinion selon laquelle la protection des renseignements personnels devrait jouer un rôle de premier plan dans la loi sur la concurrence?
    Il faudrait que j’examine cette question d’un peu plus près.
    Nous répéterions les commentaires formulés par le représentant de Google. Nous attendons avec impatience...
    Alors, vous n’avez aucun point de vue, pour l’instant.
    ... de travailler sur le cadre relatif au marché, qui est le fondement de la loi sur la concurrence.
    D’accord, alors aucun d’entre vous n’a de point de vue sur une question réellement importante de notre journée.
    En ce qui concerne la responsabilité algorithmique, le gouvernement du Canada dispose maintenant d’évaluations d’impact algorithmiques. Est-ce que l’une de vos entreprises a déjà mené des évaluations d’impact algorithmiques? Facebook pour le fil d’actualités, Google pour la fonction de recommandation sur YouTube et Twitter; avez-vous mené des évaluations d’impact algorithmiques internes, oui ou non?
    Je pense que, d’une façon générale, oui. Je ne sais pas exactement ce que vous voulez dire, mais, si vous demandez si nous avons un volet de travail visant à comprendre les conséquences des algorithmes...
    À réaliser une évaluation des risques associés aux résultats positifs et négatifs des algorithmes que vous employez actuellement sur des millions de personnes...
    Monsieur, non seulement nous avons affecté une équipe à cette tâche, à l’interne, mais nous avons également mis sur pied un groupe de travail composé d’experts en matière de biais algorithmique qui se réunissent régulièrement afin de discuter de ces questions.
    Votre entreprise n’a jamais affecté des analystes à l’étude du fil d’actualités et des algorithmes qui sont employés sur ce fil ni présenté les résultats positifs et négatifs dont nous devrions tenir compte.
    Je pense que je viens tout juste de répondre en ce qui concerne les résultats positifs.
    Alors, oui. D’accord.
    Pour ce qui est de Google, en ce qui concerne la fonction de recommandation sur YouTube...?
    De même, nous évaluons constamment les algorithmes et cherchons à les améliorer.
    Vous tenez des documents internes qui disent, voici les résultats positifs; voici les résultats négatifs, et voici l’évaluation des risques en ce qui a trait aux algorithmes que nous employons. Est-il juste d’affirmer que vous tenez ces documents?
    Nous effectuons constamment ce genre d’évaluation, oui.
    Excellent.
    Et dans le cas de Twitter, est-ce la même chose?
    Nous les évaluons. Je soulignerais également que la façon dont Twitter utilise les algorithmes est considérablement différente. Les gens peuvent les désactiver à tout moment.
    Fourniriez-vous les évaluations des risques internes au Comité?
    Pour notre part, en ce qui concerne l’algorithme de recommandation sur YouTube, nous continuons de tenter d’améliorer notre transparence.
    Fourniriez-vous ces évaluations des risques internes? Honnêtement, en ce qui me concerne, elles devraient être publiques, de la même manière que le gouvernement du Canada procède à une évaluation d’impact algorithmique et que tout organisme gouvernemental qui veut employer un algorithme doit faire preuve de transparence à cet égard. Aucune de vos entreprises multimilliardaires n’est tenue de procéder ainsi, mais je pense que vous devriez l’être.
    Voudriez-vous fournir au Comité les évaluations d’impact algorithmiques que vous affirmez avoir effectuées et faire preuve d’une certaine transparence?
    Je vous remercie de cette question. Je pense que nous irons plus loin que cela. Comme je l’ai mentionné, nous sommes en train d'accroître notre transparence à l’égard d’un certain nombre d’éléments que vous verrez sur la plateforme. Nous avons déjà introduit sur certains marchés, en guise d’essai, ce qu’on appelle WAIST, qui est le sigle anglais de « Pourquoi est-ce que je vois ceci? » Cet outil vous donne une très bonne idée de la façon dont les publications sont classées et triées par le fil d’actualités.
    Comme vous irez plus loin, je suppose que la réponse est oui, vous allez fournir cette documentation interne au Comité.
    Je pense que nous allons faire mieux. Nous allons joindre le geste à la parole, comme nous en avons parlé plus tôt, monsieur.
    Je n’arrive pas à déterminer s’il s’agit d’un oui ou d’un non.
    Les représentants de Google ont-ils un commentaire à faire?
    Nous allons continuer à communiquer concernant notre situation.
    Je considère cette réponse comme un non.
    Qu'en est-il des représentants de Twitter?
    Nous croyons que la transparence est la clé. Je pense qu’il y a deux ou trois éléments à prendre en considération. L’un est que chacun de ces algorithmes est propriétaire. Il est important de réfléchir à ces aspects.
    M. Nathaniel Erskine-Smith: Je comprends, oui.
    M. Carlos Monje: L’autre est compréhensible. Nous parlons souvent des langues différentes. De mauvais acteurs, et leur interprétation de notre façon de mener nos activités... et aussi de nous juger par rapport aux résultats, et pas nécessairement aux intrants.

  (1255)  

    D’accord.
    Il ne me reste plus beaucoup de temps, alors je veux aborder la responsabilité à l’égard du contenu publié sur vos plateformes. Je crois comprendre que, dans le cas du contenu très préjudiciable... et nous pouvons parler de la nature du contenu, en soi. S’il est très préjudiciable, s’il s’agit de pornographie infantile ou de terrorisme, vous le retirez. S’il s’agit clairement d’un discours haineux criminel, vous le retirez, car ce contenu est préjudiciable de par sa nature seulement. En Allemagne, il est certain qu’il y aurait une responsabilité, et nous avons recommandé au sein du Comité qu’une responsabilité soit établie. S’il s’agit manifestement de contenu haineux, s’il est manifestement illégal, les plateformes de médias sociaux devraient être responsables si elles ne le retirent pas rapidement. À mes yeux, c’est logique.
    Toutefois, la prochaine question ne porte pas sur la nature du contenu. Elle concerne votre participation active à l’augmentation du public exposé à ce contenu. Si un algorithme est employé par votre entreprise et utilisé pour faire augmenter les visionnements ou les expositions, reconnaissez-vous votre part de responsabilité à l’égard du contenu? Je souhaite obtenir une simple réponse affirmative ou négative.
    Faisons le tour, en commençant par Google.
    Nous sommes responsables de ce que nous recommandons, oui.
    Une voix: C’est certain.
    Une voix: Oui.
    Oui, nous prenons cette responsabilité très au sérieux.
    Merci beaucoup.
    Nous allons retourner à la délégation du Royaume-Uni pour une autre période de cinq minutes.
    Simplement pour que ce soit clair: la représentante de l’Estonie a demandé à poser une deuxième question. Les représentants de l’Allemagne et du Mexique et des membres du Comité l’ont demandé également. Je viens tout juste de voir une main levée du côté de Singapour; il y a aussi Charlie Angus et Damian Collins, puis je terminerai.
    Monsieur Lucas ou madame Stevens, allez-y.
    Je m’adresse aux représentants de toutes les plateformes: avez-vous mis en place un processus satisfaisant pour la vérification de l’âge sur votre plateforme?
    Monsieur Monje, allez-y.
    Oui. Nous mettons en œuvre les procédures relatives aux limites d’âge prévues dans le RGPD et tentons de trouver des moyens de le faire d’une manière qui protège la vie privée de nos utilisateurs. Souvent, il faut recueillir plus de renseignements auprès des mineurs dans le but de vérifier s’ils sont bien qui ils affirment être.
    Messieurs les représentants de Facebook, avez-vous établi un processus satisfaisant pour la vérification de l’âge?
    J’ai trouvé que la réponse de M. Monje était très bonne. C’est exactement l'équilibre que nous tentons d'atteindre.
    Cela dit, je comprends l’esprit de votre question. Nous pouvons toujours nous améliorer. Je dois vous dire — et je pense que vous l’avez entendu de la bouche de mes collègues qui ont récemment comparu au Royaume-Uni...
    Alors, vous lisez des transcriptions de témoignages.
    En fait, non. J’ai passé du temps avec une collègue — Karina Newton — que les députés connaissent peut-être. C’est une femme très aimable, et elle a consacré une partie de son temps à me faire un compte rendu de la séance, de son point de vue. Selon elle, cela s’était très bien passé. Des questions approfondies et très ciblées ont été posées en ce qui concerne la vérification de l’âge.
    Malheureusement, toutefois, la technologie n’est pas encore tout à fait là.
    Les représentants de Google veulent-ils ajouter quelque chose?
    Oui, nous avons mis en place des exigences et souscrivons de façon générale aux propos qui ont été tenus.
    Vous avez peut-être mis en place des exigences, mais j’ai été capable de m’ouvrir un compte Instagram en me faisant passer pour un enfant de 10 ans — je pense — au cours d’une séance de comité. Il me semble, d’après les témoignages que j’ai entendus et ce que j’entends de la bouche de mes électeurs au Royaume-Uni, que les gens sont extrêmement préoccupés, et je ne crois pas que des processus de vérification de l’âge satisfaisants soient en place. En effet, selon les témoignages qui m’ont été présentés, les représentants des plateformes au Royaume-Uni semblaient eux-mêmes laisser entendre que les procédures de vérification de l’âge en place n’étaient pas satisfaisantes.
    Souscrivez-vous à cette opinion? Pensez-vous que la situation est acceptable? Il s’agit essentiellement de ce que la plupart d’entre nous cherchent à savoir.
    Monsieur, ce que j’ai dit plus tôt, c’est que nous pouvons toujours nous améliorer. La technologie n’est pas rendue au stade où nous voudrions qu’elle soit.
    D’accord.
    Dans le cas de Facebook, je suis un peu perplexe au sujet de votre relation avec WhatsApp et Instagram et du transfert des données. Si je donne des renseignements à Facebook, sont-ils transférables librement vers Instagram et WhatsApp?
    Comme vous le savez — je crois, car Karina a mentionné que vous aviez eu un échange à ce sujet au Royaume-Uni —, Facebook et Instagram sont régies par un ensemble de conditions d’utilisation, et WhatsApp est régie par un autre.

  (1300)  

    Cela signifie que des renseignements sont échangés entre Instagram et Facebook.
    Exact. Comme nous l’avons mentionné plus tôt, il est important pour nous de pouvoir mettre à profit l’infrastructure dans le but de prendre beaucoup des mesures que nous prenons pour tenter de garder les gens en sécurité. Karina l'a mentionné, en quelque sorte, quoiqu’elle a affirmé ne pas savoir si c’était complètement clair. Le fait d’avoir l'identité réelle des personnes sur Facebook nous permet de faire certaines des choses que nous ne pourrions pas faire au moyen d’Instagram seulement pour nous assurer que nous pouvons acquérir une plus grande certitude quant à ces questions d’âge, d’identité réelle, et ainsi de suite. Facebook nous permet de mettre à profit certains des systèmes de sécurité et de les appliquer à Instagram, car cette application — comme vous le savez manifestement — fonctionne très différemment et comporte un ensemble de pratiques différent du point de vue de la façon dont les gens utilisent le service.
    Enfin, je m’adresse aux représentants de toutes les plateformes: si vous étiez juridiquement responsable du contenu diffusé sur votre plateforme, seriez-vous en mesure de fonctionner en tant qu’entreprise?
    Il existe des cadres juridiques en ce qui a trait à notre responsabilité à l’égard du contenu illégal, et nous les respectons.
    S’il était possible d’intenter des poursuites judiciaires contre les différentes plateformes en raison de renseignements que vous avez diffusés, lesquels, nous le savons, pourraient causer des préjudices dans l’avenir, pensez-vous que vous seriez en mesure de continuer à échanger des renseignements, ou bien que cela mettrait un terme à vos activités?
    C’est le contexte américain que je connais le mieux, et nous avons un certain degré d’immunité. C’était sous le régime de la Communications Decency Act, et cette loi avait été conçue pour nous procurer la marge de manœuvre nécessaire afin que nous puissions mettre en œuvre nos conditions d’utilisation sans nous faire poursuivre. La société américaine est très axée sur les actions en justice — comme vous le savez —, et cette mesure de protection nous a permis de créer et de maintenir une plateforme beaucoup plus sûre qu’elle ne l’aurait été autrement.
    Ce que vous voyez ici même et partout dans le monde, ce sont de nombreux régimes différents qui font l’essai de mécanismes différents à cette fin. Des recherches indépendantes ont été menées au sujet des conséquences de cette situation, notamment à des endroits où on accusait les plateformes d'apporter des corrections excessives et d'étouffer des opinions valables. Aux États-Unis, il est rare que le gouvernement nous critique et demande de retirer du contenu parce qu’il enfreint notre politique sur le discours haineux ou sur la conduite haineuse; c'est plutôt lorsqu’il s’agit d’une violation de la loi sur le droit d’auteur, car les règles qui régissent le droit d’auteur aux États-Unis sont très strictes, et nous devons retirer le contenu dans un certain délai.
    Au lieu de demander à une personne qui critique le gouvernement de retirer le contenu en raison d’autres conditions d’utilisation, on a recours au régime le plus strict, et cela a une incidence très négative sur la liberté d’expression.
    Merci.
    Nous devons passer à un autre sujet. Je veux souligner ce qui se passera au cours des 30 prochaines minutes. Deux membres du Comité canadien n'ont pas encore pris la parole. Nous allons leur accorder cinq minutes chacun, ce qui nous laisse, pour les personnes qui ont demandé un deuxième tour de parole, environ 20 minutes, soit approximativement 3 minutes par personne.
    Encore une fois, nous céderons d'abord la parole à M. Graham, puis à M. Saini et, ensuite, nous procéderons par pays.
    Allez-y, monsieur Graham.
    Je veux entrer directement dans le vif du sujet. Je vais me concentrer sur Google et Facebook pour un instant.
    Messieurs les représentants de Google, acceptez-vous le terme « capitalisme de surveillance »?
    Je pense qu'il s'agit d'une exagération de la situation, mais il reflète les pressions sociales et constitue une reconnaissance de l'inquiétude croissante au sujet des données recueillies sur les personnes.
    Les représentants de Facebook souhaitent-ils se prononcer?
    Je pense avoir grimacé la première fois que j'ai entendu le terme.
    Vous suivez les gens sur Internet de toutes les façons possibles sans qu'ils le sachent et sans qu'ils aient donné leur consentement explicite, à tout moment et pour toute raison, et vous le faites pour générer des profits.
    Nous entretenons une relation très claire avec nos utilisateurs au sujet des renseignements que nous recueillons et de l'utilisation que nous en faisons. Nous obtenons leur consentement à l'égard des renseignements que nous utilisons.
    Mais vous ne faites pas uniquement le suivi des renseignements sur les utilisateurs. Vous recueillez de l'information sur quiconque se trouve sur Internet. Si on regarde Google Analytics et n'importe lequel de ces autres services, lesquels font le suivi de toutes les personnes qui passent par un autre site Web qui n'a rien à voir avec Google, vous recueillez beaucoup plus de données que celles qui sont fournies volontairement par les utilisateurs. Ma question est la suivante: encore une fois, recueillez-vous des données sur les gens à des fins lucratives et, le cas échéant, ne s'agit-il pas de capitalisme de surveillance?
    Je pense que, dans la situation générale que vous venez tout juste de décrire relativement aux personnes qui utilisent Internet, nous ne recueillons pas de renseignements au sujet des gens. Nous mesurons le comportement et... Désolé, c'est le mauvais terme. J'entends le ricanement.
    Nous mesurons la façon dont les gens agissent sur Internet et fournissons des données liées à ces comportements, mais elles ne sont pas liées à une personne. Elles sont liées à un acteur.

  (1305)  

    Ou bien elles sont liées à un type de personne, à une adresse IP ou à ce type d'information. Vous recueillez des données qui peuvent être reliées à des personnes. Là où je veux en venir, et je veux aller plus loin que cela, c'est que les gouvernements ont une capacité de surveillance exceptionnelle, comme nous le savons tous. Du moins, au pays, et dans beaucoup d'autres pays représentés à la table, nous avons maintenant un comité de parlementaires chargé de surveiller notre appareil de sécurité, et il le fait dans un contexte de confidentialité. Il procède à un examen approfondi des organismes de renseignement, de ce qu'ils font, de la façon dont ils le font et des raisons pour lesquelles ils le font, et il rend des comptes à ce sujet.
    Si ces comités étaient créés uniquement pour se concentrer sur les entreprises de médias sociaux ou que le Comité s'y mettait, quelles surprises découvrirait-on?
    Monsieur, comme je l'ai indiqué, nous voulons faire plus au moyen de nos actes. Nous allons rendre toute cette information accessible, et, ensuite, les gens pourront... y compris les éléments qui sont à l'extérieur de la plateforme. Si un site utilise, disons, un module externe ou quelque chose de ce genre provenant de Facebook, vous avez accès à tous ces renseignements et vous pouvez en faire tout ce que vous voulez. Vous pouvez retirer des éléments. Vous pouvez en supprimer. Vous pouvez en transférer ou en télécharger. Voilà notre engagement, et nous allons le faire rapidement.
    Je comprends, mais, si on va sur Facebook et qu'on demande à télécharger nos données, il ne s'agit pas d'une collection complète des renseignements que Facebook possède sur nous en tant qu'utilisateur.
    Exact. Je pense que vous faites allusion aux situations où une personne télécharge ses renseignements et on obtient des choses comme ses photographies et ses vidéos.
    On obtient une poignée de photographies et de mises à jour, et puis bonne journée.
    C'est exact. Ce que nous voulons faire, c'est établir... et cela prend un peu de temps. Si vous pouvez faire preuve de patience, il faut un peu plus de temps pour établir un système beaucoup plus ambitieux, qui vous permettra ensuite de prendre les commandes non seulement des renseignements que vous avez affichés sur Facebook, mais de toute l'activité que vous pourriez avoir effectuée ailleurs au moyen de modules externes. Nous pourrons vous donner la capacité de contrôler et de retirer des choses, si vous le choisissez.
    Si Mark Zuckerberg était candidat à la présidence des États-Unis, par exemple, qu'est-ce qui limiterait sa capacité d'utiliser les données, les machines, les algorithmes et les capacités de collecte de Facebook pour alimenter sa campagne?
    Monsieur, si je puis me permettre, il s'agit d'une très bonne question, et c'est précisément pourquoi nous avons établi les politiques qui sont en place et pourquoi nous les respectons aussi rigoureusement. Ce n'est pas... et je pense que la question a été présentée d'une manière différente. C'était: « Qu'arriverait-il s'il y avait une photographie de Mark Zuckerberg ou une vidéo de lui? » Le traitement serait le même. C'est parce que ces politiques doivent tenir sans égard à la direction dans laquelle le vent souffle.
    Comme je l'ai déjà dit, nous comprenons que les gens puissent ne pas être à l'aise avec le degré de transparence et la mesure dans laquelle Facebook peut prendre ces décisions au sujet de ce qui se passe sur son service, et c'est pourquoi nous établissons ce comité de surveillance externe, afin qu'un grand nombre de ces décisions difficiles établissant un précédent ne soient pas prises par Facebook seulement. Les gens auront la capacité d'interjeter appel auprès d'un organisme indépendant, lequel pourra prendre les décisions qui régiront le discours sur une plateforme.
    Je ne dispose que de quelques secondes, et je veux revenir sur l'organisme indépendant dans une seconde.
    Là où je veux en venir, c'est que je soupçonne que le soutien de Facebook et l'utilisation des données de cette plateforme ne seront pas les mêmes si Neil Potts est candidat à la présidence des États-Unis que si Mark Zuckerberg est candidat à ce poste. C'est pourquoi il serait très difficile d'affirmer que la comparution de M. Zuckerberg est équivalente à celle de Neil Potts.
    Encore une fois, nos politiques s'appliquent à tout le monde. Nous ne ferions aucune exception pour qui que ce soit, et il s'agit en fait de la raison pour laquelle nous tenons ces genres de conversations solides.
    M. Zuckerberg a-t-il un...
    Notre temps est écoulé. Désolé, monsieur Graham.
    Nous allons passer à M. Saini, pour cinq minutes.
    L'une des choses que nous avons entendu de nombreux experts affirmer, c'est que beaucoup des problèmes qui sont survenus relativement aux données ont eu lieu au moment où l'apprentissage machine est vraiment entré en vigueur. Il y a eu un tournant. De nombreux experts s'entendent sur le fait que l'autoréglementation n'est plus viable. Des règles doivent être établies. Le modèle d'affaires ne peut tout simplement pas se réglementer, et il ne correspond pas à l'intérêt public.
    J'ai deux questions à soulever. Ma préoccupation tient au fait qu'actuellement, nous sommes une démocratie mature. Beaucoup des pays représentés à la table sont des démocraties matures. Mon inquiétude concerne les démocraties naissantes qui tentent de s'élever, mais qui ne disposent pas de la structure, de la réglementation, de l'éducation et de l'efficience appropriées ni d'une presse libre ou avancée. Certains ont laissé entendre qu'il faudrait peut-être internationaliser cette autoréglementation, comme dans le cas d'autres produits. Même si certains pays pourraient ne pas avoir la capacité de réglementer efficacement certaines industries, les démocraties matures pourraient établir une norme mondiale.
    Serait-ce quelque chose d'acceptable, par le truchement d'un mécanisme de l'OMC ou d'une autre institution internationale qui est peut-être mise à part? Une partie de la conversation porte sur le RGPD, mais ce règlement ne s'applique qu'à l'Europe. Il y a les règles américaines, les règles canadiennes, les règles sud-asiatiques... Si une seule institution gouvernait tout le monde, il n'y aurait pas de confusion, peu importe où les plateformes mèneraient leurs activités, car elles adhéreraient à une norme mondiale.

  (1310)  

    Vous avez raison. Nous pouvons faire harmoniser les normes à l'échelle mondiale; ce serait utile. Nous l'avons demandé à plusieurs égards, notamment en ce qui concerne la protection des renseignements personnels.
    J'affirmerais qu'il s'agit en fait de l'un des défis clés. C'est un débat dynamique que nous tenons lorsque nous parlons du comité de surveillance. Dans le cadre des consultations que nous avons menées partout dans le monde, y compris au Canada, la grande question qui a été soulevée est la suivante: « Comment peut-on permettre à un comité mondial de prendre des décisions qui auront des conséquences locales? » Cette question a été posée, et je peux affirmer que nous avons tenu des conversations intéressantes avec l'Assemblée des Premières Nations. Manifestement, les Autochtones posent des questions uniques au sujet de la nature du bon cadre de gouvernance pour le contenu en ligne et de la façon dont nous allierons l'international au local.
    Je suis tout à fait d'accord avec vous, monsieur. C'est une question très pertinente, à laquelle nous tentons de répondre.
    Les représentants de Google veulent-ils s'exprimer?
    C'est un défi que nous reconnaissons depuis les tout débuts de la mise en œuvre de l'apprentissage machine dans nos produits, et il s'agit de l'une des raisons pour lesquelles nous avons établi il y a plus d'un an un ensemble très clair de principes relatifs à la façon dont nous utiliserons l'intelligence artificielle dans nos produits.
    Nous soulignons certainement le fait qu'une conversation active doit avoir lieu entre l'industrie et les gouvernements de partout dans le monde. Dans le passé, l'élaboration, sous la direction de l'OCDE, d'une telle réglementation axée sur des principes relativement à la protection des données nous a été utile en ce qui a trait aux progrès en fonction de la région et aux taux de sophistication.
    Je suis d'accord avec vous sur le fait que ce genre de collaboration mondiale fondée sur des principes, surtout de concert avec les entreprises qui devront mettre cette réglementation à exécution, entraînera un système réglementaire plus équitable qui sera applicable le plus généralement possible, ici même dans la salle ou à l'échelle mondiale.
    Je vous remercie de cette réponse. Évidemment, vous allez tenir compte de l'effet local dans tout pays avec lequel vous travaillez, mais il existe certains principes fondamentaux sur lesquels je pense que l'on peut s'entendre à l'échelle mondiale.
    Ma dernière question est un peu philosophique, mais aussi un peu pratique. Dans certains pays où vous menez vos activités, vous savez qu'il n'existe aucune norme ni aucune réglementation. La primauté du droit est absente, tout comme la liberté de presse, et la structure gouvernementale n'est pas très avancée. Le contenu pourrait être exploité d'une manière plus haineuse dans ces pays que dans d'autres régions du monde.
    Les plateformes n'ont-elles aucun mandat moral de s'assurer que, lorsqu'elles vont dans ces pays, elles contribuent à élever la structure de gouvernance, afin que leurs activités à ces endroits soient menées d'une manière plus équitable?
    Ma réponse à cette question comporte deux volets.
    Tout d'abord, comme l'a mentionné mon collègue, M. Slater, nous travaillons très dur afin de nous assurer que les politiques et les lignes directrices relatives à tous nos produits s'appliquent à ces pays ainsi qu'aux pays que nous pourrions décrire comme développés ou stables.
    Toutefois, c'est aussi pourquoi des gens comme moi travaillent pour l'entreprise. Nous œuvrons au sein d'équipes qui se concentrent sur l'IA et sur la protection des renseignements personnels et des données. Nous tenons ces discussions, dans le pays en tant que tel ou à l'occasion de réunions d'organisations internationales, afin que nous puissions échanger continuellement des renseignements au sujet de la façon dont nous voyons ces politiques et technologies évoluer à l'échelle internationale. Nous pouvons fournir une comparaison avec la façon dont ces pays voient cette évolution à l'intérieur de leur propre administration.
    Il s'agit d'un échange honnête et franc, où nous reconnaissons que nous sommes à l'avant-plan d'une technologie qui a une incidence importante sur nos produits et qui présente un avantage considérable pour nos utilisateurs.
    Merci beaucoup.
    Merci, monsieur Saini.
    Nous allons maintenant passer à nouveau aux représentants des pays, qui disposeront d'environ deux minutes chacun. Je vous prie d'être brefs. Nous allons entendre les représentants de l'Estonie, de l'Allemagne, du Mexique, de Singapour et de l'Irlande, puis nous allons conclure.
    C'est au tour de l'Estonie. Vous avez la parole.
    Merci.
    Il a été souligné que le phénomène de la désinformation devient de plus en plus complexe et qu'il est présent sur bon nombre de canaux et de plateformes, ce qui signifie que les différentes phases et les différentes étapes des campagnes de désinformation ont souvent lieu sur différents canaux.
    Comment faire pour coopérer? Qu'est-ce que vous envisagez comme modèle pour la coopération entre les différentes plateformes afin de lutter contre la désinformation?
    Nous effectuons nos propres évaluations des menaces pour prévoir et prévenir les nouvelles tendances, puis nous travaillons en collaboration avec l'industrie et, au besoin, avec les forces de l'ordre et d'autres intervenants afin de nous assurer que les renseignements et les indicateurs sont communiqués. Nous tenons absolument à prendre part à ce genre de processus.
    Je tiens simplement à dire que les entreprises collaborent sur ces problèmes et travaillent en étroite collaboration avec les gouvernements. Pendant la déclaration de M. Saini, je pensais au rôle du gouvernement et à quel point l'Estonie était avant-gardiste — bien qu'elle compose depuis longtemps avec la désinformation russe — au chapitre de ses efforts pour améliorer l'éducation sur les médias et de son travail avec les plateformes de façon à nous faciliter la tâche.
    Tout le monde a un rôle à jouer, et les entreprises travaillent en collaboration pour lutter contre les menaces communes.

  (1315)  

    Il faudrait se pencher sur le travail que nous effectuons dans le cadre du Forum mondial de lutte contre le terrorisme. Toutes nos entreprises participent à ce forum, au sein duquel nous avons des responsabilités partagées au chapitre de l'échange de renseignements, de la collaboration en matière de technologies et de soutien pour la recherche.
    Nous allons maintenant passer au représentant de l'Allemagne.
    Vous avez la parole.
    Merci, monsieur le président.
    J'aimerais poser quelques questions aux représentants de Twitter.
    Au cours des récentes élections européennes, vous avez mis en place plusieurs mesures, lesquelles visaient particulièrement les fausses nouvelles concernant le processus électoral. Cela semblait être une bonne idée au départ, cependant, en Allemagne, les gazouillis de certains de nos représentants élus ont été bloqués alors qu'ils ne comportaient bien évidemment aucun renseignement erroné.
    Bien entendu, le mécanisme de plainte de Twitter a été utilisé par des activistes de l'extrême droite afin de signaler, par exemple, des publications tout à fait légales mises en ligne par des membres du Parlement. Le problème, c'est la façon dont vous avez fait cela, et il a fallu un certain temps avant que tout ne rentre dans l'ordre.
    Avez-vous fait un suivi à cet égard? Quelles leçons en avez-vous tirées, et comment cela va-t-il évoluer au cours des prochaines élections?
    Je vous remercie de cette question.
    J'ai suivi tout cela depuis les États-Unis, à savoir les signalements pour désinformation que nous avons lancés dans l'Union européenne et en Inde. Je crois qu'il s'agit à la fois d'un défi et d'un avantage liés au fait d'être une plateforme mondiale: dès que vous vous retournez, il y a une nouvelle élection. Il y a les élections en Argentine qui s'en viennent, celles aux États-Unis en 2020 et celles au Canada, bien sûr, en octobre.
    Nous avons appris que, lorsque vous créez une règle et mettez en place un système pour l'appliquer, les gens vont toujours tenter de le contourner. En Allemagne, la question était de savoir si on signait le bulletin de vote et comment on le faisait. Il s'agit de l'un des problèmes qui sont survenus. Nous allons en tirer des leçons et tenter de nous améliorer.
    Ce que nous avons découvert — et M. Potts a mentionné le Forum mondial de lutte contre le terrorisme —, c'est que notre contribution à l'effort, ou plutôt ce que fait Twitter, c'est se pencher en premier sur les comportements, c'est-à-dire sur la façon dont les différents comptes interagissent entre eux, et non pas sur le contenu. De cette façon, nous n'avons pas à examiner les différents contextes qui rendent ces décisions plus compliquées.
    Merci.
    Nous allons passer au représentant de Singapour pour deux minutes.
    Monsieur Potts, vous avez dit plus tôt, en réponse à la question de ma collègue, que vous n'étiez pas au courant que les vidéos avant ou après les attentats à la bombe au Sri Lanka avaient été signalées à Facebook avant les événements. Vous rappelez-vous avoir dit cela?
    Oui, monsieur.
    C'était un massacre important et abominable, dont les vidéos ont circulé sur Facebook pendant un certain temps et, comme vous l'avez dit, il s'agit d'un discours haineux constituant clairement une violation de vos politiques. Vous savez sans doute que l'auteur présumé de l'attentat lui-même avait un compte Facebook. Je suis surpris que vous n'ayez pas vérifié cela, puisqu'il me semble que c'est quelque chose que Facebook aurait probablement voulu savoir.
    On aurait voulu savoir pourquoi, compte tenu des vidéos qui ont circulé sur Facebook, c'est quelque chose qui avait échappé à Facebook, dans la mesure où cela vous avait échappé. Je suis surpris que vous ne sachiez toujours pas aujourd'hui si cela a été signalé à Facebook. Êtes-vous en mesure de confirmer cela?
    Pour cette vidéo en particulier, monsieur, je serais heureux de vous revenir là-dessus après l'audience et de vous montrer la chronologie exacte des événements. Lorsqu'on nous a mis au courant de l'attaque perpétrée par cet individu, nous avons rapidement retiré...
    Je sais. Ce n'est pas ma question. Comment se fait-il qu'aujourd'hui, environ deux mois après les événements en question, vous ne savez toujours pas si, avant l'attaque, Facebook avait été mis au courant de l'existence des vidéos? J'aurais pensé que, si vous vouliez nous faire croire que les politiques que vous avez maintenant en place — l'intelligence artificielle et d'autres mécanismes pour l'avenir... Si j'étais à la place de Facebook, j'aurais voulu savoir pourquoi cela m'avait échappé. Je suis étonné que vous ne le sachiez toujours pas, même en date d'aujourd'hui.
    C'est exact. Nous effectuons un processus officiel d'analyse après-action dans le cadre duquel nous nous penchons sur ces incidents afin de nous assurer que nos politiques...

  (1320)  

    Ce point n'a pas été soulevé.
    J'aurais simplement besoin de vous revenir avec les renseignements. Je ne veux pas me prononcer à tort.
    Monsieur Potts, vous avez vous-même témoigné au Parlement du Royaume-Uni le mois dernier, et cette question a été soulevée au cours de l'audience. Est-ce exact?
    Il me semble que l'attaque est survenue le dimanche de Pâques. Nous avons témoigné, il me semble, le mardi suivant. Nous n'en étions qu'aux premiers stades lorsque nous avons témoigné.
    D'accord, mais j'aimerais dire que je suis étonné que Facebook n'ait pas jugé bon de vérifier si quelque chose n'avait pas été oublié.
    Si je peux me permettre, monsieur, je tiens à vous assurer d'une chose...
    Si c'est pour répondre à ma question, alors je vous prie de formuler des explications, autrement...
    C'est par rapport à notre posture de sécurité, monsieur.
    Je suis désolé. Si ce n'est pas pour répondre directement à la question de M. Tong, nous ne disposons pas d'assez de temps.
    Je m'excuse, monsieur Tong. Il ne reste plus de temps.
    Nous devons passer à la représentante de l'Irlande pour deux minutes, puis nous allons conclure.
    Je m'excuse, j'aurais aimé que nous ayons plus de temps, mais nous n'en avons pas.
    Vous pouvez y aller.
    Merci, monsieur le président.
    Je n'ai pas obtenu de réponse à ma première question, laquelle portait sur la position de Google par rapport au RGPD. Bon nombre des entreprises de médias sociaux ont leur siège social en Irlande. En effet, notre commissaire à la protection des données réglemente pour l'Europe, et Mark Zuckerberg de Facebook a demandé qu'une approche inspirée du RGPD soit adoptée partout dans le monde.
    Quel est votre point de vue à ce sujet? Est-ce que cela peut fonctionner?
    Nous estimons que le RGPD offre un cadre solide pour une conversation mondiale sur ce à quoi ressemblerait une protection étendue des renseignements personnels. La question est de savoir comment ce cadre peut s'adapter aux administrations locales et tenir compte du contexte politique et social de chacune de ces administrations.
    Vous ne pouvez pas être certain que cela va fonctionner.
    Êtes-vous d'accord avec M. Zuckerberg sur l'application du RGPD à l'échelle mondiale?
    Nous avons déjà abordé en détail le besoin de travail accru au chapitre de la réglementation de la protection des renseignements personnels. C'était l'automne dernier. Cela se fonde en grande partie sur le travail lié à l'élaboration du RGPD.
    Je fais preuve de prudence, parce que je sais qu'il y a bon nombre de différents types de réglementation sur la protection des renseignements personnels en place à l'heure actuelle.
    Dans différents pays...
    Pour ce qui est de l'Irlande, encore une fois, puisque c'est là où se trouve le siège social de bon nombre d'entreprises de médias sociaux... Votre siège social européen international est situé en Irlande. Nous travaillons sur des dispositions législatives concernant le commissaire à la sécurité numérique, ce qui signifie que l'Irlande légiférera sur la modération de contenu en ligne pour l'Europe et peut-être même pour d'autres administrations.
    Voyez-vous les choses de la même façon? Très brièvement, quel est votre avis à ce sujet?
    Comme nous l'avons dit dès le départ, il est essentiel que le gouvernement établisse des définitions claires sur ce qui est illégal, en plus d'avis clairs, pour que les plateformes agissent rapidement. Nous sommes ravis de voir ce genre de collaboration relativement au contenu illégal.
    Pourriez-vous envisager de déployer cela au-delà de l'Europe compte tenu de la loi en Irlande?
    Qu'il s'agisse de cette loi ou non, je crois qu'il y a de plus en plus consensus au sujet des principes de base en matière d'avis et de retrait de contenu illégal.
    Les représentants de Facebook souhaitent-ils intervenir à ce sujet?
    Je crois que ce que M. Slater a dit est absolument vrai. Nous voulons travailler en collaboration avec vous. Je crois comprendre, en fait, que notre équipe travaille de concert avec les autorités publiques irlandaises sur cette question.
    Nous travaillons également en collaboration avec le gouvernement français et le président Macron sur ce que ce dernier appelle la réglementation intelligente. Nous serions heureux d'avoir l'occasion de nous entretenir avec vous et avec d'autres personnes en Irlande sur l'évolution de la situation. Je crois que cela mérite que l'on s'y attarde un peu plus.
    En plus de l'importance d'avoir une terminologie précise, j'estime que la question de la responsabilité est importante, au-delà de l'organisme de réglementation qui rend des comptes au Parlement et des personnes qui pourraient avoir des comptes à rendre à leurs électeurs.
    J'aimerais également ajouter qu'il est important, surtout dans le cadre de ces questions sur la modération de contenu, que nous prenons extrêmement au sérieux, de reconnaître la façon dont ces outils peuvent être utilisés par les régimes autocratiques. J'écoutais ce qui a été dit hier au sujet de l'Allemagne avant le nazisme. Les outils qui ont été utilisés afin de protéger la démocratie ont ensuite été utilisés pour l'étouffer au bout du compte. Je crois qu'il s'agit de questions difficiles, et je suis heureuse que ce comité les prenne au sérieux.
    Merci, madame Naughton.
    Nous tenons à vous remercier tous et toutes de vos témoignages aujourd'hui.
    Nous avons des observations finales, et nous commençons avec M. Angus...
    Je présente mes excuses à la représentante du Mexique. Vous avez levé la main et je vais donc vous accorder deux brèves minutes. Vous avez la parole.
     [La déléguée s'exprime en espagnol. Traduction de l'interprétation.]
    J'aimerais rapidement vous demander quelle est la marche à suivre pour une victime lorsque le contrôle fait défaut et qu'il y a violation [Difficultés techniques] et Google en particulier.
    Si je vous comprends bien, vous avez posé une question par rapport au contenu sur YouTube qui viole les lignes directrices communautaires. Nous avons des systèmes de signalement dans le cadre desquels un utilisateur n'a qu'à cliquer pour nous informer d'un contenu qui viole nos lignes directrices. Cet avis est envoyé et mis en attente d'examen. Il est possible de faire cela juste sous la vidéo.

  (1325)  

     [La déléguée s'exprime en espagnol. Traduction de l'interprétation.]
    Qu'arrive-t-il lorsqu'on leur dit qu'il n'y a pas d'infraction aux politiques, mais qu'il y a une vidéo accessible à tous dans laquelle une personne est nue?
    Selon le contexte, si le contenu enfreint nos lignes directrices, nous allons le retirer. Si nous ne le faisons pas, il y a des mécanismes d'appel en place, et ainsi de suite.
     [La déléguée s'exprime en espagnol et l'interprétation en anglais de ses propos est traduite ainsi:]
    Je connais des cas, de nombreux cas, où les gens ont suivi toutes les procédures en ligne, et la réponse a toujours été: « Cela ne va pas à l'encontre de nos politiques », et ce, sur les trois plateformes. Que peut faire la victime? Comment peut-elle faire appel à qui que ce soit?
    Comme je vous l'ai dit, dans un cas particulier, lorsque les personnes concernées se sont rendues au bureau de Google au Mexique, on leur a dit d'aller au bureau de Google aux États-Unis. Par conséquent, que peut faire une victime lorsque les images qui lui portent préjudice sont toujours affichées? Elles sont en ligne.
    Je ne connais pas les cas particuliers dont vous parlez, mais nous serions heureux d'y donner suite.
     [La déléguée s'exprime en espagnol et l'interprétation en anglais est traduite ainsi:]
    Dans tous les cas, que se passe-t-il ensuite?
    En règle générale, si quelque chose portait atteinte à la vie privée d'une personne, était diffamatoire ou incitait à la violence, et ainsi de suite, que cela allait à l'encontre de nos lignes directrices, nous le supprimerions. Le cas que vous décrivez m'est inconnu, mais nous serions heureux de recevoir plus de renseignements et de les transmettre à nos équipes.
    Nous ferions mieux de poursuivre.
    Nous allons passer à M. Angus pour quelques minutes, puis à M. Collins et moi-même.
    Allez-y, monsieur Angus.
    Je vous remercie, monsieur le président.
    J'aimerais faire une confession. Je suis un utopiste du numérique en rémission. Je suis venu ici en tant que jeune socialiste démocratique et je me suis battu avec acharnement contre la réglementation. Pensez-y, parce que nous avons vu toutes ces entreprises en démarrage ainsi qu'un grand avenir pour le monde numérique. C'était en 2006. Maintenant, en 2019, j'ai ici des présidents conservateurs qui font pression en faveur d'une réglementation gouvernementale. C'est le monde dans lequel nous sommes tous.
    C'est parce que nous parlons des droits démocratiques des citoyens, du rétablissement des droits des citoyens dans le domaine que vous contrôlez. Nous parlons du pouvoir qu'ont les plateformes de bouleverser nos systèmes démocratiques partout dans le monde, ce qui est sans précédent. Nous parlons du pouvoir qu'ont ces plateformes d'amener les gens à se radicaliser dans chacune de nos circonscriptions, ce qui a entraîné des massacres partout dans le monde. Ce sont là de graves problèmes. Nous commençons à peine à nous attaquer aux problèmes de l'IA et des technologies de reconnaissance faciale ainsi qu'à ce que cela signifiera pour nos concitoyens.
    C'est ce que notre commissaire à la protection de la vie privée a appelé le droit des citoyens de vivre sans surveillance, ce qui touche au cœur même du modèle de gestion, en particulier celui de Facebook et de Google, et certains des meilleurs experts au monde ont dit hier et aujourd'hui que la première ligne de cette lutte pour les espaces publics et la vie privée des citoyens sera menée à Toronto avec le projet Google.
    Monsieur McKay, nous vous avons déjà posé des questions sur Sidewalk Labs, mais vous avez dit que vous ne parliez pas au nom de l'organisation et que, d'une certaine manière, il s'agissait d'une entreprise différente.
    Monsieur Slater, des experts nous ont dit qu'il s'agissait d'une menace pour les droits de nos citoyens. M. McNamee a dit qu'il ne laisserait pas Google approcher à moins de 100 milles de Toronto.
    Pourquoi les citoyens de notre pays devraient-ils faire confiance à ce modèle de gestion pour décider de l'aménagement de certains des meilleurs terrains dans notre plus grande ville?
    Je ne travaille pas non plus pour Sidewalk Labs. Vous avez raison. Nous voulons votre confiance, mais nous devons la mériter, en étant transparents, en élaborant des pratiques exemplaires avec vous et en étant responsables. Je pense que différents sites feront différents choix. C'est généralement le cas, mais je ne peux pas parler de cette entreprise en particulier, parce que je n'en fais pas partie.
    Je vous remercie, monsieur Angus.
    Monsieur Collins, vous avez la parole.
    Je vous remercie.
    J'aimerais simplement revenir sur quelques points qui ont été abordés au cours de la séance.
    Monsieur Potts, vous avez parlé brièvement des changements apportés à la politique de Facebook Live à la suite de l'attaque de Christchurch. Je crois comprendre qu'il s'agit d'une restriction pour les personnes qui ont diffusé les images les plus révélatrices sur Facebook Live, lesquelles verraient alors leurs comptes automatiquement suspendus. Est-ce exact?
    C'est exact. Mais de plus, de façon plus générale, s'il y a violation des normes communautaires pour des types d'actions spécifiques, votre accès vous permettant d'utiliser le produit en direct sera suspendu pour une période de 30, 60 ou 90 jours.

  (1330)  

    Vous ne pourriez pas utiliser le produit en direct.
    C'est exact.
    Le temps maximum de la suspension serait-il de 90 jours?
    Je pense que pour les violations graves de nos normes communautaires, nous nous réservons également le droit de désactiver votre compte.
    D'accord.
    Qu'en est-il des personnes qui ont partagé du contenu grave qui a été diffusé sur Facebook Live? Ce ne sont pas elles qui l'ont diffusé, mais elles l'ont partagé à d'autres personnes sur la plateforme. Des mesures sont-elles prises contre elles?
    Nous essayons d'examiner l'intention de la personne qui partage. Je pense que dans l'exemple de Christchurch, il y avait beaucoup de gens qui partageaient le contenu simplement pour des raisons de sensibilisation. Il y en avait certainement qui le partageaient à des fins malveillantes, pour bouleverser nos politiques ainsi que notre intelligence artificielle. Des mesures seraient prises contre eux. Si nous savions que vous partagiez — même des entreprises de médias partageaient la vidéo —, nous essayerions de voir le contexte et de comprendre l'intention derrière votre partage.
    Est-ce que les personnes qui, selon vous, ont malicieusement partagé les images ont vu leurs comptes annulés?
    Dans certains cas, les personnes ont vu leurs comptes désactivés. Dans d'autres cas, elles ont été sanctionnées.
    Pourriez-vous nous écrire pour nous dire combien de comptes ont été désactivés à la suite de ces partages?
    Je serais heureux de faire un suivi après l'audience.
    De toute évidence, ces changements entraînent des mesures rétroactives à l'encontre de ceux qui sont responsables. Y a-t-il quelque chose que Facebook a fait pour empêcher un drame comme celui de Christchurch de se reproduire, en ce qui concerne la façon dont il est diffusé et partagé dans l'ensemble des systèmes?
    Nous continuons d'investir dans l'IA.
    Dans le cas de Christchurch, l'utilisation de la vidéo à la première personne de l'appareil GoPro est très difficile à reconnaître pour l'IA. Nous continuons d'investir pour essayer de nous améliorer et de fournir des données d'entraînement à l'apprentissage machine afin que nous puissions détecter et prévenir. Nous avons intégré de nouveaux protocoles permettant d'acheminer ces types de vidéos à des réviseurs humains en temps réel, mais il est important de noter que la vidéo n'a jamais été signalée pendant qu'elle était en direct.
    D'accord. Je ne suis pas certain de bien comprendre, mais il y a encore deux ou trois questions.
    Vous avez beaucoup parlé de la suppression des comptes non authentiques. Facebook, je crois, a dit que 3,3 milliards de comptes non authentiques avaient été supprimés au cours des six derniers mois. C'est beaucoup plus que le nombre d'utilisateurs actifs de l'entreprise. À la lumière de ces données, à quel point pouvez-vous être certain qu'il n'y a qu'environ 5 % des comptes qui ne sont pas authentiques?
    Nous avons des équipes scientifiques qui étudient la question de près, alors je m'en remets à leur expertise et à leur analyse à ce sujet.
    Monika Bickert a dit que les comptes non authentiques sont beaucoup plus susceptibles de partager de la désinformation; par conséquent, sur ces 3,3 milliards de comptes, combien d'entre eux partagent activement de la désinformation?
    Je n'ai pas ce chiffre. Je crois qu'elle a dit qu'ils sont plus susceptibles... C'est une combinaison de comportements abusifs, donc non seulement de la désinformation, mais également des propos haineux. Votre point est pris en compte, et je peux y donner suite.
    Facebook serait-elle en mesure d'écrire au Comité pour lui donner une réponse à cette question?
    Eh bien, monsieur, je devrais clarifier les choses. Je pense que c'est le cas, si vous examinez le rapport sur la transparence...
    Je suis désolé, monsieur, nous manquons de temps.
    Je veux juste dire que, si vous n'avez pas la réponse à cette question maintenant...
    Nous avons la réponse, monsieur.
    ... l'entreprise peut nous l'envoyer par écrit.
    La grande majorité des comptes sont en fait désactivés avant même qu'un humain puisse interagir avec eux.
    D'accord.
    Facebook pourrait-elle s'engager à écrire au Comité pour dire...
    Nous le ferons.
    ... combien de ces comptes qui ont été supprimés, ces 3,3 milliards, partageaient de la désinformation? L'entreprise dit que ces comptes sont plus susceptibles de partager de la désinformation que d'autres types de comptes?
    Si nous avons [Inaudible].
    Enfin, à la suite du scandale de Cambridge Analytica l'an dernier, Facebook a annoncé qu'il y aurait une nouvelle fonctionnalité permettant aux utilisateurs d'effacer l'historique de leur navigateur. Je crois savoir que Facebook a annoncé que ce serait lancé plus tard cette année. Cela semble être une longue période. S'il s'agissait du lancement d'un produit qui rapporte de l'argent à Facebook, on pourrait croire que cela se serait fait plus rapidement. On ne dirait pas que vous vous précipitez et que vous remuez terre et mer; on dirait plutôt que vous prenez votre temps.
    Facebook est-elle capable d'arrêter une date à laquelle la fonction permettant d'effacer l'historique du navigateur sera activée?
    Monsieur, je crois avoir parlé de cette nouvelle fonction à quelques reprises avec divers membres du Comité. Il serait probablement inopportun pour moi d'arrêter une date, évidemment, à ce moment-ci. Je ne veux pas aller plus vite que mes skis, mais je pourrais simplement dire que, même avec les mesures de transparence que nous mettons en place au Canada, nous travaillons sans relâche pour bien faire les choses. Nous allons essayer de déployer cet autre produit à l'échelle mondiale. Cela va prendre...
    Je dirais simplement que ce genre de fonctions est assez répandu sur le Web. Je pense que le fait que cela fait maintenant plus d'un an qu'elle a été annoncée et que vous ne pouvez même pas donner une date cette année pour son entrée en vigueur est vraiment déplorable.
    Je comprends.
    Je tiens à remercier tout le monde de son témoignage aujourd'hui.
    Je félicite M. Chan pour certains des changements qu'il a annoncés. Nous avons entendu ces promesses à maintes reprises, alors je suppose que nous attendrons de voir ce que nous obtiendrons au bout du compte.
    Cela nous ramène à ce que nous demandions au départ. En toute bonne foi, nous avons demandé à votre PDG et à votre directrice des opérations de comparaître devant nous aujourd'hui pour que nous travaillions ensemble à trouver une solution à ces problèmes que tout un tas de pays et de gens dans le monde considère comme des problèmes communs. À mon avis, il est honteux qu'ils ne soient pas ici aujourd'hui pour répondre à ces questions précises auxquelles vous n'avez pas pu répondre pleinement.
    C'est ce qui est troublant. Nous essayons de travailler avec vous, et vous dites que vous essayez de travailler avec nous. Nous venons d'avoir un message aujourd'hui qui m'a été transmis par mon vice-président. Il indique que « Facebook témoignera devant le Grand comité international ce matin. Neil Potts et Kevin Chan témoigneront. Aucun d'eux ne figure au tableau des 35 plus hauts fonctionnaires de l'équipe des politiques. »
    On nous a ensuite dit que vous ne figurez même pas parmi les 100 plus importants. Je ne veux pas vous offenser personnellement; vous assumez la responsabilité pour l'équipe de Facebook, alors je vous suis reconnaissant de votre présence ici aujourd'hui. Cependant, la dernière chose que j'ai à dire au Comité, c'est qu'il est honteux que Mark Zuckerberg et Sheryl Sandberg ne soient pas venus aujourd'hui.
    Cela dit, nous tiendrons une rencontre avec les médias immédiatement après la réunion pour répondre aux questions. Nous allons signer la déclaration d'Ottawa juste ici, de sorte qu'un membre de chaque délégation siégera à titre de représentant.
    Par la suite, tous les parlementaires en visite de partout dans le monde sont invités à assister à notre période de questions d'aujourd'hui. Je vais vous orienter vers ma chef de cabinet, Cindy Bourbonnais. Elle vous aidera à obtenir les laissez-passer dont vous avez besoin pour siéger à la Chambre si vous souhaitez venir à la période de questions aujourd'hui.
    Merci encore d'être venus en tant que témoins. Nous passerons directement à la déclaration d'Ottawa.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU