Passer au contenu
Début du contenu

ETHI Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique


NUMÉRO 120 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le mardi 16 octobre 2018

[Énregistrement électronique]

  (1105)  

[Traduction]

    La séance est maintenant ouverte. Je m'appelle Nathaniel Erskine-Smith. Je remplace M. Zimmer, notre président habituel. Je vais poser quelques questions, mais je vais surtout laisser mes collègues libéraux en poser.
    Nous allons commencer par des déclarations des témoins. Ils auront chacun 10 minutes. Nous passerons ensuite aux séries de questions.
    Nous allons commencer par Mme Wardle, de l'Université Harvard.
    Merci beaucoup de votre invitation à comparaître aujourd'hui. Je m'excuse de ne pas pouvoir être présente en personne.
    Je m'appelle Claire Wardle. Je suis chercheuse associée au Shorenstein Center on Media, Politics and Public Policy de la Kennedy School de Harvard.
    Je suis aussi la présidente exécutive de First Draft, une organisation sans but lucratif vouée à relever les défis associés à la confiance et à la vérité à l'ère numérique. L'organisation a été créée il y a trois ans dans le but précis d'aider les journalistes à apprendre à vérifier le contenu sur les médias sociaux du Web, et plus précisément les images et les vidéos. Cela demeure ma spécialité de recherche.
    En 2016, First Draft a commencé à mettre l'accent sur la cartographie et la recherche au sein de l'écosystème de l'information. Nous avons conçu, mis au point et géré des projets de journalisme axés sur la collaboration aux États-Unis avec ProPublica, puis, en 2017, nous avons réalisé des projets durant les élections en France, au Royaume-Uni et en Allemagne. Cette année, nous menons d'importants projets aux États-Unis, dans le cadre des élections de mi-mandat, et relativement aux élections du Brésil. Par conséquent, nous avons une grande expérience sur le terrain des problèmes liés à l'information, et ce, dans de multiples contextes.
    Je suis pointilleuse lorsqu'il est question de définition, et j'ai passé beaucoup de temps à l'élaboration de typologies, de cadres et de glossaires. En octobre dernier, j'ai co-rédigé un rapport avec Hossein Derakhshan, un Canadien, rapport que nous avons intitulé: Information Disorder, soit trouble de l'information, une expression que nous avons inventée pour décrire la diversité de contenus, de comportements et de pratiques problématiques constatés dans notre écosystème d'information.
    Dans le rapport, nous avons fait une distinction entre la mésinformation, c'est-à-dire lorsque du faux contenu est communiqué sans l'intention de causer un préjudice, la désinformation, soit lorsque du contenu faux est communiqué délibérément pour causer du tort, et la malinformation, une expression que nous avons inventée pour décrire les situations où du contenu authentique est communiqué délibérément pour causer du tort, comme, par exemple, les fuites de courriels, la pornographie de revanche et la circulation, pendant un ouragan, d'images venant en fait d'une catastrophe naturelle précédente. Notre point, ici, c'est que l'expression « fausse nouvelle » n'est pas utile et que, en fait, une bonne partie du contenu n'est pas faux du tout. C'est l'utilisation du contenu qui est problématique.
    Le rapport souligne également le fait qu'il faut reconnaître les relations émotionnelles que nous avons avec l'information. Les journalistes, les chercheurs et les décideurs ont tendance à présumer qu'il y a là une relation rationnelle. Trop souvent, on pense que si seulement il y avait plus de contenu de qualité, tout irait bien, mais les humains cherchent de l'information, en consomment et en partagent et créent des liens en fonction de leurs émotions. C'est une réalité que reflètent les algorithmes des médias sociaux. Nous consultons du contenu qui nous fait rire ou pleurer, qui nous met en colère ou qui nous permet de nous sentir supérieurs. Lorsqu'il existe un tel engagement, plus de personnes voient le contenu en question, ce qui peut mener à la viralité.
    Les agents de désinformation comprennent la situation. Ils utilisent nos susceptibilités émotionnelles pour nous rendre vulnérables. Ils écrivent des titres chargés d'émotions et les associent à des images qui suscitent des émotions, sachant que ce sont ces réactions humaines qui alimentent aujourd'hui notre écosystème d'information.
    Soit dit en passant, dans le cadre de nos projets liés à des élections, nous utilisons l'outil CrowdTangle — qu'a depuis acquis Facebook — pour effectuer des recherches sur des messages potentiellement trompeurs ou faux. L'une des meilleures techniques que nous avons consiste à filtrer les résultats de nos recherches à l'aide des émoticônes de colère utilisés sur Facebook. Cette méthode reste la meilleure façon de trouver le contenu que nous cherchons.
    Dans le cadre de ma déclaration préliminaire, j'aimerais souligner trois défis.
    Premièrement, nous devons comprendre de quelle façon les images deviennent des véhicules de désinformation. Notre cerveau fait beaucoup plus confiance aux images, et il faut beaucoup moins d'effort cognitif pour analyser une image que pour lire un article en format texte. De plus, les images n'exigent pas de clic. Elles sont déjà là, bien apparentes, sur nos fils et, dans la plupart des cas, sur nos téléphones intelligents, des appareils avec lesquels nous entretenons une relation particulièrement intime.
    Deuxièmement, nous disposons d'un nombre vraiment restreint de recherches empiriques sur les troubles de l'information. Une grande partie de ce que nous savons vient de projets réalisés dans des conditions expérimentales avec des étudiants de premier cycle, Américains pour la plupart. Les défis auxquels nous sommes confrontés sont importants, et il faut faire quelque chose rapidement. Cependant, il s'agit d'une situation extrêmement dangereuse, puisque nous avons si peu de données probantes empiriques sur lesquelles fonder des interventions précises. Afin d'étudier l'impact des troubles de l'information de façon à ce que nous puissions vraiment approfondir nos connaissances, nous devons avoir accès aux données que seules les entreprises technologiques possèdent.
    Troisièmement, le lien entre la désinformation et le ciblage publicitaire est l'aspect le plus inquiétant actuellement. Même si, en tant que telle, la désinformation au niveau agrégé peut ne pas sembler convaincante ni influente, le fait de cibler des personnes en fonction de leur profil démographique, de leur historique de navigation sur Internet ou de leur place dans la structure sociale peut créer de réels dommages, particulièrement dans des pays misant sur un système majoritaire uninominal où, dans un grand nombre de circonscriptions, la lutte est serrée. Cependant, encore une fois, je ne saurais trop insister sur le fait que nous avons besoin de plus de recherches. Nous n'avons tout simplement pas l'information nécessaire.
    Cependant, à ce stade-ci, j'aimerais me concentrer précisément sur le lien entre la désinformation et l'intégrité des élections. Il s'agit d'un trouble de l'information relativement auquel les entreprises de technologie sont prêtes à réagir. Pas plus tard qu'hier, nous avons vu Facebook annoncer que, vers les élections de mi-mandat aux États-Unis, l'entreprise va éliminer — pas seulement déclasser — la désinformation liée à l'intégrité des élections.
    Si un élément de désinformation vise à empêcher des gens de voter, l'entreprise peut prendre des mesures, tandis que, pour ce qui est des autres types de troubles de l'information — sans contexte externe —, l'entreprise hésite davantage à prendre des mesures qui, vu la situation actuelle, sont la bonne chose à faire.
    En 2016, aux États-Unis, des messages visuels microciblaient des communautés minoritaires, laissant entendre que les gens pouvaient rester chez eux et voter pour Hillary Clinton par message SMS. Les messages étaient assortis d'un court code. Bien sûr, c'était faux. Nous devons, au minimum, prioriser ces types de messages. À une époque où l'ensemble de la situation est aussi complexe, c'est le genre de messages contre lesquels nous devrions lutter.
    Pour ce qui est des autres types de messages commandités qui peuvent faire l'objet d'un microciblage, il est clair qu'il faut en faire plus. Cependant, on rencontre alors à nouveau le défi des définitions. Si tout type de politique ou même de règlement s'applique simplement aux publicités qui mentionnent un candidat ou le nom d'un parti, nous passerons à côté du moteur de toute campagne de désinformation, c'est-à-dire les messages visant à accentuer les clivages actuels dans la société en ce qui concerne l'ethnicité, la religion, la race, la sexualité, le sexe et la classe sociale ainsi que des enjeux sociaux précis, notamment l'avortement, le contrôle des armes à feu ou les réductions d'impôts.
    Lorsqu'un candidat, un parti, un militant ou un agent de désinformation étranger peut tester des milliers de versions d'un message précis auprès d'innombrables tranches de la population en fonction des données sur ces gens qu'il a en sa possession, le contexte de nos élections peut rapidement sembler très différent. Les outils de commercialisation sont conçus pour les fabricants de dentifrice qui veulent vendre plus de produits, ou encore pour des organisations comme le HCR. Lorsque je travaillais pour le Haut commissariat, je faisais ce genre de microciblage pour joindre des gens plus susceptibles de soutenir les réfugiés. Que faut-il faire lorsqu'on transforme ces mécanismes en armes? Il n'y a pas de solution facile à ce défi. Les agents de désinformation utilisent ces entreprises exactement comme elles doivent l'être.
    Si vous ne l'avez pas déjà lu, je vous recommande de lire le rapport que vient de publier Full Fact, la principale organisation de vérification des faits du Royaume-Uni. L'organisation formule des recommandations en matière de publicité politique en ligne et demande la création d'une base de données centrale et ouverte des publicités politiques, y compris leur contenu, leur cible, leur portée et les dépenses connexes. Full Fact souligne que cette base doit contenir des données en format lisible par machine et que l'information doit être fournie en temps réel.
    Reste à savoir de quelle façon on définit une publicité politique et si on devrait fournir une définition publique. Si on le fait, on permettra aux agents de désinformation de trouver d'autres façons de diffuser efficacement leurs messages.
    Je serai heureuse de répondre à vos questions relativement à une situation qui est incroyablement complexe.
    Merci.

  (1110)  

    Merci beaucoup, madame Wardle.
    Nous passons maintenant à M. Black et M. Tseng, deux avocats de McMillan LLP.
    Bonjour aux membres du Comité et aux autres témoins.
    Je m'appelle Ryan Black. Je suis associé et coprésident du groupe des technologies de l'information chez McMillan LLP, un cabinet d'avocats national. Je suis accompagné de Pablo Tseng, mon collègue, qui fait partie de nos groupes responsables des affaires et de la propriété intellectuelle. Nous sommes des avocats en exercice en Colombie-Britannique, et nous sommes honorés de participer aujourd'hui par vidéoconférence à la demande du Comité permanent.
    Il y a quelques mois, Ryan et moi avons écrit un article intitulé What Can The Law Do About « Deepfake »?, que pouvons-nous faire au sujet des « deepfakes ». L'article fournit un aperçu des causes d'action qu'on peut prendre contre ceux qui créent et propagent des deepfakes sur Internet, y compris sur les plateformes de médias sociaux.
    Certaines des causes d'action se fondent sur la diffamation, la violation de la vie privée, l'usurpation d'identité et le Code criminel. Cependant, l'article ne portait pas sur la façon dont les deepfakes peuvent influer sur les élections ni sur la façon dont un État peut limiter les effets de telles vidéos sur les résultats d'une élection.
    Nous espérons utiliser le temps dont nous disposons aujourd'hui pour vous en dire plus sur ce que nous pensons de cet important sujet. Notre déclaration préliminaire sera structurée comme suit: premièrement, nous fournirons un aperçu de certains des autres mécanismes juridiques accessibles pour combattre les deepfakes vidéos dans un contexte électoral; deuxièmement, nous fournirons un aperçu des délits potentiels qui ne sont pas encore reconnus au Canada, mais qui pourraient l'être; et, troisièmement, nous allons discuter de la question de savoir si les deepfakes sont vraiment le problème ou seulement un autre exemple d'un problème sous-jacent plus important au sein de la société.
    D'entrée de jeu, nous voulons nous assurer de mettre l'accent sur les rôles que jouent les utilisateurs, les plateformes et les délinquants dans la diffusion du contenu dans les médias sociaux. Des plateformes bien intentionnées peuvent être et seront utilisées à tort, et des deepfakes vidéos compteront assurément parmi les outils utilisés pour causer du tort.
    Le vrai délinquant, cependant, c'est la personne qui crée le faux contenu afin de le propager grâce à la manipulation psychologique. Comme Mme Wardle y a fait allusion, les données sont précieuses, et les plateformes veulent généralement que la technologie soit utilisée de façon appropriée. Elles aident les organismes d'application de la loi à faire respecter les lois pertinentes et à élaborer des politiques visant à assurer l'intégrité des élections. Elles permettent également de corriger les renseignements erronés et d'obtenir de l'information sur les sources.
    Un exemple récent, au Canada, est la politique canadienne d'intégrité électorale de Facebook, qu'on peut lire sur Internet.
    Je vais maintenant céder la parole à Pablo, qui vous parlera des recours juridiques pertinents à la discussion d'aujourd'hui.
    En ce qui concerne les élections, nous voulons souligner que le Parlement a été avant-gardiste. En effet, en 2014, il a ajouté à la Loi électorale une disposition sur l'usurpation d'identité de certains types de personnes dans le cadre du processus électoral. Même si de telles dispositions ne ciblent pas précisément les deepfakes vidéos, de telles vidéos pourraient très bien être visées par la disposition en question.
    De plus, il y a eu des exemples dans la jurisprudence canadienne de situations où des plateformes de médias sociaux ont été forcées — au moyen de ce que les tribunaux appellent des ordonnances de type Norwich — de participer à une enquête liée à un crime commis sur la plateforme en question. Par exemple, un tribunal peut exiger d'une plateforme de médias sociaux qu'elle révèle l'identité d'utilisateurs anonymes qui utilisent ses services, ce qui signifie qu'il existe déjà des mécanismes juridiques et, d'après notre expérience, les tiers respectueux des lois qui sont assujettis à de telles ordonnances obtempèrent habituellement.
    Il est également possible pour nos tribunaux d'élargir la portée des délits en common law et pour nos gouvernements d'en codifier de nouveaux.
    De façon générale, le droit tient à la common law et aux textes législatifs. Il ne faut pas perdre de vue que les gouvernements peuvent créer de nouvelles lois, c'est-à-dire qu'ils sont libres d'adopter des lois et de les mettre en vigueur. De telles lois peuvent être maintenues si elles respectent certains critères. Même si elles ne respectent pas nécessairement ces critères, il existe certaines dispositions de dérogation.
    Un exemple de codification des délits est la loi sur la protection des renseignements personnels de la Colombie-Britannique, qui, essentiellement, énonce en quoi consiste la cause d'action de l'usurpation d'identité.
    Nous attirons aujourd'hui votre attention sur deux autres délits aux fins de discussion: l'enrichissement injustifié et le préjudice résultant de la fausse impression.
    En ce qui concerne l'enrichissement injustifié, ce délit a généralement été confirmé lorsqu'un demandeur a essuyé des pertes économiques. Cependant, on peut raisonnablement faire valoir que la notion de perte pourrait être élargie pour couvrir d'autres formes de pertes, des pertes qu'on ne peut pas quantifier en espèces sonnantes et trébuchantes.
    Pour ce qui est du préjudice résultant de la fausse impression, un tel délit existe dans certains États américains, mais le Canada ne reconnaît pas encore ce délit. Cependant, l'impact des deepfakes vidéos pourrait pousser les tribunaux canadiens à revoir leur position au sujet de ce délit. Même si le préjudice résultant de la fausse impression n'existe pas dans la common law, les gouvernements provinciaux ont tout à fait le pouvoir d'inscrire ce délit dans le code législatif, créant ainsi son existence par voie législative.

  (1115)  

    Dans notre article, nous examinons le délit lié au droit d'auteur ainsi que des recours possibles au Code criminel comme solutions de rechange potentielles, mais parfois imparfaites. Nous soulignons que les deepfakes — même s'il ne fait aucun doute qu'ils sont impressionnants et qu'ils changent la donne — sont sans doute plus qu'il n'en faut pour manipuler le public. On n'a certainement pas besoin d'algorithmes informatiques complexes pour créer une vidéo trompeuse du genre de celles qu'on dépose régulièrement en preuve ou qu'on juge dignes de faire les manchettes.
    Pensez à toutes les séquences d'enregistrement de sécurité que vous avez vues aux nouvelles. Ces vidéos sont loin d'être d'une fidélité impressionnante: elles sont souvent granuleuses, ou, encore, l'angle est mauvais. En outre, habituellement, les gens qu'on y voit ne ressemblent que vaguement aux personnes en question.
    Même si on peut créer des deepfakes pour inclure de façon convaincante un visage ou certaines caractéristiques dans une vidéo, le simple fait d'utiliser les angles, un mauvais éclairage, un enregistrement granuleux ou d'autres techniques peut être suffisant. En fait, nous avons vu des exemples récents de paroles de synthèse qui semblaient encore plus humaines lorsqu'on y ajoutait des petits défauts comme des hum, des ah ou d'autres pauses.
    Si je peux vous donner un autre exemple, une récente vidéo virale montrait apparemment une étudiante en droit qui versait de l'eau de javel sur l'entre-jambes d'hommes dans le métro russe pour les empêcher de perpétrer une microagression, soit s'asseoir avec les jambes trop écartées. La vidéo a suscité des réactions positives et négatives auxquelles on pouvait s'attendre dans tout le spectre politique. On a par la suite appris que la vidéo avait été mise en scène dans le but précis de promouvoir une réaction défavorable contre le féminisme et d'accentuer le clivage social dans les pays occidentaux. Aucune technologie d'intelligence artificielle n'a été requise ici: il a suffi de quelques acteurs payés et d'un enjeu brûlant qui dresse les gens les uns contre les autres. Même si c'est un exemple de nature politique, il ne ciblait certainement pas les élections canadiennes de façon vraisemblablement concrète.
    Les deepfakes vidéos ne constituent pas un problème unique. Il s'agit plutôt d'un autre aspect d'un très vieux problème qui mérite assurément d'être pris en considération, mais nous avons deux grandes préoccupations au sujet de toute réponse judiciaire ou législative aux deepfakes vidéos.
    La première concerne la surspécification et la réaction excessive. Nous vivons depuis longtemps avec la menace que pose la technique vidéo des deepfakes dans le domaine de la photographie. Je ne suis pas un expert des effets visuels, mais, lorsque j'étais stagiaire à mon cabinet d'avocats — il y a plus d'une décennie —, dans le cadre de notre traditionnel bien-cuit des associés de notre party des Fêtes, j'ai manipulé de façon très convaincante une photographie du rappeur Eminem en remplaçant le visage de ce dernier par l'un de nos avocats principaux. La plupart des gens savaient que c'était une blague, mais une personne m'a demandé comment j'avais réussi à convaincre l'associé de prendre la photo. Heureusement, ce dernier n'a pas eu l'impression que sa réputation avait été gravement entachée, et je m'en suis sorti indemne.
    Bien sûr, il arrivera un moment où la véracité d'une vidéo très claire ne sera plus garantie et où la représentation d'une personne créée grâce au soutien de l'intelligence artificielle sera à même de nous tromper et sera jugée digne de passer aux actualités. Nous avons déjà vu des exemples théoriques de tout ça, alors les législateurs peuvent et doivent s'assurer que les recours actuels permettent à l'État et aux victimes de lutter contre les deepfakes vidéos malicieux.
    Il existe déjà un certain nombre de recours, dont beaucoup sont analysés dans notre article, mais, en ce qui concerne l'avenir des vidéos manipulables par voie numérique, la différence entre une simulation par ordinateur et le fait d'enregistrer une personne en chair et en os pourrait devenir une simple préférence du créateur de contenu. Par conséquent, il pourrait bien sûr être approprié de passer en revue les recours juridiques, les infractions criminelles et la loi pour s'assurer que ceux qui utilisent des simulations peuvent tout aussi bien faire l'objet de poursuites que ceux qui utilisent des images traditionnelles.
    Notre deuxième préoccupation, c'est que toute mesure judiciaire ou gouvernementale ne doit pas se concentrer sur l'étendue de la responsabilité en imposant un fardeau ou en s'attaquant à la mauvaise cible. Si on opte pour un recours civil devant les tribunaux — particulièrement dans le cas d'Internet, qui ne connaît pas de frontières —, souvent, un lourd fardeau sera placé sur les épaules de la victime d'un deepfake, que ce soit une femme victimisée par un deepfake pornographique de revanche ou un politicien victimisé par une controverse créée par un deepfake. C'est là un processus laborieux, lent et coûteux. Les gouvernements ne devraient pas se contenter de laisser le soin aux victimes d'obtenir réparation ou d'intenter des poursuites.
    Le Canada a une certaine expérience en ce qui a trait à l'intervention dans le cadre de poursuites liées à Internet, et il a connu divers degrés de réussite. Nos lois sur la protection de la vie privée et les lois contre les pourriels ont protégé les Canadiens — et parfois imposé de lourds fardeaux aux plateformes —, mais dans la course à la cybersécurité à laquelle participent les contrevenants, les plateformes et les utilisateurs, nous ne pouvons pas perdre de vue deux faits importants.
    Premièrement, les intermédiaires, les réseaux, les fournisseurs de médias sociaux et les médias seront toujours attaqués par des personnes malveillantes, tout comme une banque ou une maison sera toujours la cible de voleurs. Ces plateformes sont — il ne faut pas l'oublier — aussi des victimes des faussetés malveillantes communiquées grâce à elles, et ce, tout autant que les personnes dont l'information est volée ou l'identité falsifiée.
    Deuxièmement, comme Mme Wardle l'a mentionné, la propension continue des personnes à être victimes de fraude, à accepter des fausses nouvelles ou à être visées par des cyberattaques montre que les humains ne sont pas toujours intrinsèquement rationnels. Plus que l'intelligence artificielle, c'est l'intelligence trop humaine, avec son biais de confirmation, sa propension à chercher des modèles et ses autres insuffisances et distorsions cognitives, qui perpétuera la communication de la désinformation.
    Pour ces raisons, peut-être même davantage qu'à cause des règles et des lois qui ciblent de façon inefficace des délinquants anonymes ou extraterritoriaux ou qui imposent un fardeau indu aux intervenants légitimes aux frontières canadiennes, nous estimons que l'intervention des gouvernements doit consacrer suffisamment de ressources à l'éducation, à la compréhension du monde numérique et des nouvelles et à l'esprit critique.
    Merci beaucoup de nous accueillir.

  (1120)  

    Merci beaucoup à vous deux.
    Nous passons maintenant à Tristan Harris, cofondateur et directeur exécutif du Center for Humane Technology, qui comparaît depuis San Francisco.
    Je m'appelle Tristan Harris. Je suis heureux d'être parmi vous aujourd'hui. À l'origine, j'étais éthicien en design chez Google et, avant, entrepreneur dans le domaine des technologies. Je possédais une entreprise en démarrage qui a été acquise par Google.
    Je veux reprendre bon nombre des commentaires que vos autres invités ont formulés, mais je veux aussi vous donner une idée de la façon dont de tels produits sont conçus d'entrée de jeu. Mes amis au collège ont lancé Instagram. Bon nombre de mes amis ont travaillé dans des entreprises en démarrage du domaine de la technologie, et leur bagage est en fait similaire.
    Ce que je veux éviter de faire aujourd'hui, c'est de commencer à jouer au jeu de la taupe. Il y a littéralement des billions d'éléments de contenu, de délinquants, de types différents de mésinformation et de deepfakes. Toutes ces choses nous passent sous les yeux dans un genre de jeu de la taupe. Nous avons beau frapper à tout bout de champ, nous ne réglerons pas le problème.
    Ce que j'aimerais faire aujourd'hui, c'est offrir un diagnostic — qui n'est en fait que mon avis — sur le problème central, c'est-à-dire que nous devons essentiellement reconnaître les limites de la pensée et de l'action humaine. E.O. Wilson, le grand sociobiologiste, a dit que le vrai problème de l'humanité, c'est que nous avons des émotions datant du paléolithique, des institutions médiévales et des technologies érigées en dieux. Voilà qui décrit, essentiellement, la situation dans laquelle nous nous trouvons.
    La technologie réécrit les limites de l'animal humain. Nous avons une capacité limitée à garder une certaine quantité d'information à l'esprit en même temps et de discerner la vérité. Nous nous appuyons sur des raccourcis, comme ce que les autres personnes disent être vrai ou les vérités des gens en qui nous avons confiance. Nous avons une capacité limitée de discerner le vrai avec nos propres yeux, nos oreilles et nos sens. Si je ne peux plus faire confiance à mes yeux, mes oreilles et mes sens, eh bien, à quoi est-ce que je peux faire confiance dans la réalité des deepfakes?
    Plutôt que de se laisser distraire par l'ouragan de Cambridge Analytica, l'ouragan de la dépendance et l'ouragan des deepfakes, ce que nous devons vraiment faire, c'est nous demander ce qui génère tous ces ouragans. La fonction génératrice, ici, c'est essentiellement le mauvais alignement de la façon dont la technologie est conçue pour ne pas s'adapter, un peu comme la structure ergonomique de l'animal humain.
    Tout comme, du point de vue ergonomique, je peux tenir en main une paire de ciseaux et l'utiliser à quelques reprises et faire ce que j'ai à faire... si les ciseaux ne sont pas adaptés géométriquement à la façon dont les muscles fonctionnent, on commence à mettre le système à l'épreuve. Si les ciseaux sont très mal adaptés d'un point de vue géométrique, on peut causer un stress énorme sur le système et même le briser.
    De la même façon, l'esprit humain et notre capacité de donner un sens au monde et à nos émotions ont une sorte de capacité ergonomique. Nous nous retrouvons dans une situation où des centaines de millions d'adolescents, par exemple, lorsqu'ils se réveillent le matin, après avoir éteint leur alarme, regardent leur téléphone: c'est la première chose qu'ils font de la journée. Et ils peuvent y voir une photo après l'autre de leurs amis qui ont du plaisir sans eux. C'est une expérience totalement nouvelle pour 100 millions d'animaux humains adolescents qui se réveillent ainsi chaque matin.
    D'un point de vue ergonomique, cette situation mine notre capacité de nous faire une idée honnête du plaisir qu'ont nos amis. C'est un genre de distorsion, mais une distorsion qui commence à déformer et briser nos notions normales et notre conception sociale normale de la réalité. C'est ce qui se produit dans chaque dimension différente.
    Si on prend un peu de recul, l'ampleur de l'influence de ce dont nous parlons est unique. C'est une nouvelle forme d'influence psychologique. Souvent, ce dont on parle dans le cadre de cette conversation c'est: « eh bien, les médias ont toujours été là. Il y a toujours eu de la propagande. On a toujours été en proie à une panique morale concernant la façon dont les enfants utilisent la technologie. On a toujours eu le même genre de panique au sujet des médias ». Qu'est-ce qui est vraiment nouveau, ici? J'aimerais vous souligner quatre choses distinctes qui sont sans précédent et nouvelles au sujet de la situation actuelle.
    Dans un premier temps, il y a l'intégration et l'échelle. Il y a 2,2 milliards d'animaux humains connectés à Facebook. C'est environ autant que le nombre d'adeptes du christianisme. Il y a 1,9 milliard d'humains connectés à YouTube. C'est environ le même nombre que les fidèles de l'islam. La personne moyenne vérifie son téléphone 80 fois par jour. Ce sont les chiffres d'Apple, et ils sont conservateurs. Selon d'autres sources, c'est 150 fois par jour. Du moment où une personne se lève le matin et éteint son alarme au moment où elle la réactive et s'endort, essentiellement, elle est connectée. La seconde où on retourne notre téléphone, des pensées commencent à défiler dans notre tête, y compris: « Je suis en retard pour telle ou telle réunion » ou « Mes amis ont du plaisir sans moi ». Toutes ces pensées sont générées par des écrans, et c'est une forme d'influence psychologique.
    La première chose qui est nouvelle ici, c'est l'échelle et l'intégration, parce que, contrairement aux autres formes de médias, en raison du fait qu'on regarde nos téléphones en permanence, ils se sont vraiment ancrés dans nos vies. Ils ressemblent beaucoup plus à des prothèses qu'à des appareils que nous utilisons. Voilà donc pour la première caractéristique.

  (1125)  

    La deuxième caractéristique qui est différente et nouvelle au sujet de cette forme de problème de propagande médiatique concerne la construction sociale de la réalité. Les autres formes de médias, la télévision et la radio, ne nous permettaient pas de voir à quoi ressemblait la vie de nos amis ni de connaître les croyances des personnes autour de nous. On voyait des publicités montrant un couple purement générique qui marchait sur une plage du Mexique, générique elle aussi, mais on ne voyait pas directement nos amis qui se promenaient sur une plage bien réelle, ni les faits saillants de la vie de toutes ces autres personnes. La capacité de construire socialement la réalité — surtout la façon dont nous construisons socialement la notion de vérité, parce que nous regardons aussi une bonne partie des gazouillis que beaucoup de ces personnes retransmettent — est une autre nouvelle caractéristique de cette forme de manipulation psychologique.
     La troisième caractéristique différente, c'est la question de l'intelligence artificielle. Ces systèmes sont de plus en plus conçus pour utiliser l'intelligence artificielle afin de prédire la meilleure chose à proposer à une personne. Les systèmes calculent la meilleure chose à vous montrer ensuite. Lorsque vous avez fini de regarder une vidéo YouTube et qu'il y a un décompte automatique — cinq, quatre, trois, deux, une seconde — vous venez d'activer un superordinateur qui analyse votre cerveau. Ce super ordinateur sait beaucoup plus de choses sur la façon dont votre cerveau fonctionne que vous, parce qu'il a vu deux autres millions d'animaux humains regarder la même vidéo avant. Il sait que la chose parfaite qui les a poussés à regarder la vidéo suivante était telle ou telle chose, alors il proposera une autre vidéo similaire à cet autre animal humain. C'est là un nouveau niveau d'asymétrie: l'auto-optimisation des systèmes d'intelligence artificielle.
    La quatrième nouvelle caractéristique distincte, c'est la personnalisation. Ces canaux sont personnalisés. Contrairement aux différentes formes de télévision, de radio et de propagande du passé, nous pouvons en fait fournir 2 milliards de Truman Shows ou 2 milliards de formes personnalisées de manipulation.
    La raison pour laquelle j'en suis venu à me poser ces questions, c'est que j'ai étudié au Persuasive Technology Lab de Stanford où, essentiellement, on enseignait aux étudiants en génie la façon d'appliquer tout ce que nous savions au sujet des domaines de la persuasion — Edward Bernays, le dressage des chiens à l'aide de cliqueurs, la façon dont les machines à sous et les casinos sont conçus — afin, en gros, de déterminer de quelle façon on pouvait utiliser la persuasion dans le domaine des technologies pour influer sur les attitudes, les croyances et les comportements des gens. Il ne s'agissait pas là d'un laboratoire infâme. L'idée, c'était de savoir si on pouvait utiliser ce pouvoir de façon positive. Peut-on, entre autres, aider les gens à aller faire de l'exercice comme ils voulaient en faire?
    Au bout du compte, durant le dernier cours du Persuasive Technology Lab de Stanford, quelqu'un a imaginé le cas d'usage suivant: et si, à l'avenir, on pouvait avoir le profil parfait de ce qui permettrait de manipuler les caractéristiques uniques, les vulnérabilités uniques, de l'être humain assis devant nous? Par exemple, la personne peut réagir positivement aux appels à l'autorité, ce qui signifie que recourir à l'autorité du gouvernement du Canada auprès de cette personne serait particulièrement convaincant, vu son état d'esprit précis, parce que cette personne se soumet facilement à l'autorité. Des noms comme Harvard ou le gouvernement canadien... Ou encore, la personne peut être très susceptible au fait que tous ses amis ou un certain groupe d'amis croient vraiment quelque chose. Lorsqu'on connaît les vulnérabilités précises des gens, on peut ensuite adapter des messages convaincants pour manipuler parfaitement la personne assise directement devant nous.
    C'est ce qu'a fait un des groupes durant le dernier cours sur la technologie persuasive. Le sujet était l'avenir de l'éthique de la technologie persuasive, et ça m'a horrifié. Cette expérience hypothétique est, essentiellement, ce que nous vivons tous les jours. C'est aussi ce qui s'est passé dans le cas plus connu de Cambridge Analytica, où, en connaissant les caractéristiques uniques de la personnalité des personnes à influencer, il a été possible de cibler parfaitement les messages politiques.
    Si on prend un peu de recul, on constate encore vraiment la même chose: l'esprit humain, l'animal humain, est fondamentalement vulnérable, et il y a des limites à nos capacités. Nous avons le choix: soit reconcevoir et réaligner la façon dont la technologie fonctionne pour tenir compte des limites de la capacité de l'homme à trouver un sens au réel et de faire des choix, soit ne pas le faire.
    En tant qu'ancien magicien qui peut vraiment vous dire que ces limites existent réellement, ce que j'espère accomplir durant la réunion, aujourd'hui, c'est de dire qu'il faut ramener la technologie à l'intérieur de ces limites. C'est ce sur quoi nous travaillons au sein de notre groupe sans but lucratif, le Center for Humane Technology.

  (1130)  

    Merci beaucoup, monsieur Harris.
    Notre dernier témoin est Mme Krause, recherchiste et rédactrice.
    Bonjour, monsieur le président. C'est un privilège de comparaître devant votre comité. Je vous remercie de me donner l'occasion de m'adresser à vous.
    Je m'appelle Vivian Krause. Je suis rédactrice canadienne et j'ai fait beaucoup de recherches sur le financement du militantisme environnemental et électoral. D'après ce que j'ai compris, on m'a demandé de vous parler aujourd'hui de l'intégrité électorale et, plus précisément, des enjeux liés aux médias sociaux.
    D'après mes recherches, monsieur le président, il me semble évident que des intérêts étrangers ont compromis l'intégrité de nos élections fédérales de 2015. En outre, nos élections fédérales ont été compromises parce que la Direction des organismes de bienfaisance de l'ARC n'applique pas la Loi de l'impôt sur le revenu en ce qui a trait à l'exigence selon laquelle les organismes de bienfaisance doivent oeuvrer à des fins exclusivement caritatives.
    Je vais parler de l'ARC dans un instant, mais j'aimerais d'abord parler rapidement des organisations non canadiennes qui sont intervenues dans le cadre des élections de 2015 et de leurs motifs. À titre de preuve, monsieur le président, je demanderais au Comité de bien vouloir regarder le rapport annuel de 2015 d'une organisation américaine appelée Online Progressive Engagement Network, connue sous l'appellation OPEN. C'est une organisation dont le siège social est situé à Oakland, en Californie. J'ai fourni une copie du rapport au greffier. Dans ce rapport annuel, le directeur exécutif d'OPEN écrit que son organisation, dont le siège social est situé en Californie, a clos l'année 2015 en participant à une campagne canadienne qui a réussi à changer la donne durant les élections nationales et qui a contribué grandement à l'éviction du gouvernement conservateur Harper.
    Qui est OPEN et pourquoi l'organisation s'est-elle intéressée aux élections fédérales de 2015? OPEN est un projet issu d'un programme d'incubation stratégique d'une organisation appelée le Citizen Engagement Laboratory, ou CEL. Le Citizen Engagement Laboratory s'est décrit comme les gens derrière les gens. On peut lire sur son site Web que le laboratoire est déterminé à fournir le meilleur soutien du point de vue des technologies, des finances, des opérations, de la collecte de fonds et de la stratégie.
    Et que fait OPEN exactement? Selon OPEN, l'entité fournit à ses organisations membres des services de gestion financière, des protocoles et ce qu'elle appelle une capacité d'appoint au début du processus de développement. Selon ses dires, OPEN facilite l'échange fluide des idées, de l'expertise et de la collaboration de part et d'autre des frontières, ajoutant que ses services aident les nouvelles organisations à se mettre sur pied et à avoir du succès dans un temps record.
    En effet, c'est exactement ce que Leadnow a fait dans le cadre des élections fédérales de 2015. Dans sa description de travail pour OPEN, le directeur exécutif affirme que son travail consiste à conseiller des organisations à chaque étape du processus de campagne: de la stratégie globale à la conception des messages, en passant par le choix des moments charnières.
    OPEN est financé — du moins en partie — par le Rockefeller Brothers Fund établi à New York. Selon les déclarations de revenus et d'autres documents, que j'ai aussi fournis au greffier, depuis 2013, le Rockefeller Brothers Fund a versé au moins 257 000 $ à OPEN. Dans ses documents, OPEN se décrit comme une organisation interentreprises affichant, comme elle le dit, un profil public très discret. Elle précise oeuvrer ainsi intentionnellement, parce que la participation à des activités politiques d'une association internationale peut être délicate dans certains pays où elle travaille. Dans son profil Facebook, le directeur exécutif d'OPEN dit à propos de lui-même qu'il peut voir le Golden Gate d'une de ses résidences — en d'autres mots, à San Francisco —, et le monument de Washington, de l'autre — en d'autres mots, la Maison Blanche — et qu'il consacre beaucoup de temps à s'ingérer dans les affaires d'États étrangers.
    Qu'a fait OPEN exactement durant les élections fédérales de 2015? OPEN a aidé à lancer Leadnow, une organisation établie à Vancouver. Nous le savons parce que le directeur exécutif d'OPEN a gazouillé au sujet de sa venue au Canada en 2012, où il est resté dans une maison de ferme près de Toronto et a travaillé avec Leadnow. D'autres documents parlent aussi du rôle d'OPEN dans le lancement et l'orientation de Leadnow.
    Nous avons la certitude que Leadnow a travaillé avec OPEN, parce qu'il y a une photo de membres du personnel de Leadnow à New York qui participent à la réunion d'OPEN avec des représentants du Rockefeller Brothers Fund, en 2012. Il y a une autre photo de représentants de Leadnow à une réunion d'OPEN, à Cambridge, en Angleterre, ainsi qu'une photo d'employés de Leadnow en Australie, en janvier 2016, peu après les élections fédérales, en train de remporter un prix d'OPEN — une organisation américaine — pour avoir aidé à défaire le parti conservateur du Canada.
    Leadnow s'attribue le mérite d'avoir aidé à défaire 26 députés conservateurs. C'est un peu exagéré, j'imagine, mais dans quelques circonscriptions, je pense qu'il est logique de croire que Leadnow a peut-être eu une incidence sur le vote.

  (1135)  

    Par exemple, dans la circonscription d'Elmwood—Transcona de Winnipeg, où Leadnow comptait sur un personnel à temps plein, le député conservateur a perdu par seulement 61 votes. Leadnow s'était présenté comme une organisation entièrement canadienne dirigée par des jeunes, le fruit du travail de deux étudiants de niveau universitaire, mais comme nous le savons maintenant, ce n'était pas tout.
    Je pense qu'il est important de souligner que cet effort soutenu par Rockefeller pour renverser le gouvernement canadien n'est pas sorti de nulle part. Cette tentative d'influer sur les élections fédérales canadiennes faisait partie intégrante d'une autre campagne financée par Rockefeller, ce qu'on a appelé la campagne des sables bitumineux, qui a commencé en 2008, il y a 10 ans. En effet, les responsables de cette campagne ont eux aussi écrit avoir aidé à défaire le gouvernement fédéral en 2015.
    Pendant de nombreuses années, la stratégie de la campagne sur les sables bitumineux n'était pas tout à fait claire, mais elle l'est maintenant. Maintenant, la stratégie de cette campagne est tout à fait claire, parce que la personne qui a rédigé la stratégie initiale et qui l'a dirigée pendant plus d'une décennie a écrit ce qui suit: « dès le début, la stratégie de la campagne était de bloquer les sables bitumineux afin que le pétrole brut ne puisse pas atteindre le marché international où il pourrait obtenir un prix élevé par baril ».
    Je vais maintenant parler rapidement de l'ARC et d'un exemple de ce qui — je regrette de le dire — constitue un échec de la part de la Direction des organismes de bienfaisance d'appliquer la Loi de l'impôt sur le revenu. J'ai parlé au Comité de trois organismes de bienfaisance, soit la DI Foundation, la Salal Foundation et la Tides Canada Foundation. Selon moi, la DI Foundation et la Salal Foundation sont des organismes de bienfaisance fictifs utilisés pour canadianiser des fonds et établir une distance entre la Tides Canada Foundation et la Dogwood Initiative. La DI Foundation, un organisme de bienfaisance enregistré, ne fait absolument rien à part canaliser des fonds de la Tides Canada Foundation vers la Dogwood Initiative, l'une des organisations les plus actives sur le plan politique au pays.
    Dans le cadre des élections fédérales de 2015, la Dogwood Initiative était une tierce partie enregistrée, et elle a signalé, par exemple, avoir reçu 19 000 $ de Google. La Dogwood Initiative est aussi l'une des principales organisations en jeu dans la campagne des sables bitumineux, puisqu'elle a reçu plus de 1 million de dollars de la American Tides Foundation de San Francisco. L'un de ses plus grands bailleurs de fonds — en fait, je crois qu'il s'agit du plus important — est Google.
    Selon les déclarations de revenus américaines de 2016, Google a versé 69 millions de dollars à Tides. La Tides Foundation, quant à elle, est l'une des principales organisations intermédiaires dans la campagne des sables bitumineux, et elle a fait plus de 400 paiements par chèques et virements électroniques à des organisations participant à la campagne visant à enclaver le pétrole brut et à l'empêcher d'atteindre les marchés internationaux.
    Monsieur le président, en conclusion, je crois qu'il est important de souligner que l'ingérence dans le cadre des élections fédérales de 2015 a été faite dans un but précis, soit dans le cadre d'une campagne visant à enclaver l'une de nos plus importantes exportations nationales. J'espère que ma déclaration vous a donné un aperçu de certains des autres intervenants qui étaient en jeu, de l'ampleur des ressources dont ils disposent et, peut-être, de certaines choses que votre comité pourrait faire afin de mieux protéger l'intégrité de nos élections à l'avenir.
    Merci beaucoup.
    Merci beaucoup de votre exposé.
    Nous allons passer à des tours de sept minutes. Il nous reste environ 1 heure 20 minutes, alors nous allons faire un tour complet, puis nous aurons du temps pour des questions supplémentaires.
    La première intervention va à M. Baylis.

  (1140)  

    Je vais commencer par vous, madame Wardle. Ce que j'aimerais faire, pour commencer, c'est de faire une nomenclature de toutes les choses différentes qui se passent. Vous avez utilisé les termes « mésinformation » « désinformation » et « malinformation ». M. Black et M. Tseng ont parlé quant à eux de « deepfakes », de « deepfakes vidéos ». Ces choses correspondent-elles à l'une de vos trois catégories?
    Oui. Je dirais que les deepfakes sont un exemple de fausse information diffusée pour causer du tort, et il s'agirait donc de désinformation. Dans le cas de la mésinformation, ce pourrait être, par exemple, ma mère qui voit un deepfake et le partage. Elle ne sait pas que c'est de la fausse information. Ma mère ne tente pas de causer du tort. Ces choses peuvent être de nature changeante à mesure qu'elles cheminent dans l'écosystème.
    Mais quelle est la différence entre la désinformation et la malinformation, alors?
    Pour ce qui est de la malinformation, nous avons beaucoup parlé de contenu fabriqué ou de contenu faux, mais il y a une façon d'utiliser du contenu authentique pour causer du tort. Par exemple, communiquer des courriels qui étaient privés et en les rendant publics peut être une forme de malinformation. Il y a aussi une forme de fuite de dénonciation pour le bien public, et, par conséquent, la malinformation, c'est le fait de divulguer de l'information, mais pour causer un préjudice.
    « Mal » comme dans « malveillant »? C'est ce que vous voulez dire par là?
    Oui.
    Il y a la désinformation, la mésinformation et l'information malveillante, et la malinformation est en fait une information véridique, mais utilisée pour déformer les faits ou les dénaturer?
    Oui.
    Selon vous, les deepfakes sont de la désinformation.
    Oui.
    Messieurs Tseng et Black, est-ce que tout ça est conforme à la façon dont vous concevez cette préoccupation au sujet des deepfakes?
    Oui, en grande partie. Je suis d'accord pour dire que c'est assurément une forme de faux renseignements, mais de là à y associer la notion de malveillance... Certains deepfakes sont créés à des fins parodiques ou humoristiques. Il y aura presque assurément une version hollywoodienne des deepfakes utilisée pour transposer les visages d'acteurs. On utilise aussi les deepfakes de façon légitime, mais, dans le milieu des nouvelles ou celui des médias sociaux, il y a bien sûr un risque qu'ils soient utilisés à des fins malveillantes. J'ai tendance à être d'accord avec l'idée qu'il s'agit assurément d'une force de falsification, tout comme lorsqu'on utilise un angle de caméra trompeur ou qu'on utilise certains types de montages à des fins de désinformation.
     Quelle est la différence entre un deepfake et du faux contenu régulier, un faux vidéo et un deepfake? Pouvez-vous me l'expliquer?
    En fait, j'ai trouvé un article grâce à des moteurs de recherche. Il s'agit d' un article australien auquel Mme Wardle a participé. Il explique très bien tout ça. J'encourage les gens à utiliser leur moteur de recherche favori pour le trouver.
    Essentiellement, le système apprend des détails à partir d'une série d'images qui sont de source publique ou qui sont obtenues par d'autres moyens. Il apprend des détails au sujet du visage, puis utilise des techniques d'apprentissage profond — de nature algorithmique, et non logique — pour apprendre de quelle façon le visage interagit lorsqu'il bouge. Puis, en utilisant une victime de transplantation... Si je devais prendre une vidéo de Pablo, ici, et que j'avais un enregistrement assez long pour l'intégrer dans le moteur d'apprentissage deepfake, je pourrais tout simplement associer mon visage à celui de Pablo et, de façon très convaincante, faire en sorte que Pablo semble parler alors que c'est moi qui bouge.
    Avec le temps, tous les jeunes du secondaire vont probablement le faire, non?
    Il existe déjà des applications d'échange de visage.
    Si je comprends bien ce que vous dites, vu l'évolution des deepfakes, tous les jeunes pourront le faire avec leurs amis et pourront produire de telles vidéos. Ce sera quelque chose qui sera facile à faire, non?
    Il s'agit d'une technologie dont les applications sont vraiment illimitées, et on ne l'utilisera pas seulement pour des visages. On pourrait l'utiliser pour des corps entiers. À un certain moment, on l'utilisera pour transposer des choses entières ou d'autres caractéristiques. On pourrait l'utiliser pour la voix aussi facilement que pour le visage.
    D'accord.
    J'aimerais revenir à vous, Mme Wardle. J'ai une autre question pour vous. Je n'ai pas compris ce que vous avez dit... Vous avez parlé d'un émoticône de colère ou d'une couronne quelconque. Qu'aviez-vous dit, exactement?
    Si vous êtes sur Facebook et que vous voyez un élément de contenu, vous pouvez ajouter une réaction. Ce peut être un visage qui sourit ou...
    Je sais de quoi il s'agit.
    Oui.
    De quoi vouliez-vous parler, cependant, lorsque vous avez parlé d'une couronne Google ou je ne sais trop?
    Lorsque nous faisons des recherches pour du contenu, nous ajoutons un filtre de recherche afin de seulement obtenir le contenu associé à un nombre disproportionné d'émoticônes de réaction de colère, parce que les gens réagissent souvent avec colère au contenu trompeur.
    Cette technique vous permet de trouver beaucoup de désinformation. Ai-je bien compris?
    Oui. Elle nous permet de trouver beaucoup de contenu faux et trompeur. Les gens qui perpétuent ce genre de choses comprennent la force de la réaction émotionnelle, alors ils utilisent du contenu pour susciter la colère chez les gens. Si on cherche ces réactions, on trouve un nombre disproportionné de tels exemples.

  (1145)  

    De désinformation et de malinformation?
    Oui.
    D'accord. Vous dites que c'est simplement une façon qu'on peut utiliser pour les trouver.
    Une dernière question pour vous, madame Wardle. Vous avez mentionné une base de données au Royaume-Uni. Quel en était le nom, déjà?
    Non, c'est une suggestion de Full Fact dans un document publié la semaine dernière affirmant que nous avons besoin d'une base de données publique des publicités. Mon point, c'est que l'organisation parle précisément des publicités politiques. On doit se poser des questions, bien sûr, sur la façon de définir une publicité politique, lorsque nous savons que la majeure partie du contenu problématique peut ne pas être liée directement à un candidat, mais qu'elle concerne plutôt d'autres enjeux sociaux et politiques. Il y a un défi, ici, sauf si nous avons une base de données contenant toutes les publicités. L'idée de définir ce en quoi consiste une publicité politique nécessitera une réflexion supplémentaire.
    Si nous voulons définir la notion de publicité politique, nous devrions regarder ce que Full Fact dit, puis mettre en place une façon quelconque de faire un suivi de tout ça. La publicité peut être fausse, il peut avoir une déformation quelconque, peu importe le terme, à condition qu'il indique qui est derrière la publicité politique. Cependant, il pourrait avoir des choses qui nous échappent.
    Exactement. Ce que l'organisation dit, c'est que, au minimum, il devrait y avoir une base de données transparente, par exemple sur Facebook, où on trouverait tous les gens qui payent pour commanditer des messages — c'est essentiellement une forme de publicité — durant une période électorale.
    D'accord.
    Combien de temps me reste-t-il?
    Il vous reste 50 secondes.
    Ne le demandez jamais. Allez-y tout simplement.
    Et voilà. On dirait que j'en ai beaucoup plus.
    Monsieur Harris, quand vous avez mentionné le jeu de la taupe... De toute évidence, vous avez beaucoup réfléchi à cette question. Vous avez parlé d'imposer des limites à la technologie. Se pourrait-il qu'il faille aller plus loin de l'autre côté, aller encore plus loin du point de vue de l'intelligence artificielle, de façon à réussir à construire un appareil qui nous dirait de quelle façon on est manipulé et dans quel contexte? Mme Wardle parle de pouvoir faire des recherches dans une base de données, et alors, au moins, d'ainsi rendre le processus transparent, mais, comme vous l'avez dit, les gens vont se perfectionner et utiliser toutes ces technologies contre nous. La prochaine étape ne serait-elle pas de concevoir une technologie grâce à laquelle, en voyant une publicité, on pourrait savoir que l'auteur tente de nous tromper, ou encore connaître l'endroit où elle a été affichée? Avez-vous réfléchi à la façon dont on pourrait utiliser la technologie pour contrer la technologie de cette façon?
    Oui, et c'est déjà le cas, d'une certaine façon. À l'avenir, l'oeil humain ne pourra pas discerner la différence lorsque quelque chose a été généré par un algorithme, lorsqu'un ordinateur produit la vidéo ou l'image de la personne à qui l'on parle. On ne pourra littéralement pas faire la différence. On a deux options: soit on tente de limiter la capacité des gens de créer ces genres de choses trompeuses, soit on essaie de créer des structures d'intelligence artificielle inverse pour essayer de lutter contre l'intelligence artificielle qui tente de nous tromper.
    De plus en plus, c'est quelque chose qui s'impose déjà. Le département américain de la Défense, si je ne m'abuse, a publiquement... Il y avait un article sur la façon dont il essaie d'y arriver. Pour ce qui est d'un cadre, il faut selon moi commencer à dire que l'être humain est vulnérable. Il faut le faire à la lumière d'une compréhension... d'une compréhension honnête et humble de la façon dont nous fonctionnons. De quelle façon pouvons-nous alors nous protéger contre le fonctionnement de toutes ces technologies?
    Soit dit en passant, tout ça fonctionne aussi pour la toxicomanie et la santé mentale des jeunes ainsi que dans le cas de la solitude, de l'aliénation et de la polarisation. Tout ça s'inscrit sur un spectre des répercussions, une fois qu'on comprend la machinerie et la façon dont nous fonctionnons vraiment.
    Merci.
    Nous commençons le prochain tour d'interventions de sept minutes par M. Kent.
    Merci, monsieur le président, et merci à vous tous de vos témoignages aujourd'hui. C'est très utile, et l'information que vous nous fournissez vient compléter celle que nous avons obtenue dans tous les témoignages jusqu'à présent.
    La présente étude a révélé la vulnérabilité des processus électoraux pas mal partout dans le monde, et pas seulement en ce qui concerne le genre de microciblage psychographique qu'on a pu voir dans le dossier de Cambridge Analytica, Facebook et AggregateIQ, un projet qui avait été partiellement élaboré grâce à la participation et au soutien de Christopher Wylie, qui a ensuite révélé la situation lorsqu'il a estimé que les choses allaient trop loin; c'est la raison pour laquelle il a sonné l'alarme. L'étude nous a aussi permis de constater les mouvements de données et les stratégies de campagne au-delà des frontières nationales, de l'argent qui entre et qui sort, de la création d'une multitude ou encore d'un certain nombre de tierces parties afin d'éviter de dépasser les limites en matière de dépense et d'enfreindre les lois connexes et le caractère anonyme de la publicité sur les médias sociaux dans le cadre du référendum britannique sur le Brexit et dans un certain nombre de situations politiques aux États-Unis.
    J'aimerais revenir à vous, madame Krause. C'est quelque chose que vous avez abordé dans votre déclaration préliminaire. Pourriez-vous faire le lien en ce qui concerne la relation, dans le contexte politique canadien, entre Tides Canada, Leadnow et la Dogwood Initiative.

  (1150)  

    Bien sûr, avec plaisir.
    Commençons par Tides Canada. La American Tides Foundation, située à San Francisco, s'est constituée en personne morale en Colombie-Britannique à la fin des années 1990, puis a changé son nom pour devenir la Tides Canada Foundation. La American Tides Foundation — je pense qu'il serait juste de le dire — est l'organisation mère de Tides Canada.
    La Dogwood Initiative a initialement été créée par la American Tides Foundation. Au départ, on l'appelait Forest Futures, puis le nom a changé vers 2004, et c'est devenu Dogwood.
    Leadnow, si je ne me trompe pas, a commencé ses activités vers 2010 en tant qu'organisme sans but lucratif. En tant que tel, Dogwood est aussi une organisation sans but lucratif, mais elle a été financée par au moins 10 organismes de bienfaisance enregistrés au cours des ans. Comme je l'ai mentionné, l'un des organismes de bienfaisance qui l'a financé est la Salal Foundation. Celle-ci a été créée par les mêmes personnes, y compris l'ancien président du conseil d'administration de la Tides Foundation. Pendant 12 ans, elle est restée en dormance. Elle était inactive. Puis, en 2012, elle a essentiellement repris vie, et les revenus de Salal sont maintenant passés d'environ 200 000 $ à plus de 1 million de dollars. En fait, l'année dernière, le principal bénéficiaire du financement de Tides Canada, si je ne me trompe pas, était Salal, qui a obtenu 488 000 $.
    Selon moi, ce que nous constatons, c'est que ,dans le cadre de la campagne des sables bitumineux — la campagne pour enclaver le pétrole brut de l'Ouest du Canada —, plus de 100 organisations ont été financées aux États-Unis, au Canada et en Europe. Les deux premiers en tête de la liste sont la Sisu Institute Society, qui finance Leadnow, suivie de Dogwood.
    Dans le cadre de vos recherches, avez-vous découvert le montant total des fonds étrangers ou américains qu'on aurait principalement fournis à ces divers groupes associés et parallèles?
    Ce sont des chiffres globaux. J'ai retracé plus de 600 millions de dollars qui sont venus au Canada, principalement pour des initiatives de conservation à grande échelle. De cette somme, au moins 90 millions de dollars ont été réservés principalement à des travaux visant à limiter le pétrole et le gaz. C'est sans compter les années 2017 et 2018. Tides Canada, par exemple, a touché plus d'un quart de milliard de dollars de revenus depuis 2009. Au moins 90 millions de dollars de cette somme proviennent de l'extérieur du Canada.
    Dans un certain nombre de vos écrits, vous avez laissé entendre qu'il est facile pour un parti politique de dire qu'il agit de façon noble dans sa campagne lorsqu'il reçoit l'appui de tiers qui peuvent s'occuper du salissage. Je paraphrase quand je parle de salissage; je veux dire faire le sale boulot. Selon vos recherches, est-ce aussi votre avis?
    Je n'ai jamais utilisé les mots « salissage » ou « sale boulot », mais je dirais que des groupes comme Leadnow et la Dogwood Initiative influencent les élections principalement de deux façons. L'une d'elles, c'est ce que vous pourriez appeler l'échafaudage de scénarios, où on établit les enjeux sur lesquels porte l'élection. La deuxième, c'est en ciblant les nouveaux électeurs, les gens qui n'ont jamais voté auparavant, particulièrement les jeunes, et en les incitant à aller voter.
    C'est au moyen d'une initiative sociale ou de rémunération sur le terrain...
    C'est une combinaison. Il est question de la synergie entre ce qui se fait hors ligne et en ligne et de la création de ce qu'on appelle des événements hors ligne, comme des manifestations devant des bureaux de députés, des marches, etc.; puis des photographies de ces événements sont prises et sont utilisées en ligne. Parfois, on prend ces photos sous un angle qui donne l'impression qu'il y avait beaucoup plus de personnes que dans la réalité.
    C'est la combinaison des événements hors ligne de la vie réelle et de la façon dont ils sont ensuite utilisés en ligne.
    Vous avez parlé de l'intérêt de l'Agence du revenu du Canada, ou de son manque d'intérêt, envers certaines de ces organisations de tiers. Il fut un temps où l'ARC vérifiait un certain nombre d'organisations sans but lucratif.
    Les organismes de bienfaisance enregistrés — c'est ce que l'ARC vérifiait.
    Les organismes de bienfaisance enregistrés.
    Oui.
    Dans la lettre de mandat de la ministre de l'ARC, on retrouvait quelques énoncés intéressants: « Nous permettrons aux organismes caritatifs de faire le travail au nom des Canadiens, libre de l'influence politique » et « nous clarifierons les règles entourant les "activités politiques" en tenant compte du fait que les organismes caritatifs peuvent et doivent contribuer de manière significative au débat public et aux politiques publiques. »
    Croyez-vous que la ministre de l'ARC a interprété ces messages comme s'il s'agissait de cesser la vérification de certains de ces organismes de bienfaisance?
    Je ne sais pas comment l'ARC a interprété cela, mais elle a publié un rapport disant qu'elle a vérifié 42 organismes de bienfaisance pour connaître leur activité politique, et 41 des 42 organismes n'étaient pas pleinement conformes — 41 sur 42. Depuis ce moment, rien ne s'est passé. Selon ce que j'ai entendu dans les médias, je crois savoir que le ministère du Revenu national a demandé à l'ARC, essentiellement, de se retirer et de ne pas donner suite aux conclusions de la vérification et il a recommandé la révocation, ou autrement la fermeture complète, de cinq organismes de bienfaisance.
    Je dirais aux membres du Comité que, si vous voulez faire quelque chose pour mieux protéger l'intégrité des élections, il faut commencer à l'ARC. La raison pour laquelle je dis cela, c'est que, en 2016, j'ai passé huit mois à rédiger un rapport, que j'ai présenté à Élections Canada. Puis, on a fait venir quelques enquêteurs de Vancouver et, après avoir passé quatre heures avec eux, on a clairement établi qu'Élections Canada ne pouvait rien faire si l'ARC autorise des organismes de bienfaisance à canadianiser de l'argent. Puis, lorsque ces organismes de bienfaisance déclarent leurs dépenses dans leur rapport des dépenses de publicité électorale d'un tiers, ils disent qu'elles sont canadiennes, parce que l'organisme de bienfaisance a été canadianisé par l'entremise d'organismes de bienfaisance comme Tides Canada.

  (1155)  

    Certains appelleraient ça du blanchiment d'argent.
    J'aimerais dire que j'affiche aussi des images dans le but de faire croire qu'il y avait plus de personnes dans mes événements, quand je les affiche sur Internet.
    Cela fait des mois que je le dis.
    Des voix: Ha, ha!
    Monsieur Angus, vous avez sept minutes.
    Merci beaucoup.
    Cette étude a été fascinante, parce que nous essayons d'examiner la protection de l'intégrité du système électoral, mais je crois que nous commençons à traiter d'enjeux beaucoup plus importants qui seront beaucoup plus complexes pour l'examen des parlementaires.
    Monsieur Harris, je suis accro au numérique. Mon épouse n'hésite pas à me le rappeler sans cesse, particulièrement le vendredi soir. Je n'ai pas le droit d'aller sur Facebook et Twitter lorsque je retourne chez moi après une semaine, et ce, juste pour que je devienne civilisé. J'ai regardé mon téléphone probablement 12 fois depuis que vous avez pris la parole. Mais j'ai passé la moitié de ma vie sans le numérique — enfant, je lisais des bandes dessinées, je grimpais aux arbres, j'écoutais des vinyles, je passais mon temps à l'extérieur du bureau du directeur sans téléphone — et je suis accro et je l'accepte.
    Je m'inquiète du tableau que vous brossez par rapport à l'importance de notre branchement sur ces systèmes qui deviennent tout le temps de plus en plus forts. Je regarde à l'épicerie des jeunes et des enfants à qui la mère donne un téléphone pour qu'ils puissent jouer. À votre avis, quelles sont les répercussions plus grandes à long terme sur le développement du cerveau et sur la capacité des jeunes de se créer des espaces internes, d'imaginer et de se souvenir? Vous préoccupez-vous du fait que, pendant que nous sommes branchés sur ces grands systèmes, nous recâblons en fait nos espaces internes?
    Oui. Je suis très heureux que vous ayez soulevé la question.
    Un certain nombre de questions me préoccupent, donc je vais essayer de trouver comment formuler ma réponse.
    Une façon de voir les choses, si vous pensez à la protection des enfants... Marc Andreessen, le fondateur de Netscape, a cette idée selon laquelle les logiciels dévorent le monde. Ça veut dire que chaque industrie, chaque domaine, que ce soit la façon dont les enfants consomment les médias ou la façon dont nous nous déplaçons dans des véhicules Uber plutôt que dans des taxis, la technologie, si vous l'intégrez à ce domaine, fera les choses de façon plus efficace. Donc les logiciels vont continuer de dévorer le monde. Cependant, nous ne réglementons pas les logiciels, et donc, ce que ça veut vraiment dire, c'est que « la déréglementation dévore le monde ».
    Je ne sais pas comment les choses fonctionnent au Canada, mais aux États-Unis, je crois que nous avons encore des protections concernant les dessins animés du samedi matin. Nous reconnaissons qu'il y a un public particulier, c'est-à-dire les enfants, et nous voulons les protéger. Nous ne voulons pas laisser des publicitaires faire ce qu'ils veulent durant la période de dessins animés du samedi matin.
    Dès que vous vous délestez, essentiellement, de cette chaîne de télévision réglementée et de ces programmes officiels du samedi matin, et disons que vous laissez seulement YouTube Kids les gérer, vous obtenez des algorithmes, ce ne sont que des machines, où les ingénieurs de YouTube n'ont aucune idée de ce qu'ils mettent devant toutes ces 2,2 milliards de chaînes, dont plusieurs centaines de millions s'adressent aux enfants.
    C'est ainsi qu'il faut voir le problème. Nous avons un délai de cinq secondes à la télévision, et il y a une raison à cela. Au total, 100 ou 50 millions de gens se trouvent d'un côté de l'écran, et quelques personnes surveillent le délai de cinq secondes ou l'éditorial. S'il y a une gaffe, des obscénités ou quelque chose du genre et que vous voulez protéger... vous avez un certain type de processus de filtre.
    Nous avons maintenant 2,2 milliards de chaînes. C'est la même chose, que ce soit un enfant ou une personne vulnérable au Myanmar qui vient d'obtenir l'Internet et qui est essentiellement exposé à des choses vulnérables qui se trouve de l'autre côté de cette chaîne. La façon commune de voir le problème, c'est de comprendre qu'il y a une vulnérabilité dans ce public, que ce public soit un enfant, une personne au Myanmar ou quelqu'un dans une élection. Si nous ne reconnaissons pas cette vulnérabilité, nous aurons un énorme problème.
    La dernière chose que je dirai, juste par rapport à ce que vous avez dit au sujet des enfants, c'est que lorsque les ingénieurs de Snapchat ou d'Instagram — qui, en passant, créent les applications les plus populaires pour les enfants — vont travailler chaque jour, ce sont des personnes de 20 à 30 ans, surtout des hommes, surtout des ingénieurs, des personnes versées dans les sciences informatiques ou formées dans la conception, et ils ne vont pas au travail chaque jour en se demandant comment protéger le développement identitaire des enfants. Ils ne le font pas. Ce n'est pas ce qu'ils font. La seule chose qu'ils font, c'est travailler et se demander: « comment pouvons-nous les garder accrochés? Présentons cette chose appelée le "bouton Suivre", et maintenant ces enfants pourront se suivre l'un l'autre. Nous les avons tous branchés sur des fils de marionnettes, et ils sont occupés à se suivre l'un l'autre toute la journée, parce que nous voulons seulement qu'ils participent. »

  (1200)  

    C'est là où je veux en venir, parce que c'est une question de vulnérabilité. C'est la vulnérabilité de notre système électoral à être miné, ce qui, comme nous l'avons vu, peut se produire.
    On a aussi la vulnérabilité liée aux dépendances. Un des moments marquants dans la bataille contre les fabricants de cigarettes, c'était la révélation selon laquelle ils avaient intégré les systèmes d'émission de nicotine pour maintenir les dépendances. Ils ne pouvaient pas seulement dire: « Eh bien, vous avez choisi de fumer. Vous aimez fumer. Vous êtes responsable si vous fumez. » C'était l'intention réelle des entreprises de créer une dépendance.
    En votre qualité de personne ayant travaillé pour Google, d'éthicien, dites-nous ce que nous devons examiner, à votre avis, en ce qui concerne les mécanismes de dépendance qui sont inscrits dans un code?
    La première chose à dire, c'est que c'est attribuable à l'économie de l'attention et à la course pour susciter l'attention des humains. À mesure que la compétition s'intensifie, ce n'est pas assez d'utiliser le produit. Auparavant, vous faisiez un choix conscient de l'utiliser; je dois maintenant entrer plus profondément dans le tronc cérébral et vous rendre dépendant au produit. Je dois créer une habitude inconsciente à l'intérieur de vous pour que vous l'utilisiez essentiellement chaque jour pendant 30 minutes, pour posséder ces 30 minutes.
    Au départ, personne n'utilisait ce genre de machines à sous, vous savez, quand vous regardez votre téléphone comme si c'était une machine à sous et que vous tirez vers le bas pour la rafraîchir... la minute où une personne le fait et que ça réussit très bien à garder les gens accrochés, d'autres personnes doivent maintenant commencer à créer toutes les machines à sous.
    Si on voit les choses de façon théorique, chaque joueur doit s'enfoncer de plus en plus dans le tronc cérébral pour le faire. Ce à quoi il nous faut réfléchir, c'est la façon de réglementer ce processus addictif et de songer à plutôt protéger l'intervention et la dignité humaines, plutôt que d'essayer essentiellement de l'éroder de façon délibérée.
    Comme vous l'avez dit, les entreprises n'ont pas été honnêtes par rapport à cela.
    Merci.
    Messieurs Black et Tseng, par rapport à la question des deepfakes et des pouvoirs juridiques, en vertu de la Loi sur le droit d'auteur du Canada, nous avons le régime d'avis et avis, par opposition au régime d'avis et de retrait. Il y a eu une résistance par rapport à une imposition du régime d'avis et de retrait, parce qu'on dit que vous pourriez interférer injustement avec les droits d'une personne, que vous pourriez cibler injustement un compétiteur.
    Au sujet des deepfakes, y a-t-il des choses juridiques précises que nous devons examiner quant à leur effet sur, disons, le renversement d'une élection?
    Quels sont les paramètres juridiques? Si une personne a été l'objet d'un deepfake, elle pourrait choisir la voie de la diffamation. Un certain nombre de mécanismes conventionnels existants pourraient suffire. Mais si cela se produisait au milieu d'une élection, cela pourrait renverser le système démocratique.
    Y a-t-il des recours précis qui seraient plus à même de nous permettre de faire face à la menace d'un deepfake et du renversement des élections?
    Veuillez répondre très brièvement.
    Je ne suis pas sûr que la technologie des deepfakes serait une cible appropriée pour toute mesure particulière, seulement parce qu'il s'agit d'une mesure parmi un très grand éventail d'outils offerts à des gens qui essaient de manipuler des personnes au moyen des médias sociaux. Par les moyens dont les deux autres intervenants ont parlé, nos cerveaux sont en quelque sorte câblés pour régler de façon heuristique des problèmes que nous ne pouvons pas du tout régler de façon logique, parce qu'il y a trop d'information qui nous est envoyée tout le temps.
    En toute honnêteté, je m'inquiète davantage de l'intention de la mésinformation et de la désinformation. Je m'inquiète franchement plus à ce sujet que des particularités de la vidéo des deepfakes. C'est seulement parce que — encore une fois, je reviens à ma captation par caméra de sécurité — vous n'avez pas besoin d'une vidéo très avancée ou d'une fausse vidéo pour convaincre les gens que quelque chose s'est produit. Vous n'avez pas besoin d'une photo très convaincante pour les en convaincre. Vous pouvez utiliser une image réelle tout aussi facilement qu'une fausse image.
    Nos sept dernières minutes vont à M. Picard.
    La première question s'adresse à M. Harris.
    Vous avez dit, et nous sommes d'accord, qu'un volume gigantesque d'information est envoyé aux gens, à un point tel qu'il est presque impossible pour nous de voir clairement à travers l'information que nous recevons.
    Dites-vous que cet énorme volume d'information limite notre capacité de voir ce qui est réel et ce qui ne l'est pas? Cela nous empêche-t-il de pouvoir contre-vérifier l'information à un point tel que, comme Mme Wardle l'a dit, nous endommageons... c'est comme perdre une élection? Cela va se répercuter sur notre comportement, et nous ne pourrons rien faire pour ne pas être influencés. Par conséquent, nous verrons notre comportement touché sans pouvoir faire quoi que ce soit.

  (1205)  

    Oui.
    Certes, les gens ont un minimum de libre choix afin de confirmer une deuxième fois tout ce qu'ils lisent et des choses du genre. J'essaie d'observer, à la manière d'un scientifique du comportement, la réalité du comportement humain. Que font les gens la plupart du temps? La difficulté, c'est que lorsque nous sommes si surchargés et que notre attention est très limitée, et que nous sommes constamment anxieux et que nous vérifions les choses tout le temps, nous n'avons pas vraiment le temps de vérifier, de façon réaliste, chaque chose deux fois.
    Il y a deux types de persuasion. Le premier type, c'est que si le magicien vous dit comment son truc fonctionne, soudainement, celui-ci ne fonctionnera plus, parce que vous saurez que c'est une technique. Il y a des formes de publicité où ça se produit. Le deuxième type de persuasion, c'est que même si je vous dis ce que je fais, cela fonctionne tout de même sur vous. Un bon exemple, c'est ce que Dan Ariely, l'économiste comportemental connu, dit au sujet de la flatterie. Si vous dites à quelqu'un: « Je suis sur le point de vous flatter et j'invente ce que je dis », ce que vous entendez vous fait tout de même vous sentir assez bien.
    Un deuxième exemple, c'est si vous enfilez un casque de réalité virtuelle. Je sais que je suis ici, dans ce bureau à San Francisco, mais dans le casque de réalité virtuelle, j'ai l'impression d'être en haut d'une falaise. Si vous me poussez, même si mon esprit sait que je suis ici, à San Francisco, des millions d'années d'évolution m'envoient le message que je ne devrais pas tomber.
    Ce que nous devons reconnaître, c'est que les instincts sociopsychologiques, comme ceux qui naissent quand on montre à des enfants un ensemble infini de photos de leurs amis qui ont du plaisir sans eux — « Je sais que c'est un moment fort; je sais que c'est une distorsion » — ont tout de même des répercussions psychologiques chez les gens. On peut dire la même chose des types d'information toxique ou de mauvaise information dont Claire parle.
    Si j'ai quand même une petite capacité d'établir la distinction entre ce qui est faux et ce qui est vrai, la grande différence aujourd'hui, c'est... Si je retourne des dizaines d'années en arrière, dans les années 1940 et 1950, les prêtres au Québec parlaient à leurs gens, disant que l'enfer est rouge et que le ciel est bleu. Les prêtres faisaient référence à la couleur des partis politiques dans la course à la prochaine élection. À l'époque, la seule façon de renseigner les gens au sujet de ce qui se passait, c'était par courrier, donc vous deviez acheter des timbres, ou par la télévision ou la radio, donc vous deviez acheter de la publicité. De nos jours, lorsque vous faites de la publicité, vous utilisez les médias. Vous pouvez envoyer des messages à des millions de personnes en un seul clic et sans frais. C'est le même jeu, mais le volume est totalement différent. Les outils des années 1950 sont les mêmes, mais il y a plus de technologies.
    En tant que gouvernement, nous devons réglementer quelque chose, d'une certaine façon, quelque part. Que réglementons-nous? Réglementons-nous le droit de dire des choses stupides dans les médias ou devons-nous réglementer les gens, car apparemment, ils ne sont pas en mesure de voir la lumière à travers toute cette obscurité et le côté obscur du Web?
    Vous l'avez bien décrit. Nous avons décentralisé les vulnérabilités, ce qui fait en sorte que maintenant, plutôt que d'attendre de payer pour publier quelque chose, je surfe juste essentiellement sur le chaos décentralisé et j'utilise les vulnérabilités sociopsychologiques des gens pour propager les choses de cette façon.
    Pour ce qui est de la réglementation, une chose que nous devons nous demander, c'est le moment auquel un éditeur est responsable de l'information qu'il transmet. Si je suis le New York Times et que je publie quelque chose, j'en suis responsable, parce que j'ai une licence, que j'ai été formé comme journaliste et que je pourrais perdre la crédibilité associée au fait d'être une organisation de confiance.
    Une chose que les entreprises de technologie font, c'est des recommandations. Nous leur avons assuré en toute sécurité qu'elles ne sont pas responsables du contenu que les gens téléversent, parce qu'elles ne peuvent pas savoir ce que les gens téléversent. C'est logique, mais de plus en plus souvent, parmi ce que les gens regardent, par exemple sur YouTube, 70 % du contenu est alimenté par les recommandations du côté droit. De plus en plus, la meilleure façon d'attirer votre attention, c'est de calculer ce qui devrait se trouver de ce côté-là.
    Si vous recommandez des choses qui commencent à tomber dans les milliards de visionnements, par exemple, les vidéos de théorie de la conspiration d'Infowars d'Alex Jones ont été recommandées 15 milliards de fois. À quel moment YouTube, pas Alex Jones, est-il responsable d'avoir essentiellement publié cette recommandation? Je crois que nous commençons à établir une distinction lorsque vous êtes responsable d'avoir recommandé des choses.

  (1210)  

    Étant donné la quantité d'information qui est à ma disposition et que je ne peux contrôler ce qui m'est envoyé, est-ce que je dois m'appuyer uniquement sur l'intelligence artificielle pour m'aider à voir la transparence dans tout cela?
    La réalité, c'est que la plupart des gens ne connaissent rien de ce dont nous parlons. Ils croient que YouTube leur montre simplement des choses. Ils ne se rendent pas compte du fait que, quand leur esprit atterrit sur cette vidéo de YouTube, ils viennent d'entamer une partie d'échecs avec un super ordinateur dirigé vers leur cerveau, où leur cerveau est l'échiquier, et il connaît beaucoup plus qu'eux de coups d'échecs à venir sur cet échiquier. Je pense que la plupart des gens ne sont même pas au courant de cela, et c'est ce que nous devons changer.
    Pour terminer, j'aurais un commentaire, monsieur le président.
    Je vais juste dire à mon honorable et très respecté collègue, le député Kent, que pour qu'une chose soit du blanchiment d'argent, il faut savoir que l'argent provient d'une source criminelle ou d'une activité criminelle. Avant d'accuser qui que ce soit de blanchiment d'argent, nous devons faire attention.
    Merci.
    Merci beaucoup, monsieur Picard.
    Passons à notre tour de cinq minutes. Les premières cinq minutes vont à M. Gourde.

[Français]

    Merci, monsieur le président.
    Ma question s'adresse à tous les témoins.
    Depuis le début de cette étude, d'une séance à l'autre, tout ce que j'entends sur ce qui peut être fait, sur le plan numérique, pour influencer les gens dans le cadre d'une élection me donne froid dans le dos. Il est évident, je crois, que nous allons devoir tôt ou tard légiférer à ce sujet.
    Croyez-vous qu'il soit possible pour nous de le faire de façon efficace, à court ou à moyen terme? Dans mon esprit, cela suppose qu'il faudrait être prêt pour l'élection de 2019. Sinon, faudrait-il bannir tout recours à la publicité et aux médias sociaux lors de la prochaine élection, de façon à être au moins juste et équitable envers tous les partis politiques et les candidats indépendants qui se présentent?
    Cette question m'est-elle adressée? Si j'ai bien compris, vous voulez savoir s'il faut éliminer tous les médias sociaux.
    Si nous tentons de légiférer de façon efficace, à court ou à moyen terme, devrions-nous songer à bannir l'utilisation des médias sociaux lors de la prochaine élection, de façon à être juste et équitable envers tous ceux qui vont se présenter?
    Cela ne me semble pas pratique. D'ailleurs, comme les façons d'utiliser les médias sociaux avantageusement sont très nombreuses, je trouve qu'en bannir l'utilisation n'a pas de sens. Il ne s'agit pas de les éliminer: il faut plutôt voir comment on les utilise. Je crois qu'il est nécessaire d'établir des règlements à ce sujet. Je peux simplement imaginer à quel point les gens s'opposeraient à cette idée.

[Traduction]

Ce serait comme bannir la liberté de parole.

[Français]

    Je pense qu'on ne peut pas faire cela.
    C'est bien intéressant, mais il s'agit d'établir une législation équitable, qui permettrait d'intervenir. Une campagne électorale dure entre 35 et 40 jours. Lorsque ces réseaux d'information sont utilisés pour diffuser de fausses nouvelles ou des vidéos trompeuses, cela peut influencer énormément la population canadienne. Nous n'aurions jamais le temps, pendant la campagne électorale, d'expliquer aux gens que des informations fausses ont été diffusées et que des gens en ont été affectés. Cela va ressortir, mais seulement après l'élection. Si nous sommes dans l'incapacité de surveiller l'information et d'intervenir lorsqu'elle est fausse, pourquoi devrions-nous l'accepter?
    Ce sont les fonds qu'il faut contrôler, et non pas ce que les gens disent. La liberté de parole est très importante, surtout pendant une élection. Ce qu'il faudrait éliminer, par contre, ce sont les fonds qui viennent de l'extérieur, afin que l'issue de l'élection soit décidée uniquement par les Canadiens.
    J'aimerais entendre les autres témoins, s'il vous plaît.

[Traduction]

    Si je peux me permettre, à mon avis, le chemin le plus rapide pour réussir à lever le voile là-dessus et fournir des mesures gouvernementales utiles pour réagir à ces questions concerne beaucoup plus l'éducation du public que l'aspect législatif. Je crains que tout outil législatif serait très impopulaire et qu'il agirait comme un énorme marteau qui limiterait les utilisations légitimes des médias sociaux.
    Cependant, nous avons vu l'efficacité des campagnes dans d'autres domaines, des campagnes de sensibilisation qui renseignent le public, par exemple, en leur disant de ne pas partager leur mot de passe, de ne pas se faire hameçonner en ligne ou de protéger leurs renseignements ou leur numéro d'assurance sociale. Ce sont toutes des choses qui peuvent être faites pour renseigner les gens, comme les témoins en ont parlé, pour lever le voile sur ce que font ces entreprises de technologie.
    Je ne crois pas qu'une législation pourrait nous protéger contre la manipulation au moyen des médias sociaux, car si vous deviez bannir les publicités politiques... vous avez utilisé l'exemple de la vidéo russe où la personne déversait de l'eau de Javel. Dans ce cas-là, ce n'était pas du tout une publicité politique. C'était juste une personne qui fait quelque chose, qui est devenu une vidéo virale sur Internet et a provoqué une réaction contre les féministes et l'aile gauche, ainsi qu'une action contre l'aile droite.
    Je crois que nous devrions éduquer les gens et dire que nous devons faire ce deuxième pas, c'est-à-dire prendre du recul par rapport au cerveau reptilien au plus profond de nous qui nous dit que c'est vrai et dire: « Je vais y réfléchir de façon rationnelle ». J'ai l'impression que cela déboucherait sur quelques moyens plus efficaces.

  (1215)  

    Nos cinq prochaines minutes vont à Mme Vandenbeld.
    Merci d'être ici et de votre témoignage.
    J'aimerais revenir au fait que nous sommes des législateurs. Au Comité, nous nous intéressons beaucoup à ce que le gouvernement peut faire, particulièrement en ce qui concerne la législation, mais aussi à d'autres domaines.
    Dans votre témoignage, j'entends parler de choses, comme la vidéo qui a été faite en Russie, ce qui est à l'extérieur de notre compétence ou de notre construction sociale de la réalité, la persuasion psychologique et des choses comme « nous ne sommes pas des acteurs rationnels ».
    Comment pouvons-nous légiférer? J'aimerais entendre toutes vos réponses. Quelles sont les mesures législatives que nous pourrions adopter pour atténuer cela?
    Une chose que je dirais, c'est que, comme quelqu'un l'a dit, ce n'est pas nouveau. Dans une campagne électorale, quelqu'un peut, la veille de l'élection, envoyer à une circonscription entière des dépliants qui contiennent une fausse rumeur au sujet d'un candidat. Cette question selon laquelle nous légiférerions au sujet du contenu n'est tout simplement pas possible, car une bonne partie de cela concerne la sphère grise, obscure et trompeuse.
    Or, je crois qu'il y a quelque chose de particulier au sujet du contenu qui rend le système électoral empoté. Par exemple, nous surveillions l'élection au Brésil il y a deux semaines. Le jour du scrutin, on a fait grand état d'une rumeur circulant sur le fait que les machines ne fonctionnaient pas et que vous pourriez rester à la maison pour voter par SMS. Je crois que si nous parlons de contenu, c'est le genre de cas où l'on peut dire, si le dommage concerne précisément l'élection, qu'on peut faire quelque chose à ce sujet.
    Je crois que nous avons besoin de plus de transparence concernant les comportements, pas le contenu. Les plateformes avancent dans cette direction, mais on doit exercer plus de pressions sur elles pour ce qui est de savoir avec quel comportement nous pourrions avoir un problème et nous serions tous d'accord: il pourrait s'agir de l'automatisation, du fait que l'adresse IP soit extérieure à la frontière canadienne ou du fait que des gens utilisent de faux comptes.
    Je crois que le comportement vaut la peine d'être étudié, mais la partie du contenu est quelque chose de beaucoup plus complexe. Nous devons exercer plus de pressions sur les plateformes pour qu'elles soient plus transparentes par rapport à ces comportements, parce que nous ignorons les décisions qui sont prises. C'est complètement opaque en ce moment.
    D'accord, allez-y.
    Par rapport à ce que M. Ryan a dit au sujet de l'éducation, nous croyons tout de même que la base de toute bonne législation est la transmission de bons renseignements au public. En outre, ces renseignements peuvent évidemment s'accompagner d'une législation élaborée, qui ne devrait pas être rédigée à la hâte. Dans le passé, nous avons vu des exemples de ce qui se produit lorsqu'une législation est rédigée sur un coup de tête. C'est juste un cauchemar pour tout le monde. La législation devrait assurément être traitée comme étant sacrée, en plus d'être analysée et mûrement réfléchie avant d'entrer vraiment en vigueur.
    Pour vous donner un exemple d'une législation qui pourrait être élargie, prenons ce que le Parlement a fait avec la Loi électorale du Canada, à l'article 480.1, qui est ce dont nous parlions plus tôt au sujet de l'usurpation d'identité. Juste pour vous mettre un peu en contexte, cet article dit essentiellement que « Commet une infraction quiconque, avec l'intention de tromper, se présente faussement » ou fait en sorte que quelqu'un se présente faussement. Puis, un certain nombre de personnes sont énumérées: le directeur général des élections, un fonctionnaire autorisé, une personne autorisée à agir au nom du bureau, une personne autorisée à agir au nom d'un parti enregistré et un candidat.
    C'est une portée assez grande en ce qui a trait à l'usurpation d'identité, mais c'est un exemple d'un article qui pourrait peut-être être élargi afin d'inclure explicitement d'autres formes, peut-être de faux renseignements qui circulent. Ça ne veut pas dire que cet article a été rédigé à la hâte — il ciblait ce qui était prévu — mais il serait possible de le manipuler pour en élargir la portée.

  (1220)  

    Monsieur Harris.
    Une chose que j'ajouterais, c'est que le modèle d'affaires de la publicité est au coeur de nombre de ces problèmes.
    Une chose en laquelle nous croyons fermement, c'est que, si vous demandez à des gens combien ils ont payé récemment pour leur compte Facebook, ils ne se rendent même pas compte que c'est possible que Facebook vaille plus de 500 milliards de dollars. Si vous imaginez quelque chose qui ressemble à un « monde où nous sommes le produit », où les entreprises sont obligées de déclarer en toute transparence combien chaque utilisateur, chaque vache vaut pour eux lorsqu'ils en font la traite pour obtenir leurs données et leur attention, cela produira deux choses.
    La première, c'est une compréhension culturelle du fait que les gens sont le produit d'entreprises qui reposent sur ce modèle d'affaires. Cela sélectionne aussi seulement les entreprises qui génèrent ces problèmes, parce que les entreprises qui génèrent surtout ces problèmes, ce sont celles dont les modèles d'affaires reposent sur une participation financée par la publicité. Culturellement, cela a des répercussions.
    La deuxième chose, c'est que, sur le plan économique, les gens commenceraient à voir qu'ils valent 120 $, et que lorsqu'une femme devient mère, par exemple, elle vaut 180 $. Je pense qu'il est en fait très important de démontrer cette transparence directement aux utilisateurs et aux organismes de réglementation.
    Nous passons à M. Kent pour les cinq prochaines minutes.
    Merci beaucoup, monsieur le président.
    Juste pour répondre brièvement à l'argutie de M. Picard, je crois que, lorsqu'une organisation étrangère et que des fonds étrangers sont déplacés vers des situations d'ingérence dans le processus électoral canadien, dans des sociétés fictives ou dans des sociétés canadiennes fabriquées pour représenter faussement la source de ce revenu, le terme « blanchiment d'argent » est assez approprié.
    Monsieur Harris, j'aimerais revenir à vous. Dans un profil présenté dans le magazine The Atlantic, on vous a décrit comme « ce qui se rapproche le plus d'une conscience pour Silicon Valley ». On a énormément discuté de la responsabilité sociale qu'un de nos témoins a appelée le « monopole de données » à l'égard du déséquilibre entre la recherche de revenu et de profits et le fait de faire croître les entreprises et la tenue responsable et la protection des renseignements personnels des utilisateurs individuels.
    J'aimerais juste connaître votre opinion: les entreprises de mégadonnées ont-elles, en fait, une conscience, une responsabilité et une volonté, une volonté importante, pour ce qui est de réagir à certaines des choses qui sont ressorties principalement du scandale liant Cambridge Analytica, Facebook et AggregateIQ. Nous savons, et on nous l'a dit à maintes reprises, que ce n'est que la pointe de l'iceberg en ce qui concerne la possibilité d'invasion grossière de la vie privée des utilisateurs individuels.
    Oui, nous devons examiner leur modèle d'affaires et leur comportement passé. Ce n'est que lorsque les trois grandes sociétés technologiques ont été amenées devant le Congrès, en novembre 2017, que nous avons même obtenu les chiffres honnêtes concernant le nombre de gens, par exemple, qui avaient été influencés dans les élections américaines. Elles avaient affirmé que ce n'était que quelques millions de personnes. Claire et moi connaissons beaucoup de chercheurs qui ont souvent travaillé jusqu'à 3 heures du matin pour analyser des ensembles de données, et ils ont dit que ce devait être bien plus de gens que cela. Encore une fois, nous n'avons obtenu le chiffre honnête, soit que plus de 126 millions d'Américains, 90 % de la population électorale des États-Unis, ont été touchés, que lorsque nous les avons amenées à témoigner.
    En fait, c'est une des choses essentielles qui ont fait en sorte qu'elles ont été honnêtes. Je le dis parce qu'elles sont dans une situation très difficile. Leur responsabilité fiduciaire appartient à leurs actionnaires, et jusqu'à ce qu'il soit clairement compris qu'elles seront menacées si elles ne sont pas honnêtes, nous aurons besoin de cette pression du public.
    Différentes questions entrent en jeu ici, mais quand j'étais chez Google, j'ai essayé de soulever la question de la dépendance. On n'a pas pris ma préoccupation autant au sérieux que ce que j'aurais voulu, et c'est pourquoi je suis parti. Et ce n'est que lorsqu'il y a eu plus de pressions du public sur chacun de ces sujets qu'on a réellement commencé à aller de l'avant.
    Une dernière chose que je dirais, c'est que nous pouvons observer le modèle d'une fiducie. Nous sommes très inquiets au sujet de la protection des renseignements personnels, mais nous devons seulement les décomposer. Je souhaite remettre plus de renseignements à mon avocat ou à mon médecin, parce qu'avec plus de renseignements, ils peuvent m'aider davantage. Toutefois, si je fais ça, nous devons être liés par un contrat où je sais avec certitude qu'ils sont fiduciaires de mes intérêts. En ce moment, tout le modèle d'affaires de toutes les sociétés de données consiste à prendre le plus de renseignements possible, puis à permettre à un tiers de vous manipuler.
    Imaginez un prêtre dans un confessionnal, sauf qu'au lieu d'écouter avec soin et compassion et de vouloir garder ces renseignements privés, la seule façon pour le prêtre d'être payé pour écouter deux millions de confessions, c'est en autorisant des tiers, même des acteurs d'États étrangers, à manipuler ces personnes en fonction de l'information recueillie dans le confessionnal. C'est pire, parce qu'ils ont un super ordinateur à côté d'eux qui calcule deux milliards de confessions, de sorte que, lorsque vous arrivez, ils connaissent les confessions que vous ferez avant même que vous les fassiez.
    Ce n'est pas que nous ne voulons pas voir de prêtres dans des confessionnaux; c'est juste que nous ne voulons pas que les prêtres utilisent le modèle d'affaires qui consiste essentiellement en un intérêt contradictoire qui manipule vos renseignements vulnérables.

  (1225)  

    On nous a dit que Facebook construisait une cellule de crise qui visera à empêcher l'ingérence inappropriée dans les élections américaines. On pourrait penser que les élections de mi-mandat seraient le premier domaine qui nécessite une protection. Ce n'est pas encore achevé, selon ce que je comprends. Diriez-vous que, au Canada, il serait souhaitable que Facebook établisse une cellule de crise pour prévenir le même type d'ingérence possible dans les élections canadiennes?
    Absolument. Cela concerne également la nature mondiale du problème, là où je voulais en venir depuis le début. Pour toutes les questions dont nous parlons dans des démocraties développées de l'Occident et avec la presse libre qui fait des reportages sur ces sujets, il y a des centaines de pays vulnérables, comme Claire l'a mentionné au sujet du Brésil, qui n'ont pas un tel appareil. Facebook ne va pas dépenser l'argent pour créer des cellules de crise pour chaque pays.
    Facebook n'a pas non plus les ingénieurs qui parlent toutes les langues. En Inde, on retrouve 22 langues différentes. Combien de ces ingénieurs parlent ces 22 langues? Combien des ingénieurs de Facebook parlent le sri lankais ou le birman, des langues de pays où des génocides découlent en réalité de la manipulation de leur plateforme? Il y a en réalité une pénurie de groupes de la société civile dans ces endroits. Il n'y a pas de groupes de la société civile qui font assez de travail pour aborder ces sujets.
    Oui, il devrait y avoir une cellule de crise de Facebook au Canada. De plus, sur le plan structurel, Facebook est le rédacteur en chef, au petit matin, des pensées de deux milliards de personnes, donc comment pouvons-nous commencer à étendre cela et à passer de niveaux ingérables à des niveaux gérables de complexité? C'est un problème mathématique.
    Les cinq dernières minutes vont à Mme Fortier, qui n'est pas ici. Peut-être que M. Saini aimerait prendre ce temps.
    J'ai les cinq dernières minutes? D'accord.
    Monsieur Harris, j'aimerais commencer par vous, parce que vous avez écrit quelque chose sur quoi j'aimerais obtenir quelques précisions. Vous avez écrit à différents endroits quelque chose au sujet du concept de piratage d'un humain. Pouvez-vous expliquer cela plus en détail?
    Le piratage est probablement apparu avec M. Harari, qui a écrit le livre Sapiens. Il y a cette idée: dans une culture héritière de l'esprit des Lumières, le client a toujours raison, l'électeur a toujours raison ou vous devriez faire confiance à votre coeur et à vos sentiments, parce qu'ils vous appartiennent vraiment. Nous vivons de plus en plus à une époque où nous avons des gens d'un côté de l'écran et l'intelligence artificielle des super ordinateurs de l'autre côté de l'écran, qui en sait davantage sur nous que ce que nous savons nous-mêmes. Pensez à cette situation: si vous entrez dans une pièce et que vous en savez davantage sur l'esprit d'une autre personne que ce qu'elle sait de son propre esprit, qui gagne?
    Pourquoi la magie fonctionne-t-elle? Elle fonctionne parce qu'il y a une asymétrie, parce qu'un magicien sait quelque chose au sujet des limites de votre esprit. Il peut pirater votre esprit, parce qu'il connaît quelque chose que vous ignorez au sujet de votre propre esprit. Chaque fois que c'est vrai, dans une situation asymétrique, la partie qui en sait davantage va — entre guillemets — « gagner ».
    Nous permettons de nouvelles formes d'influence psychologique automatisée — encore une fois, le fait que YouTube calcule ce qui a entraîné deux milliards de personnes à regarder la prochaine vidéo — et nous ne faisons que jeter cela chaque jour aux pieds de nouveaux êtres humains. Nous disons que si cela fonctionne pour vous faire regarder la prochaine vidéo, ça doit être bon, parce que le client a toujours raison et que l'électeur sait ce qui est le mieux. Mais ce n'est pas vrai. Nous nous branchons vraiment sur le cerveau reptilien et calculons ce qui fonctionne pour les cerveaux reptiliens, puis nous montrons de nouveau cela aux gens et créons une boucle.
    L'intelligence artificielle transforme la corrélation en causalité. Auparavant, on pouvait établir le lien que si des gens observaient une telle chose, ils allaient maintenant en regarder une autre, mais l'intelligence artificielle peut amener cela dans une boucle de causalité. Le problème, c'est que nous créons une boucle de chaos, parce que si vous prenez des boucles de rétroaction et que vous les remettez en elles-mêmes, vous obtenez le chaos comme résultat. C'est ce qui se produit dans notre tissu social lorsqu'on pirate des humains et qu'on les remet dans la boucle.

  (1230)  

    Dans un de vos articles au sujet de YouTube, vous avez donné un exemple, et vous l'avez mentionné ici également. Je vais juste vous raconter quelque chose qui m'est arrivé.
    La semaine dernière, je suis allé parler aux élèves d'un cours d'éducation civique de cinquième année. Il y avait ensuite une période de questions et de réponses, et certains des élèves de cinquième année, qui ont 10 ans, m'ont demandé quelle était ma chaîne ou ma vidéo préférée de YouTube. Quand je vais sur YouTube, je m'intéresse aux conférences TED ou à quelque chose qui concerne la politique, où vous regardez un discours ou quelque chose, mais je suis aussi fasciné par la vitesse avec laquelle le côté droit de l'écran se remplit de sujets proposés.
    Si je regarde ces choses et que je ne suis pas sensibilisé, que je sois jeune ou peut-être pas aussi renseigné, je me fais, en principe, pirater. Je me fais injecter de l'information que je n'ai pas cherchée. J'ai peut-être essayé de trouver quelque chose que je jugeais intéressant, par l'intermédiaire d'un article, d'une annonce ou d'autre chose, et soudainement, toutes ces vidéos apparaissent, qui renforcent la prémisse originale.
    Si vous n'avez pas la capacité de faire la distinction entre ce qui est bien et ce qui est mal, en théorie, c'est un piratage. Mais si vous regardez la quantité d'information qui est téléversée chaque jour, comment pourriez-vous...? Vous avez parlé de la réglementation de l'information. Comment YouTube peut-il réglementer cette information lorsqu'autant d'information est téléversée? Quel type de conseils nous donneriez-vous en tant que législateurs? Comment pourriez-vous même envisager de réglementer cette information?
    C'est pourquoi j'ai dit... Le modèle d'affaires de la publicité les a incités à recourir de plus en plus à l'automatisation et à créer des canaux qui font tout cela. Ils veulent créer une boîte de participation — une boîte noire; ils ne savent pas ce qu'elle contient —, où plus d'utilisateurs continuent à s'inscrire, plus de vidéos continuent à être téléchargées, et plus de gens continuent à regarder des vidéos. Ils veulent voir ces trois chiffres augmenter.
    C'est un problème de complexité exponentielle: ils ne peuvent pas embaucher des milliards de personnes pour regarder, surveiller et modérer — j'oublie le nombre —, je pense, des milliards d'heures, ou quelque chose comme ça, qui sont téléchargées chaque jour maintenant. Ils ne peuvent pas le faire.
    Ils doivent être responsables des recommandations, car si vous imprimez quelque chose dans un journal et que vous rejoignez 10 millions de personnes, il existe un certain seuil selon lequel vous avez influencé un grand nombre de personnes. YouTube n'a pas à afficher la barre latérale de droite avec des recommandations. Le monde n'avait pas de problème avant que YouTube le propose tout à coup. Ils ne l'ont fait que parce que le modèle d'affaires visant la maximisation de la participation leur demandait de le faire. Si vous traitez le problème du modèle d'affaires et que vous dites ensuite qu'ils en sont responsables, vous rendez ce modèle d'affaires plus coûteux.
    Selon moi, cela s'assimile à l'énergie au charbon ou à l'énergie à combustion polluante par rapport à l'énergie à combustion propre.
    À l'heure actuelle, nous avons des entreprises de technologie à combustion polluante qui utilisent ce modèle d'affaires pervers qui pollue le tissu social. Comme pour le charbon, nous devons faire en sorte que cette utilisation coûte plus cher. Vous payez donc pour les coûts externes qui apparaissent dans le bilan de la société, que ce soit la polarisation, la désinformation, la pollution épistémique, les problèmes de santé mentale, la solitude ou l'aliénation. Cela doit figurer dans les bilans des entreprises.
    Sur ce, M. Angus dispose de trois minutes.
    Merci.
    Madame Wardle, je veux parler de l'étendue et de la nature changeante de la désinformation. Ma région, ma circonscription, est plus vaste que la Grande-Bretagne. Facebook est donc l'un des moyens les plus faciles de communiquer avec mes électeurs. Dans mes collectivités autochtones isolées, tout le monde se parle par l'entremise de Facebook.
    Les atouts sont énormes, mais j'ai commencé à constater des tendances sur Facebook. Par exemple, il y avait la carte de la radioactivité de Fukushima montrant la quantité de radiation dans l'océan Pacifique. C'était une carte vraiment horrible. Je l'ai vue sur Facebook. Les gens me demandaient ce que j'allais faire à ce sujet. Je l'ai vue encore et encore, et j'ai vu des gens devenir de plus en plus inquiets. Les gens se demandaient pourquoi aucun journal ne la regardait et pourquoi les médias la censuraient. Ils disaient qu'Obama avait ordonné de ne pas parler de cette carte. Je l'ai cherchée sur Google. C'est un faux; elle n'a pas fait beaucoup de dégât, mais cela illustre la rapidité à laquelle cette information pouvait se propager.
    Ensuite, il y a eu la publicité au sujet de la femme portant une burka dans une épicerie. C'est en Amérique, mais ensuite c'était en Angleterre et au Canada lors de l'élection de 2015. C'était profondément anti-musulman. Des personnes que je connaissais et qui ne connaissaient pas de musulmans m'écrivaient et devenaient de plus en plus en colère parce qu'elles avaient vu cette horrible femme en burka insulter la mère d'un soldat. C'était également un faux, mais d'où venait-il?
    Maintenant, nous avons le Myanmar: nous apprenons comment l'armée a organisé les comptes afin d'inciter à un génocide. Lorsque des représentants de Facebook ont comparu ici, ils ont en quelque sorte haussé les épaules et déclaré: « Eh bien, nous admettons que nous ne sommes pas parfaits. »
    Nous voyons la désinformation devenir une arme. La question est la suivante: en tant que législateurs, à quel moment devons-nous intervenir? En outre, à quel moment Facebook doit-il être tenu davantage responsable afin que ce genre de désinformation ne se transforme pas, passant d'un simple fait qui énerve les gens le matin quand ils se lèvent pour ensuite mener jusqu'à la violence, comme nous l'avons vu au Myanmar?

  (1235)  

    Nous concentrons une grande partie de nos efforts sur la technologie, mais nous devons également comprendre en quoi consiste cette technologie et, si nous ne comprenons pas à quel point les sociétés sont terrifiées par ces énormes changements dont nous sommes témoins, que nous pouvons relier à la crise financière... Nous assistons à d'importants changements migratoires à l'échelle mondiale, de sorte que les gens s'inquiètent des conséquences de ce phénomène pour leur collectivité. Nous observons également l'effondrement de l'État providence. Nous assistons également à la montée en puissance de l'automatisation, et les gens s'inquiètent donc pour leur emploi.
    Tout cela se passe subrepticement, avec la technologie en plus; alors, ce qui a du succès dans les campagnes de désinformation, c'est un contenu qui réaffirme la vision du monde des gens ou qui exploite ces craintes. Les exemples que vous avez cités sont associés aux peurs.
    Certes, lorsque nous travaillons au Nigeria, en Inde, au Sri Lanka et au Myanmar, nous retrouvons des collectivités qui sont beaucoup moins familières avec la maîtrise de l'information. Si nous regardons les messages WhatsApp au Nigeria, nous voyons qu'ils ressemblent au genre de pourriels qui circulaient ici en 2002, mais comme le disait Tristan, au cours des 20 dernières années, de nombreuses personnes dans les démocraties occidentales ont appris à utiliser la connaissance heuristique et des indicateurs afin de trouver un sens à tout cela.
    À votre avis, cela ne va nulle part parce que le phénomène nourrit ces problèmes humains. Ce dont nous avons besoin, c'est de faire pression sur ces entreprises pour leur demander de nommer des modérateurs dans ces pays qui parlent réellement la langue. Ils doivent également comprendre à quoi ressemble le mal. Facebook dit maintenant que, si un message affiché au Sri Lanka cause un préjudice immédiat, à quelqu'un qui sort de chez lui et commet un acte de violence, ils l'enlèveront. En tant que société, nous n'avons pas le pouvoir de dire à quoi ressemble un préjudice sur une période de 10 ans ou quelle est l'incidence à long terme des mèmes remplis de dilogismes.
    Je surveille actuellement les élections de mi-mandat aux États-Unis. Tous les éléments que nous voyons chaque jour et que nous versons dans une base de données sont des éléments à l'égard desquels il serait très difficile de légiférer actuellement en ce qui concerne Facebook, car on dirait: « Eh bien, c'est juste trompeur » et « C'est ce que nous faisons en tant qu'êtres humains. » Ce que nous ignorons, c'est ce à quoi cela ressemblera dans 10 ans, lorsque tout à coup la polarisation actuelle sera pire et aura été créée par ce contenu distribué au compte-gouttes.
    Je reviens à mon propos du début et dis que nous avons très peu de recherche à ce sujet. Nous devons réfléchir au préjudice de ces manières de faire, mais lorsque nous commençons à penser au contenu, nous devons avoir accès à ces plateformes pour pouvoir le comprendre.
    En outre, en tant que société, nous avons besoin de groupes comprenant des prédicateurs, des éthiciens, des avocats, des militants, des chercheurs et des décideurs, car, en réalité, nous sommes face à la question la plus difficile à laquelle nous ayons été confrontés, et, comme le dit Tristan, nous demandons plutôt à des jeunes hommes de la Silicon Valley de la régler ou — sans arrière-pensée — à des politiciens de divers pays de la régler. C'est que le défi est trop complexe pour un seul groupe.
    En fait, il s'agit essentiellement d'un groupe de réflexion. Il s'agit de déchiffrer un code. Quel que soit le problème, nous n'allons pas le régler vite fait. Nous ne devrions pas réglementer rapidement, mais il y a des dommages... Mon inquiétude est que, dans 20 ans, nous repenserons à ces genres de procédures fondées sur des témoignages et dirons que nous nous dirigions tout droit vers un mur, par automatisme. Je pense que nous n'avons aucune idée du préjudice à long terme.
    Merci.
    Il nous reste un peu plus de 20 minutes. Je propose que nous continuions pendant cinq minutes pour voir où cela nous mène.
    Bien sûr.
    Si vous me le permettez, je vais commencer, car je suis coincé dans ce fauteuil et je n'ai pas l'occasion de poser autant de questions que d'habitude.
    Je commencerai par Mme Wardle.
    Je ne m'offusque pas du tout que vous pensiez que les politiciens ne peuvent pas tout comprendre, mais nous sommes là où nous sommes. Nous devons faire des recommandations au gouvernement sur ce qu'il doit faire. Je dois souligner qu'il a renforcé une loi exigeant que les plateformes en ligne créent un registre de toutes les publicités numériques placées par des partis politiques ou des tiers pendant les périodes préélectorales et électorales. Voilà à propos du registre. Nous avons déjà formulé une recommandation concernant la transparence de la publicité, ce qui, selon moi, est un élément essentiel conjointement avec ce registre, afin d'assurer l'intégrité des publicités en temps réel.
    Quelle autre recommandation particulière auriez-vous? Mettez-vous à notre place et dites-vous: « Représentants du gouvernement, plus particulièrement au-delà du registre, au-delà de la publicité honnête, voilà un autre élément que vous devriez reconnaître en ce qui concerne les limites des preuves empiriques. »

  (1240)  

    Je dirais également que nous devons soutenir un journalisme de qualité. Les journalistes font partie de cet écosystème. Il existe des problèmes importants entourant les déserts de nouvelles locaux. Si nous ne reconnaissons pas le lien entre l'effondrement du journalisme local et le fait que les collectivités locales se tournent vers Facebook comme seule source d'information, nous avons un problème.
    Je vais faire un peu de promo maintenant. Au Brésil, nous avons créé une coalition de 24 grandes salles de rédaction qui travaillent ensemble de manière inédite. Elles se font normalement concurrence, mais il n'y a aucune raison de lutter lorsqu'il s'agit de désinformation. J'ai 24 salles de rédaction qui collaborent chaque jour pour trouver, vérifier et rédiger des discrédits sur un site Web centralisé. Leurs logos sont côte à côte pour montrer au public que le point de vue politique n'a pas d'importance; il s'agit d'un faux contenu. Il est amplifié par leurs 24 chaînes, leurs sites en ligne, leurs radios, leurs télévisions et leurs réseaux sociaux.
    J'allais dire...
    Je suis désolé, mais nous ne disposons que de cinq minutes. Je veux vous redonner la parole.
    Monsieur Harris, vous avez parlé de la refonte et du réalignement de la technologie, compte tenu des limites humaines. Vous avez beaucoup parlé du problème. Permettez-moi de vous poser la même question au sujet d'une orientation préconisée particulière que vous voudriez que notre comité recommande au gouvernement.
    Oui, je pense que nous devrions toujours rester sceptiques lorsque les gouvernements disent aux entreprises comment concevoir leurs produits. Ce n'est pas la place du gouvernement. Ce que j'évoquais principalement dans cette déclaration précédente, c'est qu'il existe des moyens de concevoir des produits qui protègent la vulnérabilité de l'être humain.
    Si nous savons qu'un modèle de validation sociale s'apparentant à une machine à sous, qui procure une dose de récompense aux enfants toutes les 15 minutes, crée une telle dépendance et suscite la crainte de passer à côté de quelque chose, nous pourrions commencer par comprendre que les enfants sont vulnérables à cela et, ce faisant, axer la conception de façon à offrir une protection contre cette dépendance.
    Si nous savions que les récompenses de couleur stimulent votre cerveau et que les notifications qui vibrent à fleur de peau, à une certaine fréquence et à une certaine vitesse, tendent à stimuler l'anxiété de votre système nerveux, nous pouvons commencer par comprendre qu'il existe une manière différente de concevoir des produits et de se protéger contre ce phénomène.
    Comment pouvons-nous en tenir compte dans une règle? Comment se pencher sur ces idées et...
    Ce sont là des exemples de la façon dont la conception devrait fonctionner, mais c'est différent de ce que l'on pourrait légiférer. Je ne dis pas que nous devrions légiférer en la matière. Nous ne devrions pas dire à Apple comment concevoir leurs produits sur le plan législatif, mais je pense que nous devons les rendre responsables des externalités qui sont générées dans la société.
    Nous avons un projet intitulé « Ledger of Harms ». Je ne veux pas en faire la promotion ou quoi que ce soit du genre, mais nous pensons qu'il faut montrer les méfaits perpétrés dans le tissu social qui ont des effets externes sur la société et qui ne figurent jamais dans le bilan des entreprises. Ce n'est pas parce que ces entreprises sont des monstres. Elles ne peuvent tout simplement pas voir le mal qu'elles génèrent, comme n'importe quelle entreprise polluante.
    Ces méfaits sont plus subtils. Ce sont des méfaits épistémiques causés par la façon dont nous acquérons nos connaissances. Ce sont des méfaits de polarisation. Il s'agit d'aliénation, d'isolement, d'appartenance, de communauté, d'enfant, de santé mentale et de suicide chez les adolescents. Ce sont toutes des choses qui sont externalisées dans le tissu social, et nous avons besoin de plus de recherches, de plus de financement pour ces recherches, afin de montrer quels sont ces méfaits. Nous avons besoin de plus de transparence, car souvent, la seule façon de connaître ces méfaits, c'est d'avoir accès aux données brutes.
    Les sceptiques diront que Claire et moi sommes des « alarmistes » parce que nous travaillons avec de mauvaises données. Nous n'avons pas accès aux données internes. Voilà le genre de choses que nous pouvons faire.
    Pour en revenir à vous, madame Wardle, vous avez dit que le contenu était très difficile à contrôler. Je pense que c'est exact, nous contrôlons le contenu en ce qui concerne le harcèlement et la haine, mais ces mécanismes sont insuffisants devant l'ampleur du problème sur Internet.
    Lorsqu'on demande à Facebook, à Google et ce genre d'entreprises de contrôler leur contenu elles-mêmes, je me demande si c'est la solution la plus efficace. Avez-vous une meilleure recommandation politique quant à la façon dont nous devons faire appliquer les règles en place sur Internet?
    Vous avez raison de faire une distinction entre les discours illégaux et les discours légaux.
    Je dirais que, lorsque nous parlons de cela, tout se retrouve dans la catégorie des discours légaux.
    Qu'il s'agisse spécifiquement de fausse information ou de désinformation ou encore d'une parcelle de contenu fausse concernant un politicien en particulier — même si c'est très difficile à déterminer parce qu'une grande partie du contenu est simplement trompeur, et que c'est un peu la façon dont les campagnes sont menées —, je pense qu'il y a une part de faux contenu lié à l'intégrité électorale qui devrait être mise dans la catégorie des discours illégaux.
     Avant que je donne la parole à M. Kent, je veux seulement mentionner, madame Krause, que vous serez très heureuse de savoir que dans le projet de loi C-76, le gouvernement interdira aux groupes de défense d'utiliser de l'argent d'entités étrangères pour mener des campagnes partisanes. Cela devrait répondre à la préoccupation que vous avez soulevée ici aujourd'hui.
    Monsieur Kent, vous avez cinq minutes.
    Merci, monsieur le président.
    À la suite des recommandations quant au répertoire publicitaire, à la source de financement et ainsi de suite, j'aimerais revenir à vous, madame Krause, concernant ce que vous avez dit au sujet d'une enquête d'Élections Canada qui a été entravée par le manque de détails relatifs à l'ARC.
    Il semble que nous nous heurtions à un problème de cloisonnement quant à la façon de mieux protéger le processus électoral canadien par rapport à la vulnérabilité que nous avons constatée, que ce soit dans le cadre d'un scandale de type Cambridge Analytica, Facebook ou AggregateIQ, ou encore à la source de financement étranger ou toute autre complication de ce genre.
    Dans un cloisonnement, nous avons un commissaire à la protection de la vie privée dont les pouvoirs sont limités. Dans un autre cloisonnement, nous avons le directeur général des élections qui est incapable d'enquêter efficacement. Nous avons un commissaire au lobbying. Jusqu'à ce que nous posions une question au directeur général canadien de Facebook, il n'avait pas de lobbyiste enregistré au Canada, mais il avait établi de nombreux contacts avec des ministres de premier plan et des hauts fonctionnaires chargés de la prise de décision au sein du gouvernement.
    Quelles seraient vos recommandations pour au moins réduire la vulnérabilité du processus électoral canadien?

  (1245)  

    Je ne peux parler que du domaine particulier que je connais bien, c'est-à-dire l'utilisation des fonds par l'entremise d'organismes de bienfaisance.
    Lorsqu'on regarde les rapports sur l'élection fédérale de 2015, les principaux annonceurs, ceux qui ont tous été financés dans le cadre de la campagne contre les sables bitumineux, ont constitué, ensemble, le plus important annonceur. Si on prend les six premiers groupes, ils ont déclaré plus d'un demi-million de dollars. C'était davantage que ce que même le Syndicat des Métallos avait déclaré. C'est pourquoi je me suis penchée sur le sujet. Ils ne se trouvaient pas tout en bas de la liste; ils étaient en haut.
    Pour ce qui est des recommandations, oui, ironiquement, il me semble que le problème et la solution commencent à l'ARC, pas à Élections Canada.
    Il y a d'autres choses qui pourraient aussi aider. L'une d'entre elles se trouve dans la Loi électorale, où l'on trouve un article qui énumère les choses pour lesquelles un annonceur tiers doit déclarer ses dépenses ainsi qu'une liste de choses qu'il n'est pas tenu de déclarer.
    À l'heure actuelle, par exemple, la création de sites Web fait partie de la liste des dépenses qu'il n'est pas nécessaire de déclarer. Si je comprends bien, c'est parce que cette partie de la Loi a été rédigée il y a plus de 10 ans, alors que les dépenses à cet égard étaient minimes et peu pertinentes. Je pense que nous devons mettre cela à jour et supprimer cette disposition. Il ne s'agit pas d'une petite partie du budget des dépenses électorales, mais en fait de l'essentiel de celui-ci.
    Voilà une chose qui pourrait être faite.
    À votre connaissance, lorsque l'ARC a commencé la vérification des organismes de bienfaisance, est-ce qu'elle examinait non seulement les fonds étrangers qui étaient versés à des organismes comme Tides Canada, la Dogwood Initiative et Leadnow, mais également la façon dont cet argent a ensuite été converti et transformé pour finalement être dépensé de diverses façons dans une campagne électorale?
    Je ne sais pas comment l'ARC a effectué ses vérifications. La seule chose que je peux vous dire, c'est que l'organisme de bienfaisance au coeur de cette agitation était Tides Canada. Dans ses états financiers pour 2016-2017, il est indiqué que la fondation a bien été vérifiée, mais seulement pour 2008-2009. Si c'est vrai et si j'ai bien compris, cela signifie qu'elle n'a fait l'objet de vérification pour aucune des années pertinentes.
    Je pense que là où...
    Vous dites « années pertinentes ». S'agit-il des années électorales?
    Eh bien, ce serait pour toutes les années où des preuves ont été portées à l'attention de l'ARC au sujet d'infractions à la Loi de l'impôt sur le revenu.
    En résumé, l'ARC a effectué 42 vérifications. Les recommandations consistaient à fermer au moins cinq — certains disent sept — de ces organismes de bienfaisance. Pourquoi cela ne s'est-il pas produit? L'ARC a reçu plus de 10 millions de dollars réservés exclusivement à cette fin. Pourquoi n'a-t-on pas donné suite à ces vérifications?
    Comme chose concrète et facile à exécuter que le gouvernement peut faire, demandons-nous seulement pourquoi cela n'a pas été fait.
    Je vous remercie.
    Merci beaucoup. Vous étiez à quelques secondes près. Excellent travail.
    La parole est à M. Angus, pour cinq minutes.
    Ça va. Il a donné ses quelques secondes à son collègue de gauche.

  (1250)  

    Des voix: Ha, ha!
    D'accord. Merci.
    Monsieur Harris, j'ai écouté avec intérêt ce que vous avez dit, à savoir que nous devons aller au-delà de l'approche du jeu de la taupe, alors je vais vous poser une question concernant la taille de ces plateformes.
    Vous avez dit que vous faisiez partie d'une entreprise en démarrage qui a été achetée par Google. Est-ce exact?
    Oui.
    D'accord. Ensuite, vous avez mentionné que vous aviez des amis qui travaillaient pour Instagram, qui appartient maintenant à Facebook.
    En effet. Ils viennent tout juste de donner leur démission à Facebook.
    D'accord.
    La question de l'antitrust est à la limite de la portée de notre étude, mais à mon avis, nous y revenons sans cesse en raison du pouvoir énorme des monopoles de données qui sont plus grands que tout ce qui a été vu auparavant, en ce qui a trait à la taille et au pouvoir de l'entreprise. Ce pouvoir qui consiste à manipuler des acteurs tiers ou à être manipulé par eux est pour moi une question grave. On parle de la « zone de destruction » de l'innovation qui est maintenant apparue autour des grands monopoles de données...
    En effet.
    ... en raison de leur seul pouvoir, fondé sur l'IA, d'anticiper des menaces potentielles et concurrentielles et de mettre fin à leurs activités.
    Selon vous, en fonction de votre propre expérience, ayant été racheté par Google, que devons-nous examiner du point de vue du marché concurrentiel pour nous assurer que ces entreprises ne sont pas en mesure d'éliminer la concurrence? Devons-nous adopter une forme quelconque de réglementation antitrust?
    En fait, il s'agit d'un excellent domaine que nous ne pourrons probablement pas examiner en profondeur dans le peu de temps dont nous disposons. Je recommande mon collègue Roger McNamee, qui a travaillé très fort et très activement sur cette question au sein de l'Open Markets Institute aux États-Unis.
    Vous avez tout à fait raison. Nous n'étions qu'une toute petite entreprise en démarrage, nous ne sommes donc pas vraiment pertinents dans cette conversation. Mais le fait est que, si vous essayez de mettre sur pied un substitut à Facebook, à YouTube ou à Twitter, ce serait très difficile pour vous d'y parvenir, parce que ces plateformes reposent sur les effets des réseaux. Dans le document d'orientation publié par le sénateur Mark Warner au sujet de ses recommandations politiques, ce dernier a parlé de la nécessité de l'interopérabilité. On doit être en mesure de passer d'un réseau à l'autre de manière interopérable. Cela s'est en fait produit à la fin des années 1990, avec AOL Instant Messenger. Auparavant, AOL possédait l'application de messagerie la plus populaire, AOL Instant Messenger, et celle-ci était fermée. La raison pour laquelle tous les gens devaient utiliser AOL est qu'ils devaient utiliser AOL Instant Messenger. Ensuite, l'entreprise a été forcée, par la loi, de rendre l'application interopérable, ce qui a contribué à assouplir le monopole qu'AOL avait à l'époque sur ces services Internet essentiellement.
    Je pense que nous devons envisager des choses semblables. Ce qui est plus difficile avec les réseaux sociaux, c'est que vous ne pouvez pas simplement déplacer vos données ailleurs, parce que celles-ci sont connectées à tous les messages que vous avez affichés dans les profils d'autres personnes et qu'elles sont protégées par des paramètres de confidentialité, vous ne pouvez donc pas simplement migrer vers une nouvelle plateforme. Je pense qu'il s'agit d'un domaine très important, et il a trait à la consolidation du pouvoir et à la capacité d'écraser la concurrence.
    La dernière chose, c'est que Facebook dispose d'Onavo, qui est un service de suivi RVP. Cela permet en fait à la société de suivre les concurrents émergents qui utilisent ses plateformes. En sachant lesquels sont près de voir le jour, elle peut essentiellement commencer à voler leurs caractéristiques ou mettre fin à leurs activités. Il existe différentes tactiques concurrentielles qu'elle peut utiliser.
    Je vous remercie.
    Madame Wardle, je suis vraiment intéressé par vos commentaires au sujet du somnambulisme potentiel qui pourrait mener à un effondrement social à long terme. Nous avons toujours des vents de panique morale chaque fois qu'il y a un changement technologique, chaque fois qu'il y a de l'incertitude, et je me méfie des politiciens qui interviennent pour essayer d'empêcher le changement. Vous avez soulevé la question de la nécessité de faire des recherches, d'être en mesure de faire un suivi à cet égard. Je suis inquiet quand on voit la crue des actes profondément misogynes en ligne et de l'extrémisme et, pire que tout, la montée au pouvoir de Donald Trump, le président de Twitter.
    Que recommanderiez-vous en ce qui concerne les recherches à long terme? Sur quoi devons-nous nous pencher pour commencer à mieux comprendre les répercussions de ce monde numérique dans lequel nous vivons aujourd'hui, qui est passé rapidement de l'utopie à une grande dystopie?
    Je suis tout à fait d'accord. Le fait que nous menions toutes ces discussions, et que vous allez potentiellement réglementer quelque chose dont nous ne savons presque rien... Nous n'avons jamais rien eu de tel auparavant. Nous savons qu'il y a un problème, mais aussi qu'il nous est impossible de faire quoi que ce soit à ce propos. Il est quasiment impossible de trouver du contenu sur les élections de mi-mandat aux États-Unis, il est même très difficile de voir certains des messages qui circulent.
    En fait, je dirais que, en ce qui concerne les élections, il faudrait mettre sur pied une unité de recherche spécifique qui pourrait travailler avec les plateformes pour essentiellement exercer des pressions sur elles et qui pourrait dire: « Pour cette élection précise, nous devons travailler avec vous de façon à comprendre qui dit quoi, et qui fait quoi en conséquence. » Nous ne pouvons plus continuer de dire: « Nous avons besoin de données, nous avons besoin de données », pendant que les plateformes répondent: « Mais nous ne pouvons pas vous donner de données pour des raisons de confidentialité. » Nous sommes coincés dans cette boucle infinie.
    Honnêtement, les gouvernements sont les seuls en ce moment à pouvoir exercer des pressions sur les plateformes pour que nous puissions comprendre, et même à pouvoir dire: « Nous ne vous réglementerons pas tant que nous n'aurons pas compris, alors veuillez nous transmettre les données pour que nous puissions comprendre. » Je pense que nous avons besoin de quelque chose. Dans le cadre d'une élection, on comprend que l'intégrité électorale est leur point faible. En fait, je dirais que l'obtention de ces données ferait la différence.

  (1255)  

    Merci beaucoup.
    Merci beaucoup, mais je dois faire remarquer que nous n'avons pas eu de réponse, quand nous nous sommes adressés aux responsables de Facebook.
    Les cinq dernières minutes sont à M. Baylis.
    Monsieur Harris, je vais poursuivre sur ce que Charlie Angus disait à propos des monopoles de données, les grandes entreprises qui possèdent toutes ces données. Avez-vous déjà réfléchi à la manière dont ils ont utilisé... Essentiellement, ces entreprises sont devenues très importantes, mais elles le sont devenues en profitant des documents protégés par un droit d'auteur qu'elles ont utilisés en s'abritant derrière des règles refuges. Les journaux sont en train de disparaître. Essentiellement, ces entreprises prennent sans payer toutes les productions des artistes, des musiciens, des photographes et des écrivains pour les mettre sur Facebook. Si elles savent que vous aimez un type d'images, elles vous les fourniraient grâce à cet algorithme.
    Il y a eu un transfert d'argent, mais ce transfert s'est fait surtout vers ces cinq ou six grandes entreprises, car elles ne paient pas les gens qui créent le contenu que le public cherche. Elles disent: « Nous savons que c'est le public qui vous intéresse », donc vous cherchez ceci ou cela, il cherche ceci, elle cherche cela. Elles peuvent obtenir le contenu gratuitement. Elles ne paient pas, alors qu'auparavant elles devaient le faire. Elles prennent purement et simplement le contenu. Elles vous le montrent. Elles font apparaître une publicité, et elles se font encore plus d'argent.
    Vous êtes-vous demandé ce qui se passerait si nous appliquions des lois sur le droit d'auteur de manière complètement différente, si nous éliminions les règles refuges ou si nous réussissons à force d'insister à les convaincre qu'elles ne peuvent pas tout prendre gratuitement? Cela aurait-il ou non de grandes répercussions, sur ces grandes organisations?
    Vous savez, je ne suis pas un expert de la Loi sur le droit d'auteur ni des discussions à ce sujet. Je dirais que Glen Weyl et Jaron Lanier ont réalisé d'excellents travaux, qui viennent d'être présentés dans un article de la Harvard Business Review; ils recommandent une façon de rémunérer les gens pour tout le travail qu'ils font. C'est une partie de la solution.
    Vous pouvez comparer cela à la Révolution industrielle. Essentiellement, vous avez l'automatisation, et tous les profits vont à ceux qui automatisent, à ceux qui dirigent de grandes usines, alors que le salaire reste inchangé et que les dirigeants essaient de le maintenir à la baisse, de sorte que les salariés ne se fassent pas plus d'argent. Actuellement, nous sommes la main-d'oeuvre. Tout ce que nous faisons, tout ce sur quoi nous cliquons, toutes les données que nous donnons, et toutes les choses sur lesquelles nous avons cliqué et que nous avons partagées sont essentiellement envoyées à ces entreprises. Elles en tirent profit; et l'argent ne va plus là où il avait l'habitude d'aller. Une des solutions est de s'assurer essentiellement que les gens soient rémunérés pour leur participation, de s'assurer qu'ils sont considérés comme des humains ayant une dignité, comme des travailleurs, et non pas comme des vaches qu'on manipule pour avoir du lait. Il y a un excellent article de Glen Weyl et Jaron Lanier sur ce sujet précis.
    Abordent-ils aussi le concept de propriété de vos données: ce sont mes données, j'en suis le propriétaire?
    Oui, ils l'abordent. Ils en parlent plus en termes de dons de sang que de dons de foie. Vous pouvez offrir vos données, mais vous-mêmes et vos données restez essentiellement protégés.
    Merci.
     Madame Krause, comme l'a souligné mon collègue, le récent projet de loi C-76 cherche à empêcher l'entrée de devises étrangères. Au départ, il était possible de dépenser un petit montant. Depuis, nous avons réduit ce montant à zéro.
    Vous avez abordé un aspect qui est comme une porte ouverte, si je comprends bien. Un organisme de bienfaisance qui se trouve dans un pays étranger peut donner de l'argent à un organisme de bienfaisance au Canada. Ensuite, ce dernier peut dépenser l'argent, sans aucune contrainte. Ai-je bien compris?
    Oui, et c'est là le problème. C'est la faille. C'est pourquoi, quand j'ai parlé aux enquêteurs d'Élections Canada, ils m'ont dit: « Écoutez, nos mains sont liées. À nos yeux, cet argent est canadien, car il est arrivé par l'intermédiaire d'un organisme de bienfaisance canadien. »
    La faille qu'ils peuvent utiliser est-elle...? Disons que je suis un organisme de bienfaisance étranger et que je veux avoir une incidence dans un domaine quelconque au Canada. Il me suffit de trouver un Canadien et de mettre sur pied un organisme de bienfaisance au Canada; ensuite, j'enverrais simplement l'argent ici, 1 million, 2 millions de dollars. Je le lui donnerai et je lui dirai: « Maintenant, dépense-le au Canada. » Essentiellement, l'argent et même les instructions pourraient venir d'un pays étranger.
    Oui.
    Quelle loi nous proposez-vous d'examiner? Existe-t-il des exemples ailleurs de ce que les gens ont fait pour empêcher que cela se produise?
    Bien sûr. Je pense que c'est très simple. La Loi de l'impôt sur le revenu dit clairement que les organismes de bienfaisance doivent exercer leurs activités exclusivement à des fins de bienfaisance — pas principalement à des fins caritatives, ou un peu à des fins caritatives ou à de bonnes fins — comme la Loi le définit. Donc, tout ce qu'il faut, si je comprends bien, c'est que la Direction des organismes de bienfaisance de l'ARC applique la loi actuelle.
    Supposons que je sois un organisme de bienfaisance dans le domaine de l'environnement. Je crois réellement en l'environnement, et je veux vraiment aider les ours polaires, ou peu importe. C'est un argument politique aussi, car la question sera traitée différemment par les différents partis politiques. En ce sens, je ne peux pas empêcher ces organismes de défendre leur cause. Ils vont évidemment défendre la cause en laquelle ils croient, par exemple une taxe sur la pollution ou l'élimination de la taxe sur le carbone, ou peu importe. Comment pourrais-je leur dire alors qu'ils ne sont pas des organismes de bienfaisance?

  (1300)  

    Aucun problème: le problème n'est pas l'activité politique en tant que telle, mais l'activité politique qui ne vise pas des fins de bienfaisance.
    Les organismes de bienfaisance ont toujours été autorisés à faire des activités politiques, mais toute cette discussion était en porte-à-faux, car il n'a jamais été dit que les organismes de bienfaisance pouvaient faire des activités politiques, dans le cas où l'activité politique visait des fins de bienfaisance. Si elles ne visent pas des fins caritatives, les activités politiques ne seront donc pas autorisées, ni à 10 % ni à 20 %, ce sera zéro activité. L'accent n'était pas mis sur l'activité politique, mais sur les fins de bienfaisance.
    En fait, j'aimerais voir supprimées toutes les limites imposées aux activités politiques, tant qu'elles servent à des fins de bienfaisance. Si c'est le cas, je pense que les organismes de bienfaisance devraient être libres de chercher les mécanismes les plus rentables pour atteindre leurs objectifs de bienfaisance.
    L'ARC a pris plus de 10 ans pour...
    Nous n'avons malheureusement plus de temps, mais j'apprécie vraiment vos commentaires.
    J'apprécie les commentaires de tous nos témoins d'aujourd'hui. Je suis certain que chacun des députés fera un suivi avec vous, au besoin, quant aux questions complémentaires des gens. Si vous avez des informations supplémentaires que vous voulez communiquer au Comité, vous êtes priés de les faire parvenir par écrit au greffier.
    Sur ce, merci beaucoup.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU