Passer au contenu
;

ETHI Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique


NUMÉRO 116 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le mardi 25 septembre 2018

[Enregistrement électronique]

(1100)

[Traduction]

    Bienvenue à la réunion no 116 du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique. Nous étudions l'atteinte à la sécurité des renseignements personnels associée à Cambridge Analytica et Facebook.
    Nous commençons par notre invité qui témoigne par téléconférence. Bienvenue, monsieur Owen.
    Allez-y; vous avez 10 minutes.
    Merci.
    J'aimerais que vous reteniez un message, au terme de mon exposé d'aujourd'hui. Je suis convaincu que l'enjeu que vous examinez, la nature des vulnérabilités mises au jour et démontrées dans l'affaire de l'utilisation de Facebook par Cambridge Analytica et de la collecte de données personnelles de citoyens américains et canadiens, n'est pas liée à des acteurs malveillants isolés qu'il faut contrer, mais plutôt aux problèmes structurels de notre infrastructure numérique qui, à mon avis, créent des vulnérabilités au sein de notre société libre et ouverte. Je pense qu'on exploite ces faiblesses par des actions qui consistent à corrompre la qualité des informations diffusées dans notre sphère publique — de plus en plus numérique —, à exacerber les clivages au sein de la société et à miner nos institutions démocratiques elles-mêmes. Au cours des prochaines minutes, j'aimerais m'attarder à ces problèmes et à leurs éléments structurels en quatre points.
    Premièrement, je pense qu'il est vraiment important, fondamentalement, de reconnaître l'évolution réelle de notre infrastructure numérique, particulièrement d'Internet, au cours des 30 dernières années. De façon très générale, puisque son évolution est beaucoup plus complexe, évidemment, la première itération d'Internet — le Web 1.0 — a donné une véritable voix à une multitude d'acteurs, de personnes et de groupes qui, auparavant, étaient à l'écart du discours public dominant.
    Dans les années 1990 et 2000, le Web 2.0, le Web social, s'est révélé un outil très puissant pour connecter les gens. Il a souvent été un outil de démocratisation, comme nous l'avons vu au printemps arabe et dans une multitude de mouvements sociaux qui ont catalysé le pouvoir de ces technologies de façon incroyablement positive, partout dans le monde.
    Aujourd'hui, je pense que l'Internet est qualitativement différent, et les enjeux que vous étudiez en sont le reflet. Je pense que nous sommes rendus à la troisième étape de l'évolution d'Internet, que j'appelle l'ère des plateformes. Je dirais que l'Internet d'aujourd'hui est principalement contrôlé par un petit nombre de sociétés propriétaires de plateformes d'information mondiales et que pour une bonne partie de la population mondiale, l'expérience de l'Internet est façonnée par ces sociétés. Voilà le sujet dont je veux discuter aujourd'hui.
    Le deuxième point d'ordre général que j'aimerais soulever est que l'écosystème des plateformes — l'Internet des plateformes — comporte deux problèmes structurels intrinsèques de l'infrastructure d'Internet. Le premier est la monétisation des plateformes, d'Internet ou des personnes, ce qu'on appelle l'économie de l'attention ou le capitalisme de surveillance.
    Je dirais que dans ce marché rigoureusement contrôlé axé sur la capture de l'attention, les auditoires peuvent faire l'objet d'un ciblage ultra précis et que les comportements peuvent être influencés par n'importe qui, où qu'il soit, et pour quelque motif que ce soit. Cette économie numérique est caractérisée par la commercialisation de notre attention et de nos changements de comportement.
    Parallèlement au microciblage dont nous faisons l'objet pour influencer ou modifier nos comportements — puisque notre degré d'engagement, positif ou négatif, est le principal indicateur de valeur dans l'économie de l'attention —, les algorithmes des plateformes priorisent le divertissement, les informations-chocs et la radicalisation au détriment des informations fiables. Cela fait partie intégrante du modèle d'affaires. C'est d'ailleurs pour cette raison que la recherche démontre que les fausses nouvelles se répandent beaucoup plus largement et rapidement que les nouvelles authentiques. Cela découle de la nature même du modèle.
    Le deuxième problème structurel, à mon avis, nous touche directement et est appelé à prendre de l'ampleur dans les prochaines années: le caractère de cet écosystème de plateforme numérique et l'expérience que nous en avons sont de plus en plus déterminés par des systèmes d'intelligence artificielle qu'on ne peut tenir responsables.
    On utilise ces systèmes pour filtrer le contenu, présenter le contenu le plus captivant, savoir ce qui suscite notre indignation et notre mobilisation, déterminer ce que voit l'utilisateur et déceler notre visibilité sur ces plateformes. L'intelligence artificielle sert à la création de diverses versions de la réalité, souvent appelées « hypercontrefaçons » ou faux médias. L'intelligence artificielle façonne une toute nouvelle réalité ciblée sur chacun de nous.
(1105)
    Ce sont là les problèmes structurels, à mon avis.
    Mon troisième point est le suivant: je pense que ces problèmes structurels sont responsables des externalités négatives qu'on voit désormais dans notre démocratie, comme le démontrent l'affaire de Cambridge Analytica et les élections américaines de 2016. Toutefois, je crois que ces externalités négatives ont une portée beaucoup plus générale. Permettez-moi de vous donner quelques exemples.
    Premièrement, la qualité des informations qu'on nous fournit ou des informations qu'on trouve dans l'espace public numérique est de moins en moins fiable. La plateforme Web est un milieu de plus en plus toxique. On y encourage le discours sexiste et raciste; le discours politique devient plus extrémiste et source de discorde, comme vous le savez très bien; la parole est devenue une arme, ce qui a un effet de censure. La violence verbale réduit les gens au silence. Parallèlement, l'espace public numérique devient plus toxique. Nous assistons à l'effondrement accéléré du journalisme, ce qui cause un affaiblissement continu des digues censées nous protéger contre ce raz-de-marée de contenu faux et toxique.
    Selon moi, la démocratie repose sur des informations communes et généralement fiables. Je crains que ce problème structurel nous fasse reculer sur ce plan.
    La deuxième externalité négative que je tiens à mentionner est la fragmentation. Sur ces plateformes, chacun de nous se fait servir un menu d'information sur mesure conçu pour renforcer et cristalliser nos opinions. Dans un tel contexte, cela peut entraîner l'émergence fulgurante de la polarisation et du tribalisme, ce qui pose problème pour de nombreuses raisons, la plus inquiétante étant probablement l'augmentation du nombre d'incidents de violence individuelle et collective dans le monde réel.
    Une étude récente a montré que dans une ville d'Allemagne où le taux d'utilisation de Facebook par personne était supérieur à un écart type de la moyenne nationale, l'appui à une taxe pour les réfugiés a augmenté d'environ 50 %. À mon avis, le Canada n'a sans doute pas suivi ces tendances ni subi leurs conséquences sociales, comme cela s'est vu dans d'autres démocraties occidentales, mais la fragmentation fondée sur des informations douteuses et extrêmement ciblées aura certainement pour effet de nous diviser sur les enjeux les plus délicats au Canada actuellement. Pensez à l'incidence que pourrait avoir cette vulnérabilité structurelle pour des enjeux comme les changements climatiques, les droits des Autochtones, les pipelines, etc.
    La troisième externalité négative, qui est d'une importance capitale pour le Canada actuellement, est la vulnérabilité de notre processus électoral. Selon moi, les acteurs nationaux et étrangers peuvent considérablement influencer le comportement des électeurs en utilisant les leviers de l'économie de l'attention. Le microciblage fondé sur l'intelligence artificielle et les données est un outil extrêmement puissant en période d'élections, comme nous l'avons vu dans l'affaire de Cambridge Analytica. Les cyberattaques et le piratage informatique d'envergure sont une vulnérabilité, comme l'ont démontré les fuites de courriels de Mme Clinton et de M. Macron, mais je pense que cela peut aussi être beaucoup plus subtil. Je ne voudrais pas trop me concentrer sur les cas les plus connus.
    Voyons un exemple plus subtil: dans une récente étude, il a été démontré que longtemps avant les élections américaines de 2016, des comptes liés au gouvernement russe ont créé une multitude de pages Facebook en hommage à des personnalités afro-américaines, notamment Beyoncé et Malcolm X, pour créer un sentiment de communauté. Ils ont publié du contenu sur Beyoncé pour augmenter le nombre d'abonnés de cette page. Dans les jours précédant l'élection, ils ont instrumentalisé cette communauté pour promouvoir du contenu conçu pour restreindre le taux de vote chez les Afro-Américains.
    Comment peut-on réagir à de tels stratagèmes? Comment peut-on savoir que la page est commanditée par un gouvernement étranger et qu'elle sera instrumentalisée dans les jours qui précèdent une élection? Voilà les problèmes structurels réels auxquels nous sommes confrontés.
    Enfin — c'est mon quatrième point —, j'aimerais vous présenter quelques observations sur les solutions en matière de politique publique pour régler ce problème ou relever les défis de gouvernance qui en découlent.
    En ce qui concerne la politique publique au pays, je dirais d'abord que l'autoréglementation est manifestement insuffisante, étant donné la nature du problème, et que cela demeurera ainsi. Pour moi, une bonne analogie serait la période précédant la crise financière alors que de puissants leviers financiers empêchaient toute réforme significative du système. On parle ici de sociétés cotées en bourse et très peu réglementées dont les actionnaires exigent une croissance chaque année.
(1110)
    Cette croissance pourrait être dans l'intérêt public ou non, et c'est ainsi que fonctionnent les démocraties. Lorsque des externalités négatives créées par des monopoles très peu réglementés, les gouvernements interviennent pour protéger l'intérêt collectif. Je pense que nous en sommes rendus là.
    J'ai un deuxième point à faire concernant la politique publique. Selon moi, le problème se situe principalement du côté de la demande et exige une démarche stratégique globale. Beaucoup ont fait valoir que la faute revient aux utilisateurs, que le problème est du côté de l'offre, que nous consommons et produisons du contenu toxique et qu'il faut, par conséquent, modifier les comportements des consommateurs. Je crois toutefois qu'on fait ainsi abstraction de l'aspect culturel. La plupart des commissions ou des rapports d'importance à l'échelle mondiale sur cet enjeu ont conclu à la nécessité d'une approche stratégique globale. Il n'y a tout simplement pas de solution magique à ce problème. Il convient de réformer nos mécanismes de réglementation et notre relation avec l'économie numérique en général. Cela nécessitera...
    Monsieur Owen, vous en êtes à 11 minutes.
    Très bien. Je suis désolé...
    Nous reviendrons à vous pendant les séries de questions; vous pourrez peut-être poursuivre plus tard.
    Très bien. Permettez-moi simplement de conclure. Ben parlera des propositions de politiques, que j'appuie. Cela nécessitera des mesures rapides, comme la transparence en matière de publicité, de nouveaux régimes de droits en matière de données, des modifications réglementaires visant à donner aux Canadiens des droits sur la collecte de leurs données personnelles, la réforme de l'espace journalistique canadien et la réglementation connexe.
    Je suis prêt à discuter de l'un ou l'autre de ces sujets.
    Merci.
    Merci, monsieur Owen.
    Nous passons maintenant à M. McKelvey pour 10 minutes.
    J'aimerais commencer par souligner que nous nous réunissons aujourd'hui sur le territoire traditionnel non cédé du peuple algonquin Anishinaba. De plus, je suis présentement en congé parental et j'aimerais remercier ma famille de me donner le temps de témoigner devant vous aujourd'hui.
    J'espère que le Comité jugera mes commentaires pertinents et qu'ils s'harmoniseront à ses recommandations préliminaires, que j'appuie fortement. Je reconnais sa volonté et son dévouement en vue de démêler cette toile de données, de surveillance, de campagnes et de publicité. Ces enjeux me préoccupent grandement et nous permettent de faire un lien avec des recherches précédentes sur la politique d'Internet, les communications politiques numériques et la gouvernance algorithmique.
    Mes commentaires se centreront sur trois questions étudiées par le Comité. À de nombreux égards, elles complètent certaines des constatations et conclusions de Taylor Owen, notamment en ce qui a trait à la publicité en ligne, aux courtiers en données tiers et à l'analyse, et enfin aux partis politiques. J'aimerais vous faire part de mes préoccupations et des solutions politiques possibles, qui se fondent sur mes propres recherches. J'espère que le Comité songera aux façons d'encourager davantage la recherche dans ces domaines afin que les chercheurs aient un meilleur accès aux données selon des lignes directrices déontologiques claires.
    Premièrement, la publicité en ligne n'est pas seulement un problème politique. Le scandale de Cambridge Analytica et Facebook a surtout jeté la lumière sur l'ignorance volontaire ou la résignation du public à l'égard de la sophistication de la publicité en ligne. Les réformes dans le secteur ne feront peut-être pas basculer les prochaines élections, mais en feront beaucoup pour rétablir la confiance du public à l'égard de l'Internet en général... ce qui revient aux enjeux structuraux dont a parlé le témoin précédent.
    Aujourd'hui, la publicité en ligne signifie plusieurs choses. Elle vise les bannières publicitaires programmatiques que nous voyons sur les sites Web. Celles-ci représentent une industrie de 12 milliards de dollars au Canada, selon le Media Concentration Research Project, et Google et Facebook génèrent les trois quarts de ces revenus. Toutefois, de nouveaux types de publicité ont fait surface. La publicité native ou le contenu commandité brouillent la frontière entre la publicité et le publireportage. Avec le marketing d'influence, les ambassadeurs de marque informels remplissent nos fils d'actualité et font souvent la publicité de produits sans le dire clairement. Il y a aussi les pourriels et les zombies.
    De façon générale, je remets en question l'avantage de toutes ces formes de publicité ciblée. À mon avis, nous ne sommes pas suffisamment responsables et nous misons trop sur les données et le ciblage. Les nouveaux types d'annonceurs seront un problème pour les campagnes politiques, qui risquent de se tourner vers ces marchés gris et d'avoir recours aux influenceurs ou aux comptes de médias sociaux « à louer » pour feindre l'appui populaire. Nous devons reconnaître l'importance de ce contenu promotionnel au sein de notre culture, prendre des mesures pour le qualifier, veiller à une communication appropriée et établir des règles équitables pour ces annonceurs tiers. À titre de mesure tangible, il faudrait travailler avec Élections Canada pour clarifier les critères relatifs au coût du placement afin de veiller à ce que les nouvelles formes de publicité soient prises en compte dans les dépenses électorales.
    En ce qui a trait à la publicité programmatique, il faut songer aux limites appropriées en matière de collecte de données et de ciblage. Les documents politiques montrent que le microciblage ne permet pas nécessairement de mieux communiquer avec les électeurs. À mon avis, à l'heure actuelle, nous surévaluons la valeur des données de ciblage et nous oublions les dangers potentiels associés à la surcollecte de données. Je pourrais vous parler de quelques-uns des risques associés à la surcollecte. Nous pourrions penser à l'utilisation des profils de publicité à titre d'indicateur des catégories protégées comme la race et la croyance politique. La publicité ciblée est de plus en plus utilisée pour justifier une surveillance en ligne et hors ligne accrue. Enfin, toutes ces données pourraient être dévoilées ou mal gérées, comme nous l'avons vu à de nombreuses reprises.
    La protection des données est un redressement important. En limitant ce qui peut être recueilli et utilisé aux fins du ciblage, nous pouvons ralentir la course au monnayage des renseignements personnels aux fins de la publicité. Sans un changement, je crains de voir les grandes entreprises de médias sociaux faire concurrence aux fournisseurs de services Internet en vue de recueillir le plus de données possible pour les transformer en des portefeuilles publicitaires ciblés.
    AggregateIQ fait partie d'une industrie technologique mondiale. Le Canada, comme bon nombre d'autres démocraties occidentales, a vu les partis politiques se tourner vers le numérique pour mieux faire campagne. De nombreuses entreprises vendent maintenant leurs services pour aider les partis à gérer, à analyser et à utiliser leurs données pour acheter de la publicité et évaluer l'appui des électeurs, entre autres.
    Pour les promoteurs, les campagnes axées sur la technologie font sortir le vote. Elles aident aussi les partis à trouver leurs partisans, à utiliser leurs fonds limités de manière responsable et, au bout du compte, à gagner. Je ne remets pas cela en question, mais il m'apparaît évident que la portée générale de cette industrie entraîne de nouveaux défis en matière de réglementation, surtout pour veiller à ce que la délocalisation de l'analyse des données ou des services numériques ne permette pas de contourner les lois nationales en matière de dépenses ou de protection des renseignements personnels.
(1115)
    Ces industries doivent être mieux surveillées, surtout en ce qui a trait à la façon dont elles déplacent les données de part et d'autre des frontières. La délocalisation de l'analyse des données ne doit pas permettre de contourner les lois en matière de protection des renseignements personnels. Les sociétés internationales doivent être conscientes de la façon dont elles transportent les modèles, surtout ceux qui utilisent des algorithmes d'apprentissage automatiques qui ont peut-être été élaborés dans des administrations où les lois en matière de protection des renseignements personnels ne sont pas rigoureuses. Elles doivent veiller à ne pas exporter ces modèles.
    Je crois qu'on peut aborder ces enjeux en conférant plus de pouvoirs d'exécution au Commissariat à la protection de la vie privée et en continuant d'appuyer l'application intergouvernementale de la loi.
    Enfin, en ce qui a trait aux partis politiques, je n'ai pas été surpris d'apprendre qu'AggregateIQ n'était pas populaire au Canada. Ce n'est pas parce que nous avons une aversion pour la technologie en politique, mais plutôt parce que les partis ont déjà leur propre solution en place. Le Parti conservateur utilise NationBuilder, en plus de sa base de données exclusive. Le Parti libéral utilise NGP VAN, associé au Parti démocratique des États-Unis. Le NPD travaille avec d'autres sociétés associées aux néo-démocrates, Blue State Digital et son propre outil, Populus. Je dois admettre que je suis surpris de constater qu'aucun représentant de ces partis ou de ces sociétés n'ait témoigné devant le Comité qui se penche sur ces enjeux.
    De façon générale, les partis politiques doivent en faire beaucoup plus pour adopter des comportements plus responsables à l'égard des données. Encore une fois, dans le cadre de mes recherches, j'ai été impressionné par le professionnalisme des militants de tous les partis, et je crois que ces professionnels adopteront les nouvelles règles. Je comprends aussi la réticence à l'égard d'une réglementation accrue pour des organisations déjà lourdement imposées, mais la plus grande reddition de comptes des campagnes numériques devrait profiter à tout le monde.
    J'appuie la recommandation du Comité voulant que les lois en matière de protection des renseignements personnels s'appliquent à tous les partis politiques. J'aimerais ajouter une autre raison à cela.
    Dans le cadre de mes recherches, j'ai constaté que les règles moins rigoureuses entraînaient de grands défis dans les campagnes politiques. Les données représentent une ressource stratégique pour les partis. Toutefois, le manque de rigueur des règles donne lieu à des inégalités. Les partis en place ont un meilleur accès aux données que les nouveaux partis. Pour se livrer concurrence, tous les partis doivent maintenir leurs listes à jour et recueillir plus de données, puisqu'ils ne peuvent pas se fier aux données recueillies par Élections Canada, ce qui donne lieu à une concentration générale vers le parti central, qui devient souvent la base de données et la logique générale des campagnes permanentes.
    Les partis hésitent peut-être à adopter la loi sur la protection des renseignements personnels, étant donné l'importance des collectes de fonds en ligne. Si nous croyons que les partis doivent recueillir moins de données, alors nous devrions songer à rétablir la subvention par vote qui réduisait le besoin de recueillir des fonds et des données connexes.
    De plus, en ce qui a trait aux données, la plupart des partis utilisent une forme d'analyse prévisionnelle pour examiner les données politiques qu'ils ont recueillies et faire des prévisions relatives au comportement des électeurs. Le parti — ou plus souvent l'expert-conseil — analyse les données pour calculer la probabilité que chaque électeur appuie le parti et la probabilité qu'un électeur se voit convaincre de voter pour le parti. Les partis utilisent ces renseignements pour prendre des décisions importantes, comme les gens à cibler et ceux qu'il faut encourager à voter. L'analyse prévisionnelle exacerbe le faible taux de participation au Canada, ce qui permet aux partis de continuer d'éloigner bon nombre des électeurs du processus électoral. Les partis devraient accepter une vérification du classement des électeurs et d'autres analyses afin de cibler les préjugés possibles associés à la race et au sexe. De plus, ils devraient veiller à ce que les décisions au sujet des électeurs à contacter et de ceux à ignorer puissent être vérifiées et expliquées.
    Enfin, mes suggestions sur la réforme de la campagne numérique se fondent uniquement sur ma propre expérience.
    Au bout du compte, les partis politiques doivent travailler ensemble à établir les règles du jeu. On recommande depuis longtemps d'adopter des codes de déontologie afin d'améliorer la politique canadienne. Je crois qu'il est maintenant temps de rédiger un code. À de nombreux égards, lorsque nous tentons de gérer les conséquences de l'interférence étrangère, il faut d'abord faire un travail d'introspection et éloigner les menaces potentielles. Les partis doivent toutefois pouvoir faire le premier pas.
    Je félicite le Comité de poursuivre ce projet et j'espère que mes commentaires appuieront les recommandations relatives à la publicité en ligne, à la protection des données des sociétés technologiques et aux réformes associées à la protection des renseignements personnels et aux activités des partis politiques.
    Merci beaucoup.
(1120)
    Merci, monsieur McKelvey. Restez à l'affût. Ces partis viendront peut-être un jour.
    La parole est maintenant à M. Scott. Vous disposez de 10 minutes. Allez-y.
    Ce qui m'amène devant vous aujourd'hui, c'est mon sentiment de regret. Je regarde le désastre politique qui s'est opéré au sud, dans mon propre pays, avec une grande détresse et une grande humilité. Je faisais partie de ces jeunes attachés politiques idéalistes et technophiles qui se sont joints à l'administration Obama dans les jours qui ont suivi son élection.
    Nous avions de grandes idées sur les données ouvertes, les médias sociaux et les marchés numériques mondiaux du discours et du commerce. Nous croyions que tout cela était libératoire et qu'il s'agissait d'un nouvel outil de pouvoir démocratique discret, et c'était le cas — nous avons grandement profité de ces forces au cours de la dernière décennie —, mais c'était aussi une arme à deux tranchants. Nous n'étions pas préparés à la façon dont la technologie s'est avérée instrumentale dans la préparation de l'un des chapitres les plus sombres de l'histoire politique américaine. Nous n'en avons pas fait assez.
    Nous ne sommes pas seuls. Nous observons maintenant ce phénomène dans l'ensemble du monde démocratique: en Grande-Bretagne, en Allemagne, en Italie, en France et dans bon nombre d'autres pays.
    La politique du ressentiment que l'on observe dans le populisme contemporain et le pouvoir déformant du marché de l'information numérique donnent lieu à un cocktail toxique. Vous l'avez souligné avec raison dans le cadre de votre examen et c'est aussi ce que l'on remarque dans les examens parallèles de ce phénomène dans d'autres législatures.
    Mon message aujourd'hui est simple: n'attendez pas de voir comment les choses se passeront au Canada. Agissez maintenant. Cela arrivera ici aussi. La seule question est comment, et est-ce que les conséquences seront de moindre importance dans le contexte canadien.
    Que faut-il faire? La première chose que je dirais, c'est ne comptez pas sur le secteur privé pour régler le problème. Les monopoles cotés en bourse ne s'autorèglementent pas. Si nous ne le savions pas avant, nous l'avons certainement appris au cours de la dernière année et demie. Cela me rappelle une citation de l'un de mes chroniqueurs préférés du siècle dernier sur le capitalisme du monopole, Upton Sinclair. Il a dit: « Il est difficile de faire comprendre quelque chose à un homme lorsque son salaire dépend précisément du fait qu'il ne la comprenne pas. »
    La réponse ne se trouvera pas dans le marché. Il faudra que le gouvernement utilise ses outils pour réorienter le marché vers l'intérêt public. Nous avons besoin d'une charte numérique de la démocratie, qui énonce un ensemble de principes et qui établit des politiques claires pour entreprendre les changements nécessaires pour protéger l'intégrité de notre sphère publique démocratique.
    Il faut commencer tout de suite, mais garder en tête qu'il nous faudra du temps. Il n'y a pas de solution unique à ce problème. Pour le régler, il faudra une association de solutions, qui ne suffisent pas à elles seules, mais qui sont toutes nécessaires. Le processus sera complexe, parce qu'il n'y aura pas une solution en particulier qui semblera faire changer les choses comme nous le souhaiterions. Toutefois, lorsqu'elles seront réunies, ces solutions pourront d'abord contenir le problème puis traiter les symptômes et, au bout du compte, atteindre les causes profondes des problèmes structuraux du marché, tant du côté de l'offre que de celui de la demande.
    Commençons par la sécurité. C'est la pièce la plus simple et la plus importante du casse-tête. L'association de cyberattaques et de campagnes de désinformation que nous avons vu déferler lors des élections dans divers pays est une menace redoutable et il faut la traiter comme telle. Nous devons accroître la cybersécurité de nos institutions démocratiques, non seulement pour l'administration électorale, mais aussi pour les partis politiques et les campagnes. Il faut les traiter comme des infrastructures essentielles, à mon avis. Nous devons aussi mieux coordonner la recherche, la surveillance et l'exposition des campagnes de désinformation associées aux services de sécurité, aux entités de recherche externes et aux entreprises.
    Les États-Unis élaborent un modèle qu'il vaudrait la peine d'examiner et d'élargir, mais je veux être clair: même si nous réglons le problème de sécurité, nous n'éliminons qu'une petite partie du problème. La plupart des menaces viennent de l'intérieur, pas de l'extérieur. À mon avis, la chose la plus importante au sujet des interventions étrangères dans le monde, c'est qu'elles ont profité des outils normalisés fondés sur le marché. Il s'agissait d'une amplification opportuniste des mouvements politiques nationaux existants, et l'on utilisait des outils bien connus et compris par les spécialistes du marketing commercial du monde numérique.
(1125)
    Le deuxième élément que nous pouvons commencer à aborder est le contenu illégal. Là encore, ce n'est pas une très grande partie du problème, mais c'est important. Les citoyens ont le droit d'être protégés contre le contenu illégal. Il existe maintenant des catégories de contenu qui sont illégales hors ligne; ce contenu devrait être illégal en ligne aussi. Citons notamment les propos haineux, la diffamation, le harcèlement et l'incitation à la violence.
    Tous ces éléments peuvent être retirés rapidement à l'aide d'un processus rigoureusement supervisé par un contrôle judiciaire régulier assorti d'un processus d'appel afin de veiller à ne pas compromettre la liberté d'expression lorsque nous entreprenons de supprimer du contenu illégal. On ne peut pas céder ce pouvoir aux entreprises qui ont des plateformes, mais on a besoin de leur participation pour accélérer le processus.
    Une fois que nous aurons réglé les problèmes de sécurité et de contenu illégal, nous devons nous attaquer au coeur du problème: comment pouvons-nous réduire l'influence des campagnes de désinformation au pays, qui cherchent à détourner les gens des faits qui les aident à éclairer leur jugement et qui commencent à polariser notre société avec le temps?
    Une mesure que nous pouvons prendre est d'encourager la communauté de recherche à consacrer plus de temps, d'énergie et d'argent à l'étude du problème. Nous n'en savons tout simplement pas assez sur la façon dont la désinformation et les marchés fonctionnent pour façonner les points de vue politiques et les résultats électoraux. Nous devons élaborer des moyens d'informer les utilisateurs de se méfier des médias numériques et d'être des consommateurs critiques à leur égard.
    Réfléchissez un moment au consommateur moyen qui est habitué aux médias traditionnels. Lorsque vous êtes chez un marchand de journaux à un aéroport et regardez les périodiques alignés devant vous, vous voyez les journaux quotidiens, de même que les revues sur la politique, les sports, les automobiles, le divertissement et la maison et le jardin. Selon l'endroit où vous êtes, lorsque vous choisissez un périodique, vous avez une idée de ce à quoi vous pouvez vous attendre.
    Dans l'environnement numérique, tous ces secteurs sont regroupés dans un même endroit et tout se ressemble. C'est un fil d'actualités sur Facebook. C'est un fil de nouvelles sur Twitter. C'est une liste de vidéos sur YouTube. Dans cet environnement, tous les signes à propos de la crédibilité et de la qualité des sources que nous avions autrefois commencent à s'atténuer. Les gens vous diront qu'ils ont lu un article scandaleux l'autre jour qui a vraiment façonné leur point de vue sur une question importante, que ce soit le climat, l'immigration ou la politique économique. On leur demande où ils l'ont lu et ils répondent sur Facebook — mais ils ne l'ont pas lu sur Facebook. Ils l'ont lu par l'entremise de Facebook sur une autre source. Quelle était l'autre source? Ils ne se le rappellent pas.
    Nous avons perdu la structure normative qui, dans l'ancien univers médiatique, nous permettait en tant que citoyens de porter des jugements implicites à propos de la crédibilité des sources et, lorsque nous lisons les médias numériques, de faire preuve d'esprit critique. Nous devons commencer à trouver des moyens de mieux comprendre ce problème à l'aide de la communauté de recherche et à nous attaquer au problème par l'entremise de la sensibilisation du public et de la littératie numérique.
    De plus, il y a de nombreuses mesures que nous pouvons prendre sur le marché à l'aide d'une réglementation. Nous pouvons obliger les entreprises à être beaucoup plus transparentes à l'égard de leurs activités. Cela débute avec les publicités politiques.
    Il n'y a aucune raison pourquoi un citoyen qui voit une publicité politique ne devrait pas savoir exactement qui l'a achetée, combien il a dépensé et combien de personnes ont été payées pour acheter l'annonce. Plus important encore, pourquoi, en tant qu'électeur, ai-je reçu ce message? Est-ce en raison de mon sexe, de mon âge, de mon revenu? Est-ce en raison de la région où j'habite? Est-ce parce que mes caractéristiques sont semblables aux personnes ciblées? Je devrais être en mesure de le savoir, car je peux ainsi examiner la publicité de manière plus critique.
    À mon sens, la transparence est la façon la plus simple et facile de réglementer les entreprises afin de nous diriger dans la bonne direction. C'est quelque chose qu'elles font volontairement, mais seulement dans certains pays et seulement lorsque la population exerce des pressions pour qu'elles le fassent. Il n'y a aucune loi pour obliger les entreprises de le faire. Je pense que c'est une première mesure bien simple.
    Il y a un éventail d'autres mesures que nous devrions prendre également. Ce sont là des problèmes structurels à plus long terme. Citons notamment la reddition de comptes relativement aux algorithmes. Nous devons examiner le fonctionnement des algorithmes et leur incidence sur le bien-être social. Nous devons nous pencher sur la protection des données; nous devons réduire les quantités de données que les entreprises recueillent et restreindre l'utilisation qu'elles en font.
    De plus, nous devons examiner la politique sur la concurrence. Nous devons envisager de moderniser la politique antitrust pour entraver les pratiques anti-concurrentielles, restreindre les fusions et les acquisitions et faciliter l'accès au marché pour de nouveaux types de services qui offrent des solutions de rechange aux modèles existants dont les facteurs externes ont donné lieu à des résultats négatifs.
    Enfin, nous devons nous concentrer sur la tâche à long terme de sensibilisation du public. Nous devons aider les gens à se prendre en main en devenant des consommateurs de médias plus avertis et éclairés.
(1130)
    Cela inclut non seulement la littératie numérique, mais aussi des investissements dans de meilleurs médias plus indépendants. Nous ne pouvons pas nous attendre à ce que les gens s'éloignent des absurdités qui se trouvent sur Internet s'il n'y a pas de grandes quantités de renseignements et d'articles journalistiques de qualité à leur disposition.
    Je ne peux pas prédire ce que ces politiques permettront de faire, mais je pense que c'est un bon point de départ. Nous n'avons pas beaucoup de temps à perdre, à mon avis. Je trouve encourageant et inspirant le travail que fait ce comité et j'ai bon espoir que le gouvernement avance dans la bonne direction.
    Merci de l'attention que vous m'avez accordée. J'ai hâte à la discussion.
    Merci, monsieur Scott.
    Le premier intervenant est M. Saini, pour sept minutes.
    Bonjour, tout le monde. Merci beaucoup d'être venus ici. Vos déclarations liminaires, qui offrent trois points de vue différents, nous donnent de quoi réfléchir.
    J'aimerais commencer avec vous, monsieur Owen. Vous avez parlé des facteurs externes négatifs. Vous avez mentionné qu'il y a eu trois vagues de facteurs externes négatifs, l'une d'elles étant la désinformation. Dans l'un de vos articles parus récemment, vous avez également parlé de la façon dont la fenêtre Overton a été perturbée. En ce qui concerne la désinformation et l'espace public, qui détermine ce dont il est acceptable de discuter dans le débat public?
    Je pense que nous devons prendre du recul et regarder qui était responsable auparavant. Jusqu'à l'émergence du Web social et au déclin des médias traditionnels, qui se sont produits parallèlement et qui sont étroitement liés, la responsabilité du discours acceptable était confiée à un petit nombre d'institutions médiatiques du XXe siècle. C'était un système très bancal. Bien des gens n'avaient pas voix au chapitre. Il maintenait un système économique, et vraisemblablement un système politique, dont bénéficiaient certains groupes. À bien des égards, il limitait notre discours. Nous n'entendions pas les opinions de tous comme nous pouvons le faire maintenant.
    Lorsque le Web social est apparu et que de nouvelles voix ont été entendues, nous avons remarqué que le débat dans notre sphère publique était beaucoup plus diversifié, dynamique et informatif que celui qui était restreint par l'infrastructure des médias traditionnels. Je dirais que le problème maintenant, c'est que les paramètres de ce débat public ne sont pas définis par la valeur des voix de chacun, les avantages sociaux de ces voix, voire l'auditoire souhaitée pour ces voix. Nous avons une nouvelle structure qui détermine ce qui est acceptable. Cette structure est le mécanisme de filtrage des plateformes qui détermine ce que nous voyons et si notre contenu peut être affiché.
    Si nous étions préoccupés par le modèle de filtrage précédent — les éditeurs des grands journaux, les diffuseurs, le petit groupe de gens qui déterminaient ce qui était acceptable—, nous devrions maintenant être préoccupés par le filtrage parallèle, à savoir les algorithmes et les modèles d'affaires qui déterminent ce que nous voyons.
(1135)
    Comme vous le savez, l'information est parfois transmise par des robots. Il y a l'interaction humaine et l'interaction avec des robots. Devrait-il y avoir des normes différentes, et devrait-il y avoir une certaine transparence, sachant que lorsque nous recevons un message, il peut provenir d'un robot ou d'un humain? Devrait-il y avoir une norme pour nous permettre de différencier cette information d'une façon transparente et claire?
    Je crois que oui. Cette question a été discutée et proposée en Californie, où la soi-disant Blade Runner Law forcerait tous les comptes automatisés à s'auto-identifier comme étant automatisés. Je pense que dans ce cas-ci, la transparence est la solution. Il y a toutes sortes d'utilisations positives potentielles des robots et des outils automatisés dans l'écosystème social, mais en tant que consommateurs, nous devrions savoir si nous sommes ciblés par l'un de ces robots, car le problème s'intensifiera à mesure que nous traiterons de plus en plus avec des agents et des entités qui reposent sur l'intelligence artificielle dans l'espace numérique.
    D'accord.
    Monsieur Scott, j'aimerais vous poser une question sur un article que vous avez écrit dans la revue The Atlantic au sujet des algorithmes, que vous avez mentionnés d'ailleurs dans vos remarques liminaires. Comme vous le savez, certains algorithmes sont utilisés pour nous aider à recueillir des renseignements d'une manière beaucoup plus efficace, mais il semble que les algorithmes sont maintenant utilisés comme arme. L'une des solutions proposées ou l'une des discussions tenues par les entreprises de médias sociaux est de créer des algorithmes pour surveiller les algorithmes existants. Cette solution vous semble-t-elle réalisable?
    Cela me fait penser à l'argument selon lequel la solution à la violence armée est la présence de plus d'armes dans les rues. C'est logique dans un certain sens, car vous pourriez assurer un contrôle des mauvais algorithmes à l'aide des algorithmes de surveillance, mais je pense que la véritable cause du problème, c'est de ne pas avoir plus de technologies pour essayer de colmater les brèches dans le système existant. La véritable solution à ce problème, c'est la surveillance et la transparence. Nous devons mieux comprendre comment les algorithmes fonctionnent et nous devons comprendre quelles sont les faiblesses pour l'utilisation de ces outils comme arme.
    Dans les marchés qui sont devenus gros et puissants et qui ont une forte incidence sur l'intérêt public, tel que les règles de santé et de sécurité pour le secteur de la restauration ou des examens menés par un tiers pour les produits pharmaceutiques, nous soumettons ce type d'entreprises à des vérifications depuis longtemps, pas pour vérifier si elles se conduisent mal délibérément, mais pour veiller à ce qu'il n'y ait pas de répercussions imprévues sur la conception de produits sur le marché. Je pense qu'au final, nous nous dirigeons vers un système de surveillance et un examen des algorithmes qui peuvent être utilisés comme arme pour éviter qu'il y ait des effets négatifs importants.
    Vous avez soulevé quelques points, et je crois qu'il ne me reste qu'une minute.
    Vous avez mentionné notamment que nous devrions peut-être limiter les quantités de données qui sont communiquées aux entreprises de médias sociaux. Vous avez également évoqué l'éducation, à savoir que les consommateurs devraient être mieux éduqués pour pouvoir différencier les sources légitimes et illégitimes.
    Compte tenu des quantités de renseignements qui font leur apparition sur Internet chaque jour, comment est-il possible de faire cette distinction? Pouvez-vous décrire comment nous pourrions éduquer les gens? Comment peut-on éduquer le consommateur pour qu'il puisse reconnaître si des renseignements sont légitimes ou illégitimes?
(1140)
    C'est un défi de taille, mais nous avons tenu le même débat avec la montée de la télévision lorsque nous sommes passés de trois ou quatre canaux de télédiffusion à 200 — le tsunami d'information rendait impossible la tâche de différencier la crédibilité et la qualité. Au fil du temps, les gens ont élaboré un nouveau schéma pour déterminer comment trier, classer et juger la qualité et la crédibilité des sources à la télévision. La même chose peut se produire avec Internet.
    Je tiens également à souligner que nous n'avons pas besoin d'avoir un doctorat et de faire une thèse sur chaque source pour évaluer ce que nous en pensons: il faut des façons rapides et faciles d'évaluer la crédibilité d'une source. Ces éléments peuvent être enseignés dans des classes de connaissances civiques. Ils peuvent être enseignés d'une façon générale et neutre pour que les gens possèdent les compétences pour juger quand et comment ils doivent appliquer davantage leurs aptitudes cognitives pour évaluer la crédibilité et la qualité de la source.
    Merci, messieurs Scott et Saini.
    Le prochain intervenant est M. Kent, pour sept minutes.
    Merci, monsieur le président.
    Merci à vous tous d'avoir comparu devant nous aujourd'hui. Comme mon collègue l'a dit, vous nous avez donné trois perspectives à étudier.
    Monsieur McKelvey, avez-vous donné votre avis ou des conseils au commissaire à la protection de la vie privée ou au directeur général des élections?
    Je n'ai pas discuté avec le Commissariat à la protection de la vie privée. Il y a eu quelques échanges avec le directeur général des élections. Je sais qu'il y a un groupe de travail informel, mais je n'ai pas pu assister à la première réunion. Dès que j'en aurai l'occasion, j'essaierai de me rendre disponible.
    Vous avez parlé de l'urgence d'agir avant les prochaines élections fédérales canadiennes en octobre 2019. Le directeur général des élections a dit au pays, à la Chambre des communes et au gouvernement qu'il est trop tard pour adopter certaines des lois dont nous sommes saisis à l'heure actuelle. Avez-vous des suggestions qui pourraient être mises en oeuvre avant les élections pour minimiser ou contrer quelques-unes des menaces que vous avez décrites?
    J'ai parlé principalement de trois choses que je pense que le Comité n'avait jamais entendues auparavant. La portée de cette question est très troublante pour quiconque étudie en communications. C'est comme si tout est dans le même panier en même temps. Quels sont les millions d'éléments différents que vous avez étudiés au cours des 10 dernières années que vous pourriez extraire?
    Nous avons essayé de donner rapidement suite aux recommandations. Je pense que beaucoup de progrès ont été accomplis relativement aux publicités et à la transparence. Je pense certes qu'il n'est pas nécessairement difficile d'approfondir l'étude du marché de la publicité. Il y a de toute évidence un problème.
    Je pense que la question des autres étapes a été abordée de façon détournée. Il y a la modération du contenu. L'une des faussetés auxquelles on croit, c'est que les plateformes de médias sociaux ne sont pas réglementées, mais on a une foule de règles variées de différents niveaux plus ou moins transparentes qui filtrent le contenu. Bon nombre de ces règles sont pour le contenu illégal, mais il y a aussi des préoccupations, par exemple, à propos de groupes de femmes allaitantes sur Facebook qui ont fait l'objet de censure.
    Je pense que l'une des mesures dont mes collègues Chris Tenove et Heidi Tworek et moi parlons est d'avoir un conseil des médias sociaux, semblable à un conseil des normes de la radiotélévision, pour que vous puissiez commencer à coordonner cette zone grise associée à la modération du contenu, ce que les plateformes font de plus en plus. Je pense que c'est en grande partie un problème insoluble. Pour revenir sur le point que Ben Scott a soulevé, je ne pense pas que nous allons résoudre ce problème. Je pense qu'il faut créer ces institutions qui peuvent maintenir cela.
    Troisièmement, je pense que l'on devrait vraiment élaborer ce code de conduite. Le parti est réticent à le faire. Je trouve frustrant qu'aucune clause n'ait été élaborée étant donné que nous discutons du sujet depuis des mois. Dans une certaine mesure, ce n'est pas mon échéancier. J'ose espérer que des progrès seront accomplis en ce sens.
    Enfin, il y a eu des discussions au sujet du projet de loi C-76 et de la protection de la vie privée, et le gouvernement a déclaré qu'il ne soumettra pas les partis politiques à la Loi sur la protection des renseignements personnels. Je pense que c'est vraiment une erreur. Je pense que c'est une solution très facile, et nous voyons que c'est efficace en Colombie-Britannique.
    Comme le président l'a indiqué concernant les partis politiques canadiens, les invitations seront envoyées. Nous espérons que les partis vont répondre et prendre des mesures pour régler certaines de ces questions.
    Dans le cas du scandale Cambridge Analytica-Facebook-AggregateIQ, il y a eu énormément d'empressement à jeter le blâme sur les uns et les autres, concernant la provenance des données et ceux qui les ont obtenues. Les gens d'AggregateIQ ont dit qu'ils ne savent pas d'où venaient les données, qu'ils n'ont rien fait de mal et que tout ce qu'ils ont fait, c'est traiter les données et acheter de la publicité.
    Pour ce que vous avez dit à propos des courtiers en données, il semble aussi y avoir dans ce secteur une certaine mesure de démenti plausible au sujet de la source des données, par exemple, si un parti, un publicitaire, ou n'importe qui d'autre a acheté des données pour envoyer un message ou pour acheter un produit, ou encore pour soutenir un parti politique. Croyez-vous qu'il faudrait réglementer la façon dont les courtiers en données obtiennent l'information, ainsi que leurs sources de données?
(1145)
    Je crois qu'il faut notamment éclaircir le mandat du Commissariat à la protection de la vie privée et étendre ses pouvoirs d'application afin d'en améliorer l'efficacité. Je ne sais pas s'il faut nécessairement de nouvelles dispositions réglementaires ou si simplement éclaircir ce qui existe conviendrait. Le Commissariat à la protection de la vie privée a commandé un rapport sur les courtiers en données. Je crois qu'un des aspects importants est que, quand je regarde AggregateIQ et en particulier les allégations voulant que cette entreprise recueillait des données à Trinité-et-Tobago pour les utiliser à l'étranger, je crois que cela soulève des questions sur la façon de coordonner cela en tant qu'intervenant à l'échelle internationale. C'est ce que j'ai dit, que ces courtiers en données ont une portée mondiale. Selon le Commissariat à la protection de la vie privée, le marché des courtiers en données du Canada n'est pas aussi vaste que celui des États-Unis.
    Je crois que dans un sens, il faut admettre que nos lois sur la protection de la vie privée produisent des effets là-dessus. Il faut aussi commencer à penser à la façon de passer de la collecte de renseignements personnels à la réflexion sur les lois visant à protéger les données et sur la façon de combiner cela, de même que sur le degré de transparence qu'il y a là. Je crois que c'est manifestement nécessaire.
    Très brièvement, parce que le temps est précieux, j'aimerais, messieurs Owen et Scott, que vous me donniez vos perspectives sur la réalité voulant que l'univers numérique n'ait pas de frontières. Quand le RGPD, le Règlement général sur la protection des données de l'Union européenne a été adopté en Europe, nous avons vu un très grand nombre de grands médias américains se mettre à bloquer l'accès en Europe parce qu'ils n'étaient pas sûrs de ne pas enfreindre les nouvelles dispositions législatives de ces pays.
    Que pensez-vous de la situation actuelle, avec le RGPD qui comporte des règles très strictes que le reste du monde n'a pas?
    Je dirais simplement que je pense que nous voyons émerger trois régimes réglementaires divergents: un régime réglementaire européen qui s'articule de bien des façons autour du RGPD, mais qui mise aussi sur d'autres dispositions; un régime américain dont la structure est dans une grande mesure non réglementée; et un modèle de gouvernance chinois qui crée et comporte des outils offrant un degré nettement supérieur de surveillance et de contrôle par rapport à tous les autres outils existants. Je crois qu'il y a de la place pour un quatrième régime. Il existe mondialement une demande visant quelque chose qui serait différent de ces trois régimes, mais si le Canada ne s'en occupe pas, je pense que nous allons devoir choisir un de ces régimes. L'idée de nous placer entre l'Europe et les États-Unis à cet égard n'est pas durable.
    Merci.
    Nous passons à M. Masse.
    Merci, monsieur le président.
    C'est un excellent point à relever. L'une de mes plus grandes préoccupations, à cet égard — et je propose une charte des droits numériques —, c'est qu'on semble chercher à remettre le génie dans la lampe. C'est du moins le cas de certains.
    Je peux vous dire qu'en tant que néo-démocrate, j'ai eu bien des journalistes qui m'ont dit que leur journal ne me couvrirait pas parce que la rédaction ne va pas couvrir un membre du NPD. Je suis là depuis 15 ans, au fédéral, et avant cela, j'ai siégé pendant cinq ans à un conseil municipal. Nous avons divers flux, niveaux et écrans dans les médias grand public. Il est excitant qu'Internet soit utilisé comme outil différent pour rejoindre les gens et leur transmettre des messages différents, et l'effet est là.
    J'avais un projet de loi sur le droit de réparation sur le marché secondaire du propriétaire d'un véhicule automobile. J'ai obtenu une couverture médiatique limitée parce que les annonceurs entretenaient des relations très lucratives avec les fabricants d'automobiles. C'est une disposition qui a été prise aux États-Unis concernant les réparations sur le marché secondaire. Ici au Canada, le message entrait en concurrence directe avec ceux qui avaient des intérêts financiers dans la diffusion d'annonces et de publicité, ce qui est très lucratif.
    Je suis intrigué, cependant, par la transparence proposée, et j'aimerais entendre d'autres observations à ce sujet. J'invite tous les témoins à répondre. Nous pourrions voir cela comme étant semblable aux publicités de médicaments. Quand les annonceurs vous invitent à vous prescrire vous-mêmes un médicament, à la télé, vous avez ensuite un avertissement. Nous savons entre autres que Saturday Night Live a fait des sketches comiques concernant les effets secondaires comme la nausée. Est-ce un modèle ou un élément possible?
    Je vais conclure avec ce qui suit. L'utilisation des ondes et de l'espace aérien pour les télécommunications correspond à une infrastructure que nous louons. Cela nous appartient et nous en sommes propriétaires, comme de nos terres. Nous payons les appareils, les droits et les services qui nous amènent cette information, à nous et à nos familles. Il arrive souvent que cela soit infecté ou contaminé par d'autres, qui s'y attaquent au moyen de logiciels malveillants ou d'autres choses comme l'hameçonnage. Je crois donc que ceux qui s'adonnent à ce type d'information ont une grande responsabilité. À mon point de vue, pour améliorer la transparence, il faudrait que nous ayons au moins certains droits à cet égard, car nous avons créé le système qui sert à la diffusion de cette information.
(1150)
     Si vous me le permettez, je vais me lancer.
    Je crois que la transparence fait l'objet de l'ensemble de recommandations le plus clair que nous ayons, et diverses idées ont été explorées.
    J'ai publié hier un texte qui attirerait votre attention là-dessus. Il s'intitule « Digital Deceit II ». C'est le deuxième d'une série d'articles. Le premier portait sur les technologies derrière la publicité, et celui-ci offre des recommandations stratégiques.
    Ce texte comporte une recommandation très précise au sujet de la transparence de la publicité. En gros, ce que je dis, c'est que quand vous avez une annonce sur Facebook, Twitter ou YouTube et que vous passez votre doigt sur cette annonce alors que vous utilisez votre téléphone ou que vous faites glisser le curseur de votre ordinateur au-dessus de cette annonce, une petite boîte devrait s'ouvrir et vous donner beaucoup plus d'information sur cette publicité: qui a acheté la publicité; combien elle a coûté; combien de gens l'ont vue à part vous; et surtout, les raisons pour lesquelles vous avez eu cette publicité, soit les caractéristiques démographiques qui ont été choisies par l'annonceur pour que vous voyiez cette annonce. Si vous avez reçu l'annonce parce que l'annonceur a votre courriel ou votre numéro de téléphone, il devrait être obligé de vous le dire aussi. Fort de toute cette information, je vais me dire: « Ça alors! J'ai une perspective beaucoup plus critique de cette information. »
    Notre étude nous montre que bien des gens ne voient même pas la différence entre une annonce et le contenu organique, soit le contenu qui ne fait pas l'objet d'un paiement.
    Je crois que ces annonces devraient être encadrées en rouge vif, pour que vous sachiez que ce sont des annonces. « Je vais glisser mon doigt sur cette annonce pour voir pourquoi je l'ai reçue. »
    Il y a une analogie directe avec la façon dont nous traitons la publicité radiodiffusée ou la publicité de produits pharmaceutiques. Sur le plan de l'intérêt public, nous avons la responsabilité d'assurer la transparence, et nous le faisons dans la loi. Il n'y a aucune raison de ne pas le faire dans l'univers numérique. Les sociétés pourraient le faire dès demain si elles le voulaient.
    L'autre chose, c'est que toutes les annonces à saveur politique qu'il y a sur Facebook, Twitter ou Google devraient se trouver dans une base de données accessible au public. Il y a de très nombreuses annonces politiques, et des milliers de versions différentes de ces annonces qui ciblent très précisément de petits groupes de gens. Parfois, les messages sont contradictoires, et ils espèrent tout simplement que personne ne va remarquer qu'ils préconisent deux choses différentes auprès de deux groupes différents. Vous ne pourriez jamais faire cela à la télévision, mais vous pouvez le faire sans aucun problème sur Facebook.
    La campagne de Trump a tout à fait maîtrisé cela. Il faut que cette base de données soit accessible aux journalistes et aux chercheurs au moyen d'une API très simple — une interface de programmation applicative —, de sorte que tout le monde puisse accéder à ces données, les examiner et comprendre comment la propagande politique fonctionne. Je ne dis pas que c'est entièrement illégitime, mais seulement que nous devons savoir ce qui se passe et la façon dont les gens essaient d'influencer nos points de vue.
    Quelqu'un d'autre aurait quelque chose à dire?
     Je suis tout à fait d'accord avec les deux éléments. C'est vraiment la première et la plus simple mesure à prendre d'ici à la prochaine élection.
    Je vous écoute, monsieur McKelvey.
     J'aimerais exprimer une réserve... Je pense que la transparence est très importante. Je pense qu'il faut aussi commencer à parler des limites relatives aux endroits et aux façons de faire de la publicité. C'est la raison pour laquelle je pense que l'idée d'une charte des droits numériques est plutôt intéressante. Vous commenciez à envisager ce qui peut être fait et ce qui ne peut pas être fait, et à faire passer une part de la responsabilité des consommateurs — qui sont d'après moi dans un environnement où l'information est taxée — aux entreprises.
    Pour moi, l'une des leçons les plus éloquentes est que Facebook et Google se sont tous deux retirés de la publicité des cryptomonnaies, et que Google en particulier a cessé de montrer de la publicité de centres de traitement de la dépendance aux opioïdes parce que c'est trop difficile à réglementer.
    Je crois que ce que nous devons dire, c'est que ces marchés de publicité sont déjà réglementés de certaines façons et qu'il nous faut plus de transparence sur leur façon de fonctionner. Je ne pense pas que la transparence doit se limiter à l'utilisateur; elle doit garantir une meilleure reddition de comptes au sujet de la façon de vendre et de gérer ces annonces.
(1155)
    Il vous reste à peu près 10 secondes.
    Rapidement, est-ce que le gouvernement peut donner l'exemple en faisant le premier pas et en s'imposant des normes, pour immédiatement après y soumettre le secteur privé?
    Absolument.
    Oui.
    Oui.
    C'est incroyable, trois réponses en trois secondes. C'est excellent.
    C'est maintenant au tour de M. Erskine-Smith, pour sept minutes.
    Je vous remercie de vos témoignages.
    En juin, nous avons déposé un rapport provisoire comportant des recommandations précises, et je veux m'assurer que nous sommes sur la même longueur d'onde. Vous conviendriez tous de la nécessité de renforcer les pouvoirs du Commissariat à la protection de la vie privée. Est-ce juste?
    Oui.
    Oui.
    Oui.
    Vous avez tous parlé aujourd'hui d'une meilleure réglementation des activités politiques en ce qui concerne la protection de la vie privée. J'aimerais approfondir cela afin que notre rapport final contienne plus de recommandations précises.
    Quand nous parlons d'élections et de transparence de la publicité, vous avez tous les deux, messieurs Owen et Scott, énoncé dans des documents différents une façon très précise d'examiner cela. Il y a la base de données interrogeable sur Facebook, où un politicien comme moi pourrait placer du contenu. Je présume que ce contenu serait interrogeable, si j'en suis le commanditaire.
    Est-ce que cela se tient?
    Cette base de données existe déjà si vous êtes un utilisateur américain de Facebook.
    Oui. Cependant, d'après ce que j'ai compris de mes conversations avec des gens aux États-Unis, cette base de données n'est pas si facile à interroger, et il faudrait imposer des exigences concernant la facilité de recherche.
    J'allais aborder cela, mais vous avez été plus vite que moi.
    Quand Facebook, Google et Twitter ont annoncé qu'ils allaient créer des bases de données axées sur la transparence, ils ont dit que vous verriez toutes les annonces montrées pendant un cycle politique et que vous auriez des données sur chacune de ces annonces: l'acheteur de l'annonce, le montant dépensé et de l'information sur le ciblage, bien qu'ils aient un peu reculé là-dessus. Tout allait être interrogeable, et il y aurait un accès API de sorte que les chercheurs et les journalistes puissent littéralement télécharger l'ensemble complet de données et l'étudier eux-mêmes.
    Ce dernier élément n'a pas été réalisé. La facilité de recherche et la capacité de recherche de cet ensemble de données ne correspondent pas aux normes qu'il nous faut. Je ne crois pas que les entreprises vont le faire d'elles-mêmes, et nous ne devrions pas non plus nous attendre à cela. Ce sont des entreprises. Elles ne veulent pas faire baisser leurs revenus de publicité commerciale. Leur responsabilité n'est pas de protéger l'intérêt public. C'est à nous que cette responsabilité incombe.
    Si nous voulons cette norme sur le marché, nous allons devoir légiférer.
    Quant à soumettre les activités politiques à un régime de protection de la vie privée, c'est une de nos recommandations. Cependant, quand Christopher Wylie était ici, il a indiqué qu'il faudrait traiter différemment les activités politiques et les entreprises à but lucratif, car bien sûr la quête de la démocratie, c'est différent de la recherche de profits. Verriez-vous une différence dans la sévérité de ce régime de protection de la vie privée? Faudrait-il plutôt appliquer le même régime dans les deux cas?
    Je me suis moi-même beaucoup interrogé là-dessus. Je crois que vous pouvez les traiter différemment. Je pense qu'il est logique de les traiter différemment afin de montrer que nous avons pour la publicité politique une norme différente de celle qui s'applique à la vente de savon ou de vélos, tout comme nous le faisons dans les publicités radiodiffusées.
    Cela devient plus difficile quand vous vous mettez à demander qu'on définisse l'annonce politique. Il est intéressant de voir comment les trois grandes entreprises qui offrent des plateformes ont défini les annonces politiques pour ce qu'elles incluent dans leurs bases de données et ce à quoi elles appliquent leur réglementation volontaire.
    Twitter dit qu'une annonce n'est politique que si elle mentionne un candidat ou un parti politique. La norme est la même pour Google. Facebook dit qu'une annonce politique est une annonce qui mentionne un enjeu d'importance publique, et il y en a une liste de 20 environ, du climat au contrôle des armes à feu, en passant par l'immigration. Pour moi, c'est une présentation nettement plus honnête de ce qu'est une annonce politique. Je crois qu'on a tort de trop restreindre les conditions, car les gens vont tout simplement contourner vos règles et utiliser différentes choses comme points de référence. Cependant, si vous vous mettez à définir cela d'une façon plus générale, la zone grise entre ce qui est politique et ce qui ne l'est pas devient plus difficile à cerner.
    Je crois que c'est comme le jour et la nuit: 95 % du temps, nous pouvons nous entendre pour dire qu'il fait jour ou qu'il fait nuit. Nous allons déterminer ce qu'il en est des 5 % de cas pour lesquels les opinions sont légitimes des deux côtés. Je pense que c'est le bon point de départ. Si nous trouvons une entreprise qui est incapable de faire la distinction entre les deux, ça va; vous pouvez simplement mettre la barre haute pour tout le monde.
(1200)
    Très brièvement, je crois que Ben Scott et moi sommes d'accord sur l'essentiel des réponses stratégiques, mais sur ce point particulier, il y a peut-être une petite différence entre nous. À long terme, je ne suis pas sûr qu'il soit possible de différencier les annonces politiques de celles qui ne le sont pas d'une façon viable et durable.
    Au bout du compte, que ce soit pour des activités commerciales ou politiques, dans les deux cas, on cherche à influencer votre comportement. Pourquoi ne pourrions-nous pas — en tant que consommateurs dans un contexte de protection du consommateur ou en tant qu'électeurs dans un contexte de protection de l'intégrité électorale — avoir le droit de savoir comment notre comportement est ciblé de façon très précise à l'aide de systèmes incroyablement sophistiqués dans le but d'influencer notre comportement? Je vois des données de base différentes pour les deux, mais la solution la plus facile est de veiller à la transparence complète.
    Nous avons parlé de transparence dans la publicité. Monsieur McKelvey, vous avez parlé de la collecte et de l'utilisation et d'exigences plus sévères en matière de collecte et d'utilisation de renseignements personnels et de la possibilité d'assujettir les activités politiques des partis politiques à des exigences plus sévères. Si je frappe à une porte et que je parle à une personne et qu'elle me dit qu'elle s'intéresse beaucoup au changement climatique et que j'envoie ensuite une publicité ciblée à cette personne et à d'autres personnes qui sont toutes préoccupées au sujet du changement climatique, cela pose-t-il un problème?
    Pour répondre à votre question, je crois qu'en principe, les partis politiques peuvent facilement être visés pas nos lois sur la protection de la vie privée existantes. Si vous collectez des renseignements sur le point de vue de la personne qui répond à la porte, il me semble — et je ne suis pas avocat en matière de protection de la vie privée — qu'il y a consentement éclairé dans ce cas. En effet, vous demandez à ces personnes de vous parler de leur opinion et vous collectez ces données et ces personnes savent que vous les collectez. Ensuite, vous utilisez ces renseignements.
    Je crois que la question qui se pose — et je crois que cette question s'applique à l'ensemble de nos données dans ce type de combinaison de surveillance et de ciblage — est la suivante: quand savons-nous et quand sommes-nous informés que les renseignements que vous recueillez seront utilisés à des fins de ciblage?
    Ce que j'essaie de dire, c'est que je ne suis pas convaincu que tout ce ciblage est très efficace. Si un parti politique souhaite cibler des personnes au sujet du changement climatique, pourquoi a-t-il besoin d'établir un lien entre cette notion et l'électeur qui répond à la porte? Je crois qu'il y a des façons de se conformer aux lois en matière de protection de la vie privée tout en menant relativement le même type d'activité.
    Cela revient à savoir si vous envoyez un courriel ciblé qui parle de changement climatique à cette personne. Vous savez, cela pourrait être limité d'une façon ou d'une autre.
    Me reste-t-il du temps?
    Il vous reste une seconde. À moins que vous puissiez être aussi rapide que M. Masse, c'est...
    Vous pourrez peut-être me redonner la parole plus tard.
    D'accord.
    Nous entendrons maintenant M. Gourde. Il a cinq minutes.

[Français]

     Merci, monsieur le président.
    Je remercie les témoins d'être ici ce matin.
    D'après vos discussions, nous comprenons tous bien que le monde numérique actuel est en évolution, qu'il change et qu'il se transforme. Les diverses plateformes numériques nous présentent un tout nouveau paysage de l'information, mais aussi de la désinformation, ce qui est malheureux.
     On découvre depuis environ deux ou trois ans à quel point les fausses nouvelles envahissent toutes ces plateformes numériques. On se demande si la population ne va pas décrocher à un moment donné puisque nul ne peut plus être certain de l'exactitude de l'information qui est publiée. Est-elle vraie ou est-elle fausse? Cette situation est d'actualité aux États-Unis, où une nouvelle est lancée une journée, réfutée le lendemain, mais de nouveau donnée pour vraie le surlendemain.
    La population ne s'y retrouve plus dans ces nouveaux médias, lesquels ont malheureusement accaparé une part du marché des médias traditionnels. Selon moi, ces derniers étaient plus éthiques puisqu'ils passaient plus de temps à faire leurs recherches avant de lancer quelque chose à la population.
    Il y a aussi toute la question des publicités sur ces plateformes. Selon moi, les nouveaux médias se préoccupent peu de l'exactitude des publicités qu'ils diffusent. D'après vous, qui devrait être responsable de la véracité des publicités proposées tant par le secteur privé que par les partis politiques? Vous pouvez répondre chacun à votre tour.
(1205)

[Traduction]

    Si je comprends bien, la crédibilité de la publicité est un enjeu réel. C'est dans ce contexte que j'ai remarqué que des entreprises comme Facebook et Google se retirent de certains marchés de publicité ou limitent les options de publicité pour certains mots clés, par exemple « cryptomonnaie » et « centre de traitement de la dépendance aux opioïdes ».
    Je crois qu'il est très important de reconnaître que certains de ces marchés d'algorithmes sont visiblement limités à cet égard. En effet, ils sont parfois incapables de reconnaître des renseignements de qualité ou des renseignements crédibles.
    Je crois que c'est l'un des problèmes omniprésents auxquels nous faisons face. En effet, pour être en mesure de fonctionner à l'échelle appropriée, le triage des renseignements a en quelque sorte adopté une approche axée sur le marché. Je crois que souvent, cette approche n'a pas réussi à diffuser des publicités de haute qualité ou du moins, dans le cas des centres de traitement de la dépendance aux opioïdes, des publicités qui ne proviennent pas de fraudeurs ou de centres de traitement douteux.
    Je crois que c'est une découverte importante. Il est important de reconnaître que la formulation de recommandations par des algorithmes présente de véritables défis, tout comme la question de savoir si ces algorithmes réussissent efficacement à faire la distinction entre les bons et les mauvais renseignements, si je peux utiliser ces qualificatifs de façon générale.
    Allez-y.
    Attendez, monsieur Owen. Nous n'avons pas...
    D'accord. Allez-y.
    J'aimerais faire valoir un bref point en ce qui concerne la fiabilité des renseignements. Je crois qu'il est manifestement essentiel, dans une démocratie, d'avoir des renseignements fiables qui sont connus d'un grand nombre de citoyens. Nous devons établir une référence en matière de renseignements fiables sur laquelle nous nous fondons pour prendre des décisions démocratiques relatives à notre bien-être collectif et à notre gouvernance. C'est un élément essentiel dans une démocratie, mais il est en train d'être érodé par le système.
    Si nous utilisons cette référence, je pense que nous devons examiner la façon dont nous favorisons le renforcement de la fiabilité des renseignements dans l'écosystème actuel de notre sphère publique numérique. La crédibilité et la transparence de la publicité font certainement partie de la solution, mais cela concerne en grande partie le volume de journalisme produit au sujet de notre société et le volume de journalisme qui demande des comptes aux gens au pouvoir dans notre société. Toutefois, cela connaît un déclin marqué et soudain au Canada.
    Il existe une série d'autres changements réglementaires ou d'engagements de points liés à la gouvernance qui pourraient contribuer à solidifier ce système. Il y a des solutions faciles, par exemple la modification de la Loi de l'impôt sur le revenu pour permettre le financement des nouvelles par des oeuvres de bienfaisance. Aux États-Unis, le secteur le plus solide du milieu journalistique, surtout dans le milieu du journalisme de reddition de comptes, c'est le secteur des nouvelles à but non lucratif. Cette notion est presque inexistante au Canada en raison de nos lois sur le financement des oeuvres de bienfaisance.
    Je crois que nous pourrions prendre toute une série de mesures, à tout le moins, pour bâtir cette base de journalisme fiable dans ce domaine.
    J'ajouterais qu'il faut se pencher sur la question de la radiodiffusion publique. Je crois que nous abordons notamment cette question en fonction des subventions à l'information, ou à ce qui subventionne la production d'information, et je crois qu'il existe toute une série de nouvelles subventions à l'information. C'est dans ces cas-là qu'on parle de contenu commandité, ainsi que des campagnes de propagande. À mon avis, c'est également à ce moment-là qu'on se rend compte que la radiodiffusion publique est une autre source importante et qu'une partie de l'intégrité de notre démocratie repose sur le financement de la radiodiffusion publique.
    Merci, monsieur Gourde.
    Nous entendrons maintenant M. Picard. Il a cinq minutes.
    Si nous souhaitons que le gouvernement puisse prendre des règlements, nous devons cerner le ou les vrais problèmes. Revenons aux fondements de la question en jeu, à savoir les fuites de renseignements personnels. Quel est le problème avec Facebook et Cambridge Analytica? Est-ce le fait qu'une personne a été assez intelligente pour tirer des conclusions sur le comportement des gens en se fondant sur des renseignements publics fournis par des abonnés ou est-ce parce que cette personne a fait cela sans que nous le sachions?
    À mon avis, le problème est lié à ces deux notions. Je répondrai...
    La parole est d'abord à M. McKelvey et ensuite à M. Scott.
    Monsieur le président, j'ai quelque chose à dire là-dessus.
    Désolé, monsieur Scott. M. McKelvey était le premier intervenant. Vous aurez la parole ensuite.
    Je m'excuse.
    J'allais simplement dire que ce qui est clair, c'est que ce qui a été exposé — et je crois que c'est ce qu'ont admis les représentants de Facebook lorsqu'ils ont comparu devant votre comité —, c'est qu'on leur a confié une grande quantité de renseignements et de données personnelles et qu'ils n'ont pas bien géré l'accès à ces renseignements personnels. Je suis sceptique relativement à l'efficacité de Cambridge Analytica, et je ne suis pas particulièrement convaincu que la psychométrie soit en quelque sorte une nouvelle aiguille hypodermique révolutionnaire, mais je crois qu'il est très clair que lorsque vous collectez de grandes quantités de données, les lois en matière de protection de la vie privée vous obligent à contrôler l'accès à ces renseignements, ainsi que leur circulation.
    Je crois qu'il est très clair que c'est l'un des enjeux les plus importants dans ce cas-ci, c'est-à-dire les types d'arrangements de partage de données en vigueur dans les médias sociaux.
(1210)
    J'aimerais revenir à M. Scott.
    Est-ce une question d'accès ou une question de savoir ce que les personnes feraient avec les données?
    Eh bien, une partie de la préoccupation, c'est qu'on a fourni un accès à ces données sans exercer une surveillance précise sur la façon dont elles étaient utilisées. C'est l'une des choses qui créent aussi des difficultés dans le cas des recherches universitaires. Facebook et de nombreuses autres plateformes de médias sociaux ont resserré leurs API et l'accès à leurs données. Cela a souvent été fait sans grande transparence — et c'est ce que les représentants de Facebook ont admis — sur la façon dont les données allaient être utilisées, et je crois donc que cet enjeu comporte deux volets. Il s'agit essentiellement de savoir qui a accès aux données tout en veillant à ce que ces personnes soient tenues de rendre des comptes sur la façon dont elles les utiliseront.
    Monsieur Scott, avez-vous des commentaires?
    J'aimerais souligner deux dispositions intéressantes du Règlement général sur la protection des données de l'Union européenne. Nous ne sommes pas encore certains de la façon dont ces dispositions seront formulées et appliquées au marché.
    L'une de ces dispositions indique que l'utilisateur devrait avoir plus de contrôle sur le consentement qu'il donne relativement aux différents types de renseignements. Actuellement, lorsque je signe l'entente de confidentialité de Facebook, c'est tout ou rien. Soit j'accepte tout ce qui se trouve dans le document de 80 pages, soit je n'utilise pas le service. Selon le Règlement général sur la protection des données, cette pratique n'est plus permise. Il faut donner aux gens des choix réels lorsqu'il s'agit du contrôle de leurs propres données, surtout les données délicates comme celles liées aux opinions politiques.
    Je crois qu'il y a une question essentielle sur le fait de donner aux consommateurs une plus grande capacité de contrôler les données qui sont recueillies et la façon dont ces données sont utilisées. Il est intéressant de souligner que l'organisme de réglementation antitrust de l'Allemagne a lancé une enquête sur Facebook. Selon cet organisme, le pouvoir de marché détenu par une entreprise comme Facebook sur un segment du réseau social est si puissant que dans les faits, leur entente de confidentialité représente une coercition, car c'est tout ou rien. En effet, le consommateur n'a aucun moyen de savoir ce qui est contenu dans cette entente et il n'y est pas encouragé, car s'il refuse de signer l'entente, il doit renoncer à tous les services et à l'accès à une plateforme utilisée par deux milliards de personnes dans le monde.
    Selon moi, c'est le problème fondamental. C'est exactement ce que dit M. McKelvey, c'est-à-dire qu'il faut savoir ce que ces sociétés collectent, mais il ne suffit pas de savoir comment elles vont utiliser ces données; il faut également pouvoir avoir son mot à dire sur la façon dont elles les utiliseront. Selon moi, c'est ce qu'on appelle le contrôle du consommateur sur l'utilisation de ses données. C'est l'élément essentiel qui, à mon avis, nous cause des difficultés dans les politiques sur la confidentialité, mais cela a également des répercussions sur les politiques relatives à la concurrence, car le pouvoir de marché joue un grand rôle à cet égard.
    Merci.
    Monsieur Owen, vous avez dit, dans votre exposé, que cela a des répercussions sur la démocratie et que notre système électoral est à risque. Cela paraît bien dans le discours politique, mais en réalité, quel est le problème? Les gens disent ce qu'ils veulent sur tous les candidats. Le problème est-il que notre système a été piraté ou les gens peuvent-ils se faire leur propre idée en vérifiant les renseignements qu'ils reçoivent?
    Eh bien, je ne crois pas que le système ait été piraté. Je crois seulement que la structure du marché de nos renseignements a beaucoup changé. En effet, dans l'ancien modèle, nous avions toutes sortes de façons et de mécanismes pour limiter et réglementer les discours pendant les élections, pour gérer les fonds étrangers investis dans le marché des médias, pour obliger les radiodiffuseurs à divulguer les entités qui financent chaque publicité pendant une élection... Ce sont des façons par lesquelles nous réglementions les discours afin de protéger la sphère publique en période électorale, et il faut souligner qu'à cette époque, la qualité des renseignements était importante dans notre société.
    Ces règlements et ces lois ne sont pas vraiment applicables dans le nouvel écosystème. Il faut donc se demander si nous pensons que ces lois et règlements devraient s'appliquer. Nous devons nous demander s'il est nécessaire d'appliquer les mêmes principes dans le nouvel écosystème. Je ferais valoir qu'ils devraient s'appliquer, mais qu'il faut modifier les règlements, car la structure de cet écosystème est différente.
    Merci, monsieur Picard.
    Nous entendrons maintenant M. Kent. Il a cinq minutes.
    Merci beaucoup, monsieur le président.
    Avant que Christopher Wylie devienne un dénonciateur, en parlant de la capacité d'influencer le résultat d'une élection ou d'un référendum, il a fait une déclaration selon laquelle nous pouvons essentiellement « déclencher les motivateurs décisionnels sous-jacents de chaque population psychographique ».
    Monsieur McKelvey, je sais que vous avez dit que vous étiez un peu sceptique au sujet de la notion de microciblage psychographique, mais les affirmations de Chris Vickery et d'autres nous permettent de comprendre que plutôt que la demi-douzaine ou la douzaine de points de données utilisée par un grand nombre d'annonceurs pour cibler des réponses lorsqu'ils examinent l'historique du navigateur Internet d'un utilisateur, Cambridge Analytica, dans ce cas-ci — et au bout du compte, AggregatelQ à Victoria —, travaillait avec 500 points de données sur des individus pour exploiter leur vulnérabilité, par exemple leurs préférences sexuelles, leurs craintes ou leurs anxiétés.
    Rejetez-vous complètement la notion de microciblage psychographique? Dans le cas contraire, croyez-vous qu'on devrait établir une limite sur la quantité de données qui peut être utilisée pour la publicité ciblée?
(1215)
    Une partie de ma recherche est historique. Dans les années 1980, la Claritas Corporation a utilisé la géodémographie et la psychodémographie. Dans un sens, je crois que l'une des deux choses suivantes peut être vraie. Soit la psychodémographie est une chose relativement nouvelle — on commence à en parler dans la documentation dans les années 1980 —, soit c'est un mythe avec lequel l'industrie de la publicité tente de vendre ses produits depuis 30 ans. Je crois à la seconde hypothèse.
    Je crois que c'est une bonne façon de vendre ses catégories. Je pense que c'est là que j'ai... En fait, je ne suis pas convaincu que cela fonctionne. Je ne suis pas convaincu qu'on ait besoin de recueillir tous ces renseignements. Je ne suis pas convaincu que la psychodémographie soit très efficace. En particulier, je crois également que lorsqu'on examine les campagnes qui disposent de ressources limitées, on se rend compte qu'on n'écrit pas des publicités pour 500 différentes catégories dans ce type de campagne.
    L'intelligence artificielle menace peut-être de changer cela, mais je crois qu'en ce moment, si on a tendance à penser que cela ne fonctionne pas et que ce n'est probablement pas très efficace, pourquoi permet-on la collecte de toutes ces données? Des recherches démontrent que trois ou quatre différentes variables peuvent prédire efficacement l'intention des électeurs. Selon moi, je crois qu'il s'agit de savoir pourquoi nous permettons la collecte de toutes ces autres données si elles offrent seulement un avantage limité.
    Je ne suis pas contre l'idée qu'une telle méthode puisse fonctionner, mais je ne suis pas convaincu de la réalité de ses prouesses alléguées.
    Allez-y, monsieur Owen.
    Je ne crois pas que nous devrions modifier la réglementation en nous fondant sur la question de savoir si les allégations d'une société qui a fait une certaine chose en utilisant une certaine base de données à un certain moment sont vraies ou non.
    Je crois que certains principes, par exemple le consentement et le fait d'être informé, deux choses mentionnées par Ben, représentent des protections contre la possibilité de ce type de mauvaise utilisation. Si nous consentons régulièrement à l'utilisation, au partage et à l'intégration de nos données personnelles — si nous avons droit à ce consentement — et si nous avons le droit de savoir comment ces données sont utilisées, que ce soit pour établir des profils psychographiques, pour mener une campagne de microciblage dirigée par une intelligence artificielle ou pour d'autres raisons, cela nous protège et nous immunise contre le risque potentiel posé par ces technologies à l'avenir, et non contre la façon dont elles ont été utilisées à un certain moment par un certain groupe.
    Selon moi, ce qu'il faut retenir du cas de Cambridge Analytica, ce n'est pas le fait que Cambridge Analytica possédait une certaine technique de manipulation psychographique, mais le fait que cette société utilisait essentiellement les mêmes outils de microciblage que Facebook met à la disposition de tous. La société a surévalué cela énormément dans son matériel promotionnel, mais je crois que le microciblage qui sert à trouver des audiences qui réagissent à certains messages est efficace. Facebook réalise des revenus de 40 milliards de dollars pour une raison. Je ne crois pas qu'on doit imaginer une nouvelle façon percutante de faire cela et de l'appeler Cambridge Analytica pour que ce soit important. Je crois que le ciblage fondé sur les données est la stratégie utilisée dans le milieu de la publicité aujourd'hui, et que nous devrions réglementer ses fondements, plutôt que ses ramifications sophistiquées.
    En l'absence de réglementation, et dans le contexte nord-américain ou canadien, on reconnaît que la personne est propriétaire de ses données personnelles. Vous avez tous mentionné la nécessité de sensibiliser les utilisateurs.
    Lorsque je m'adresse aux élèves du secondaire, ils prennent presque à la légère les recommandations les encourageant à faire preuve de prudence lorsqu'ils participent à des sondages ou qu'ils jouent à des jeux en ligne ou celles les encourageant à protéger leur historique de navigation. Est-ce que l'un d'entre vous recommanderait que les sociétés de médias sociaux mettent de côté des grosses sommes d'argent, pas pour fournir elles-mêmes des services de sensibilisation, mais pour que des tierces parties ou des groupes indépendants sensibilisent davantage les utilisateurs de médias sociaux, dès la première année d'école et pendant le reste de leur vie?
    Je reconnais l'importance extrême des campagnes pour une meilleure maîtrise du numérique, mais seulement à l'échelle voulue. Qui les financerait à cette échelle? On pourrait inciter les fournisseurs de plateformes à y investir. Le gouvernement peut vraiment y jouer un rôle aussi, dans une vaste campagne qui ne serait pas seulement destinée à distinguer le manifestement vrai du manifestement faux, auxquels l'utilisateur est très rarement exposé. Il faut plutôt qu'il comprenne le système qu'il fréquente, pourquoi il reçoit tels contenus, de quelles données on se sert à son sujet et comment elles façonnent ces contenus. L'intégration de ce genre de renseignement dans nos campagnes menées à l'échelle voulue permettrait des progrès.
(1220)
    Merci.
    Madame Fortier, vous disposez de cinq minutes.
    Frank me remplace.
    Allez-y, monsieur Baylis.
    La minuterie, s'il vous plaît.
    Revenons aux notions de nouvelles, d'information et de données. Nous nous sommes toujours posé cette simple question: qui vend les nouvelles qu'on consomme? Nous en avons toujours acheté. Si l'Internet disparaissait, il nous resterait, disons, Fox et CNN à la télévision. Vous avez, monsieur Scott, la liste de magazines dont vous parliez. Moi, j'allume la télévision et je sais que pour entendre telle sorte de reportage sur tel président, on va sur CNN; pour un point de vue différent, c'est Fox. Rien à voir avec l'Internet, mais je fais un choix de consommateur quand j'achète mes nouvelles. Mais vous dites que je peux les acheter sur l'Internet avec mes globes oculaires.
    Beaucoup de fournisseurs me les feront voir gratuitement si j'écoute seulement leurs publicités ou si je reste un certain temps sur leurs sites. Tantôt aussi, ils m'inviteront à m'abonner si je tiens à consulter, par exemple, le New York Times ou le Wall Street Journal.
    Dans ce contexte, une autre notion, le filtrage, nous donne du souci. Les filtres, avant, étaient le directeur de la publication, l'éditeur et, en fin de compte, le propriétaire du journal. Tous les politiques comme moi devaient, soyons francs, les caresser pour qu'ils écrivent quelque gentillesse sur nous. C'est la réalité des choses. Ils ont perdu beaucoup de pouvoir.
    L'Internet nous a apporté de belles et grandes choses. Twitter nous a permis de converser directement avec nos électeurs, sans filtres. Comme vous l'avez dit, monsieur Scott, il n'y a pas que du bon dans tout ça.
    La transparence dont vous avez parlé est-elle l'enjeu? Nous achèterons toujours des nouvelles. Nous fréquenterons toujours une source qui pourra nous faire entendre ce que nous voulons. Pour consommer des nouvelles, écrites, télévisées et maintenant en ligne, sur Internet, quelle serait la conduite à tenir?
    Vous le premier, monsieur Scott.
    Je pense que la transparence n'est qu'une partie du problème.
    Je suis un fervent partisan de la décentralisation des communications, favorisons plus de voix, plus de journalistes, plus de reportages. La perte de rentabilité de ce secteur pose un gros problème, qu'il faut considérer, pour le résoudre, comme systémique du marché.
    Ensuite, il faut se dire que le consommateur se trouve à entamer un long processus d'apprentissage de la façon de consommer l'information sur l'Internet, tout comme il lui a fallu des décennies pour apprendre à consommer celle qui était diffusée. Un débat semblable a marqué les débuts de la radio. On accusait la radiodiffusion, complètement différente des journaux, de tromper tout le monde; les propos entendus à la radio, d'être facile à gober. On s'en inquiétait terriblement.
    Maintenant, comme vous l'avez clairement démontré, nous savons tous discerner ce que nous recherchons dans la diffusion. La même évolution arrivera dans les médias numériques. La différence se situe entre le choix actif des nouvelles, comme sur CNN ou Fox, et se les faire servir par Facebook.
    Dans mon compte Facebook, 10 000 nouvelles attendent, mais je n'en verrai que 5 %, celles que Facebook décidera de me montrer, d'après ce qu'il pense que je veux voir, non ce que je choisis.
    C'est peut-être un service auquel je suis disposé à m'abonner, mais il me faut comprendre beaucoup mieux les raisons d'être de cette situation, obtenir ce que Facebook a décidé de me fournir. Actuellement, l'explication nous échappe. Voilà pourquoi on est si vulnérable à la désinformation.
    Quelle serait l'unique chose que vous feriez pour nous les faire connaître?
    Je pense que c'est la transparence de l'algorithme, une augmentation du journalisme de qualité et une meilleure connaissance du numérique. Sinon, le changement sera minime.
    Puis-je apporter une précision sur le journalisme de qualité en question?
    Allez-y.
    Le journalisme que nous avons connu a vu sa viabilité financière s'effondrer parce que les revenus publicitaires dont il dépendait sont taris. C'est la réalité. Si, depuis, était apparu un écosystème numérique fécond d'entreprises journalistiques jeunes et dynamiques, plus douées que leurs prédécesseurs, nous n'aurions pas de problème. Mais ce n'est pas ce qui est arrivé, du moins au Canada, pas encore.
    Pour créer et favoriser cet écosystème, nous avons besoin de politiques qui favorisent l'éclosion de cette production journalistique. Peut-être, nous accommodons-nous de la quantité de journalisme qui se pratique maintenant, que produit notre démocratie, mais nous ne le devrions pas. Par exemple, les revenus totaux de la centaine de journaux qui subsistent au Canada sont inférieurs à ceux de CBC/Radio-Canada. Je ne crois pas, personnellement, que ce soit le signe d'un écosystème en bonne santé. Nous pourrions discuter d'une foule de politiques sur le journalisme qui favoriseraient l'éclosion de cet écosystème.
(1225)
    Monsieur Masse, vous disposez de trois minutes.
    Nous avons du temps, par la suite, pour d'autres questions du groupe. Nous disposons des témoins jusqu'à 13 heures. Faites-moi signe si vous avez une question.
    Quelle serait une solution rapide, si elle existe, avant les prochaines élections? Nous n'avons pas beaucoup de temps.
    Quelles devraient être les conséquences pour ceux qui enfreignent nos règles? Devraient-elles être très punitives ou s'inspirer de la carotte ou du bâton?
    J'ai une opinion. Vous pouvez prendre dès maintenant quatre mesures, d'ici la fin de l'année, pour vous préparer à 2019.
    D'abord, des mesures rigoureuses, imposées par la loi à tous les fournisseurs de plateformes, pour favoriser la transparence de la publicité politique.
    Ensuite, augmentation du financement et de la coordination des organismes de surveillance et de dénonciation de l'ingérence étrangère derrière les campagnes de désinformation.
    Puis mise en place rapide d'un processus permettant la suppression des contenus illégaux, assorti de toutes les mises en garde convenables sur la liberté d'expression, pour nous débarrasser de tout ce qui, en premier lieu, est indésirable.
    Enfin, éducation des jeunes électeurs à l'école. Mes enfants participent à un programme canadien génial qu'on appelle « Vote étudiant ». Il les fait participer à des simulations d'élections et il les informe sur les partis et le système politique. Il devrait comporter un volet de maîtrise du numérique.
    D'autres observations?
    Je suis absolument d'accord.
    Oui. Je pense que le mécanisme d'application de la loi agit rapidement. L'une des difficultés réside dans la mise au point de moyens, pendant les élections, pour combattre certaines de ces ingérences. C'est là qu'un code de conduite acquiert de l'importance, parce que, si, tout d'un coup, un parti profite de l'ingérence étrangère, comment les autres réagiront-ils? Je pense que c'est une question difficile sur la conduite de nos élections.
    Ce type de mécanisme de respect de la loi — beaucoup de publicités sont illégales, à mon avis — favorise plus de transparence, que ce soit sur le plan de la modération des contenus, comme il en a été question, ou celui des marchés publicitaires.
    Il y a une raison pour laquelle le règlement général sur la protection des données fixe les peines d'après les revenus mondiaux et non d'après les revenus locaux, parce que, sinon, ça inciterait très peu à modifier les structures. Je pense que c'est un signal pour le genre de peine à appliquer pour faire respecter la loi.
    Il reste 30 secondes.
    Allez-y, monsieur McKelvey.
    Je tiens aussi à ajouter l'élargissement de la portée de nos mesures sur la publicité en ligne. Nous avons surtout parlé de publicité programmatique. C'est quand on fait intervenir des robots, du contenu sponsorisé et le marketing au moyen d'influenceurs, toutes des zones grises des contenus promotionnels qu'on trouve sur les médias sociaux. Nous devons désormais reconnaître la portée et l'ubiquité de la publicité d'aujourd'hui.
    Merci, monsieur le président.
    Merci à tous.
    Nous avons encore du temps. Y a-t-il d'autres questions?
    La parole est d'abord à M. Erskine-Smith, qui dispose de cinq minutes.
    Reprenons sur la transparence. Il est logique que la publicité politique ne soit pas traitée différemment des autres publicités. Attendez un peu avant de répondre, parce qu'il y a autre chose. Songez à la collecte et à l'utilisation des données et aux modalités de l'éventuel assujettissement des partis ou des activités politiques à des règles différentes ou aux mêmes règles. Il serait génial que vous communiquiez à notre comité les idées qui vous viendront.
    Venons-en au maintien de l'ordre sur le contenu d'Internet, parce que MM. Owen et Scott ont abordé la question dans leurs mémoires. Vous avez laissé entendre que les grandes plateformes ont la capacité et les ressources pour faire le travail.
    Comment fixer une règle qui exige de certaines organisations seulement le maintien de l'ordre dans les contenus, si les petites organisations de taille n'ont pas la capacité et les ressources voulues?
(1230)
    Deux ou trois modèles s'offrent à nous. Je décrirai le modèle allemand et je vous dirai en quoi il a bien et mal fonctionné.
    Les Allemands ont fixé la barre, je pense, à un million d'abonnés allemands au service, ce qui a essentiellement réduit le nombre de compagnies à trois — Google, Facebook, et Twitter — à qui ils ont dit: « Vous disposez de 24 heures pour supprimer le contenu illégal, à compter du moment où vous êtes avertis de son existence ».
    Le problème est que, ainsi, ils imposaient toute la responsabilité aux compagnies. Ils leur ont donné le pouvoir de décision sur ce qui était légal et illégal, sans droit d'appel.
    L'avantage était que les ressources et les capacités techniques des compagnies permettaient de trouver rapidement non seulement les contenus qui suscitaient des plaintes, mais aussi tous les contenus analogues et toutes les copies de ces contenus, partout dans le réseau, pour l'en débarrasser rapidement, en grande partie comme contre les infractions au droit d'auteur ou d'autres formes de fraude ou d'autres contenus illégaux. C'est ainsi que fonctionne aussi la lutte antiterroriste.
    D'après moi, le problème est que nous avons besoin d'un contrôle judiciaire plus régulier. Les procureurs qui, normalement, intenteraient des poursuites contre une affaire de ce genre par la procédure habituelle devraient participer à la surveillance, pour que, quand l'algorithme annonce l'existence de milliers de discours haineux sur le réseau, on examine en commun tout ce contenu pour s'assurer qu'il respecte une norme pour la liberté d'expression — légale ou illégale — qui soit d'intérêt public ou qu'il passe par un processus d'appel et une révision judiciaire régulière.
    Pourquoi ne pas retourner le processus? À Toronto, quand on reçoit un procès-verbal pour stationnement interdit, le système administratif prévoit une amende de 50 $ à moins qu'on puisse s'expliquer. Si je publie un message haineux sur Internet, une partie du problème avec votre système, actuellement, est que la réponse se trouve dans le Code criminel, n'est-ce pas? Vous ne pouvez pas vraiment me pénaliser, moi qui ai publié ce message, et vous ne pouvez certainement pas imposer à la plateforme l'obligation, en ce moment, de le supprimer ou de payer une amende si ses responsables n'agissent pas.
    Pourquoi ne pas taxer les gros joueurs et créer un système administratif public d'abord capable de suppression rapide, plutôt que d'obliger ces compagnies à s'autodiscipliner?
    En théorie, rien n'empêche de le faire. Dans la pratique, l'administration de ce système technique n'est pas simple et elle exige l'accès aux infrastructures de ces compagnies, ce qu'elles ne sont pas susceptibles d'accorder.
    C'est certainement un sujet à discuter pour la recherche d'une solution à long terme, mais, à court terme, si nous avons besoin, par exemple, de supprimer à la hâte un discours délibérément haineux, d'ici octobre 2019 ainsi que le contenu illégal d'Internet, il faut un mécanisme plus direct.
    À court terme, ça signifie peut-être que les plateformes suppriment elles-mêmes le message.
    Pour leur réglementation, le Royaume-Uni, récemment, a recommandé l'instauration d'une catégorie assujettie. Actuellement, le CRTC réglemente les éditeurs et les diffuseurs, mais nous ne réglementons pas les plateformes qui prétendent n'être ni l'un ni l'autre.
    Est-ce que l'organisme de réglementation de ces plateformes, quel que soit le niveau où nous fixions la barre, est le CRTC? Est-ce le commissaire à la protection de la vie privée? À qui devrions-nous confier cette réglementation?
    Je pense que M. McKelvey est peut-être le mieux placé pour répondre.
    Actuellement, je travaille avec Chris Tenove et Heidi Tworek, à un rapport sur la modération des contenus. D'abord, la réglementation de ces plateformes relèvera de plusieurs compétences, ce qui n'est pas un problème. Ce partage des compétences existe aussi en télédiffusion et dans les télécommunications.
    Ces plateformes relèveraient-elles du commissaire à la protection de la vie privée ou du CRTC? D'après moi, elles fonctionnent parfois précisément comme des diffuseurs et elles entrent dans une nouvelle catégorie à qui se pose le problème de modération des contenus. Il importe de reconnaître qu'elles relèvent des compétences actuelles et qu'elles ont besoin d'être tenues responsables de ce en quoi leurs activités correspondent à ces compétences, mais il faut aussi reconnaître que le législateur ne s'est pas vraiment sérieusement intéressé à la question de la modération des contenus. Nous possédons une mosaïque de lois sur les discours haineux et la pornographie rancunière.
    Mes coauteurs et moi recommandons notamment la création d'un conseil des normes pour les médias sociaux ou pour la modération des contenus, qui ressemblerait à un conseil des normes de radiodiffusion. Ce dernier conseil ressemble beaucoup à ce qui a été réclamé et à ce dont nous avons besoin en matière de modération des contenus. Il prévoit en effet un processus d'appel et il assure la transparence et la divulgation. Je dois concéder que ça relève davantage de l'autoréglementation de l'industrie. C'est une critique, mais c'est aussi une étape importante pour faire converger l'intérêt vers cette activité particulière qu'est la modération des contenus, à laquelle la loi n'a pas encore bien reconnu toute son importance.
(1235)
    Mais nous imposons...
    Un instant. Votre temps est écoulé.
     Mon temps est écoulé. Pas de problème.
    Monsieur Baylis, vous avez cinq minutes.
    Un instant. Il y a d'autres intervenants dans la liste avant Mme Vandenbeld. On vient juste d'ajouter son nom à la fin.
    Je vais lui céder ma place, car j'ai déjà pris la parole, et je vais prendre la sienne. Si je n'ai pas le temps de reprendre la parole, cela ne fait rien, monsieur le président. Merci.
    Très bien.
    En fait, je veux creuser un peu plus l'idée précédente. C'est une chose de modérer le contenu quand il s'agit clairement d'un discours haineux ou de propos misogynes, mais ce dont vous parlez aujourd'hui, ce sont des algorithmes et du fait que la plateforme toxique va donner la priorité aux discours qu'on ne peut qualifier de haineux, mais qui sont tout de même racistes ou porteurs de messages sexistes.
    Dans le cas de la télévision, par exemple, et c'est là où se trouve la différence, quand on diffuse une publicité, tout le monde voit la même publicité. Il faut bien sûr que le contenu soit modéré pour être considéré comme acceptable par le plus grand nombre, mais c'est différent de quelqu'un qui reçoit, par exemple, un message qui a des relents de misogynie, et quand il clique, il voit apparaître « Si vous recevez ce message, c'est parce que vous êtes un homme blanc entre 20 et 25 ans et que vous venez de rompre avec votre petite amie ».
    Si la personne le sait, elle y réfléchira à deux fois et se posera la question: « Comment se fait-il que je reçoive ce message? »
    Est-ce bien ce dont on parle? Je pose la question, car il s'agit de deux choses différentes. Il y a le discours haineux à proprement parler, puis il y a le fait que des messages ciblent des gens, ce qui est beaucoup plus difficile à réglementer.
    Il y a une distinction à faire entre le discours haineux, qui est sanctionné par le Code criminel, et le discours toxique, qui est, je pense, de plus en plus préoccupant. Il ne faut pas confondre les deux. J'ai grandi en ligne et, pour avoir parlé à mes homologues féminines, je pense que le nombre d'agressions inquiète. C'est tout particulièrement vrai chez les politiciennes. Pensez à tous les propos vitrioliques qu'on entend. Je pense qu'il y a une façon de s'en occuper, différente du discours haineux, tant pour ce qui est des craintes que des tactiques.
    Cela fait partie de la modération du contenu, et on le voit déjà sur les plateformes de médias sociaux. Les plateformes prennent déjà des décisions au sujet du contenu accessible. Ceux qui affichent des messages en ligne sur Instagram se demandent déjà quelles parties de leur corps ils peuvent montrer, pour respecter la charte de modération de la plateforme.
    Le point important ici concerne les recommandations, soit les façons utilisées par les plateformes pour faire des recommandations sur le contenu que vous voyez. On parle souvent d'une bulle de filtres, c'est-à-dire qu'on filtre le contenu qui apparaît à votre écran. Je pense que ce qui inquiète, ce sont moins les bulles de filtres que, dans le cas de YouTube, l'optimisation de la participation, et dans le cas de Facebook, des interactions sociales importantes.
    C'est le genre de logique derrière la recommandation du contenu qui pourrait engendrer, pour reprendre les mots de Taylor Owen, des facteurs externes négatifs. Il faut qu'il y ait plus de transparence sur les conséquences des recommandations, et des façons d'imposer des limites au contenu qui peut être recommandé. Je pense que la création d'un conseil de normalisation pourrait être une des solutions possibles. Je pense qu'on pourrait agir également du côté de l'application de la loi, lorsqu'on s'efforce de faire taire rapidement les discours haineux.
     Monsieur Owen, aimeriez-vous répondre?
    Au sujet de la modération du contenu dans son ensemble, il y a, de toute évidence, une vaste gamme de discours toxiques et maintes façons de remédier aux différents problèmes qui en font partie — discours haineux, pornographie juvénile, activité criminelle à un extrême, et simples points de vue politiques avec lesquels on n'est pas d'accord à l'autre extrême. Il y a différentes solutions à différents problèmes, et c'est très bien.
    Il faut aussi se rappeler que notre façon de réglementer le discours s'inscrit dans un contexte national, et c'est normal. On sait ce qui se passe autrement. S'il n'y a pas de lignes directrices, de règlements ou d'incitatifs nationaux qui régissent le discours, c'est l'interprétation des conditions d'utilisation d'une entreprise mondiale qui s'applique par défaut. Les conditions d'utilisation de Twitter sont différentes de celles de Facebook, et celles de Google/YouTube sont différentes des deux autres. On sait, par exemple, que les conditions d'utilisation de Twitter sont très axées sur la liberté d'expression. Jusqu'à tout récemment, il n'y avait à peu près pas d'interdits. Twitter favorisait la participation à la limitation du discours. Il s'agissait d'une décision d'entreprise qui a eu des conséquences différentes dans différents pays.
    Au Canada, nous avons criminalisé le discours haineux. Lorsque nous l'avons fait, les partisans de la liberté d'expression aux États-Unis ont été nombreux à témoigner leur opposition, en disant que le Canada limitait trop la liberté d'expression. En tant que démocratie, toutefois, nous avons fait ce choix et nous avons bâti une infrastructure pour faire appliquer la décision.
    Les questions qui se posent maintenant pour nous au Canada — et qui sont différentes de celles qui se posent pour les Allemands, par exemple, qui ont d'autres normes pour des raisons historiques —, c'est de savoir comment appliquer nos normes actuelles sur le discours haineux aux plateformes, et si nous allons étendre les dispositions à d'autres types de contenu qui, selon nous, ont des répercussions négatives sur la société qui vont au-delà des dispositions originales. Ce sont deux questions distinctes, à mon avis.
(1240)
    Merci, monsieur Owen.
    Nous passons maintenant à monsieur Brian Masse pour les cinq prochaines minutes.
    Merci, monsieur le président.
    Un des exposés que j'ai trouvé intéressants est celui qui portait sur la réglementation des robots et de l'intelligence artificielle, même si on n'est pas entré dans les détails. Serait-il utile pour le Canada de créer une sorte de cadre réglementaire pour régir l'utilisation des robots pour la publicité et la diffusion du contenu? Je lance simplement l'idée de ce que nous ferions ici. De plus, devrait-on envisager d'intégrer cela dans nos accords commerciaux?
    J'ai travaillé sur le projet de loi antipourriel. La loi est loin d'être parfaite, comme vous le savez, mais le volume d'information, son utilisation et les répercussions des logiciels malveillants, etc. sont importants sur l'économie, sans parler des irritations qu'ils créent.
    Nous allons commencer par monsieur McKelvey. Pourriez-vous nous parler des robots et nous dire si nous devrions les régir au pays, et peut-être sur la scène internationale?
    Je pense que M. Owen a bien résumé la question. Nous avons besoin de transparence. Il faut s'assurer que si on utilise un robot, qu'on en soit informé et que ce soit transparent.
    Je pense en fait qu'on peut comparer cela au registre de communication avec les électeurs, le RCE. Je ne sais pas si cela pourrait s'appliquer aux robots... Je ne pense pas que cela devrait s'appliquer à chaque robot séparément, mais les entreprises qui font de l'amplification à grande échelle sur les médias sociaux pourraient y être assujetties.
    À bien des égards, le robot est un coût de placement. Si une entreprise paie pour qu'un robot amplifie son message, il y a des façons de clarifier le tout. Il faut que cela soit considéré comme de la publicité et annoncé comme tel. Cela aiderait beaucoup. Je pense que si on cible ce type particulier de robot, que j'appellerais, tout comme Elizabeth Dubois, un robot d'amplification, c'est parce que cela constitue un problème. Il s'agit d'un robot qui ajoute de la crédibilité à quelque chose en lui donnant un petit côté « naturel ». Si on considère que c'est de la publicité, on ferait un grand pas pour normaliser cela dans le système de publicité.
    J'ajouterais brièvement que la question des robots n'est, bien souvent, que la pointe de l'iceberg dans une conversation beaucoup plus vaste à laquelle vous avez fait allusion, soit la gouvernance de l'intelligence artificielle. La question dont nous discutons aujourd'hui, l'information dans notre démocratie, s'inscrit dans un débat beaucoup plus large sur la façon de régir les éléments automatisés dans notre société, que cela concerne les agents, les organismes de publicité, les fournisseurs de soins médicaux, ou qui que ce soit d'autres.
    Il faut que nous ayons un débat sur le consentement et l'accès aux données des systèmes qui utilisent nos données, et sur l'utilisation qu'on en fait, et le débat doit dépasser nos frontières. En fait, le débat prend de plus en plus la forme d'un débat mondial sur la réglementation.
    Cela fait partie intégrante du débat actuel.
(1245)
    J'aimerais ajouter que le gouvernement fédéral examine actuellement sa façon de régir sa propre utilisation de l'intelligence artificielle. Le Conseil du Trésor évalue les répercussions de l'intelligence artificielle. Comment l'intelligence artificielle est-elle déployée dans la fonction publique? On est en train de mettre en place un processus d'examen.
    Cela montre bien que le gouvernement pourrait être un chef de file dans la gouvernance de l'intelligence artificielle. Il faut donc que le déploiement se fasse de manière transparente et qu'on prenne en compte les risques d'une utilisation potentielle de ces technologies à des fins politiques. On fait actuellement un travail très important, à mon avis.
    Merci, monsieur le président.
    Merci.
     Monsieur Picard, c'est à vous. Vous avez cinq minutes.
    Merci.
    Nous avons un journaliste qui prend son travail très au sérieux et qui donne de la crédibilité au journal pour qui il travaille. Mais voici, nous avons quelqu'un qui ne peut pas parler de mon collègue du NPD parce que quelqu'un d'autre a décidé d'empêcher ses lecteurs de savoir ce qui se passe dans sa circonscription. Quand je regarde les nouvelles à la télévision, en particulier les chaînes américaines, qui semblent des chaînes très sérieuses, j'ai l'impression, selon celle que je regarde, qu'il existe deux pays différents aux États-Unis.
    Il y a un instant, vous avez parlé de la confiance et des sources d'information auxquelles on peut avoir accès. À quoi faisiez-vous allusion, en espérant que la confiance soit une notion possible?
    La confiance est un concept difficile dans le domaine du journalisme. Je peux faire confiance à Fox News et vous à MSNBC, et nous pouvons tous les deux avoir pleinement confiance au journalisme que nous consommons, alors je ne pense pas que ce soit là un paramètre de base.
    Comme société, on peut se demander si le niveau de confiance et d'exactitude de l'information qui circule dans la sphère publique est suffisant. C'est la question dont il faut débattre. Il ne faut pas demander aux gens individuellement s'ils se fient à leur source d'information, mais si comme société, dans notre démocratie, nous avons accès à des renseignements fiables.
    Allez-y, monsieur.
    C'est curieux d'entendre cela pour moi, qui enseigne en communications et médias. Je critique depuis longtemps, comme beaucoup de gens, les effets du contrôle des médias et le déclin des médias à but lucratif. Ce n'est pas quelque chose que les gens tiennent en haute estime.
    Je pense que le problème vient du fait, en un sens, qu'on voyait ces contrôleurs comme des gens qu'on connaissait. C'est ainsi que le système fonctionnait. Le problème, c'est qu'on ne sait pas comment le système fonctionne. On ne sait pas comment travaillent les influenceurs. L'iniquité dans l'information constitue un pouvoir stratégique.
    Une chose qu'il faut dire, c'est qu'il faut mettre diverses solutions de l'avant. Au Canada, nous avons dit avoir une politique culturelle proactive et agir comme pourvoyeur d'information pour le bien de la population. Quand on parle de confiance à l'égard des médias, on peut dire que la radiodiffusion publique a été vraiment efficace pour élever la barre, pour freiner les campagnes d'information trompeuse ou de désinformation, et pour diffuser de l'information de qualité. Il m'apparaît très clairement que la radiodiffusion publique sert l'intérêt public, et c'est encore plus vrai aujourd'hui. C'est unique, et cela doit continuer de faire partie de la solution optimale que le Canada apportera aux problèmes soulevés.
    Malheureusement, Facebook n'est pas la propriété de Radio-Canada, alors il n'y a pas de médium public comme Radio-Canada qui diffuse de l'information sur Facebook, Internet, ou tout autre média. Donc, peu importe les sources disponibles, si on se fie à ce qu'on reçoit sur sa page Facebook, il y a une quantité phénoménale d'information bizarre. Le gouvernement ne peut pas réglementer la paresse. Si je ne contre-vérifie pas l'information que je reçois, comme l'a mentionné M. Scott, je vais lire l'information que je trouve sur Facebook et penser que le monde ressemble à ce que Facebook en dit.
    C'est une question d'intérêts. Ce qui est important pour moi, c'est d'être en mesure de savoir quels intérêts se cachent derrière l'information, et donc de pouvoir contre-vérifier l'information avec d'autres sources et de pouvoir ainsi me faire ma propre idée. Est-ce la responsabilité du lecteur et là où s'arrête l'intervention du gouvernement?
    Je dis à la blague que Radio-Canada devrait acheter Reddit, notamment parce qu'il nous a fallu environ 10 ans pour prendre conscience de l'intérêt de la radiodiffusion publique à l'ère des médias sociaux. Je pense que nous avons encore aujourd'hui une idée très limitée du potentiel que recèlent les médias sociaux, et je pense qu'il y a encore place à l'imagination et à l'ouverture d'esprit.
    Je pense en outre qu'un des avantages de faire de l'information un bien public qu'on distribue gratuitement, c'est qu'on alimente ainsi les différentes plateformes avec de la bonne information qui se propage.
    On peut parler de la concentration dans les réseaux sociaux ou l'environnement publicitaire, mais si on parle uniquement de l'accès à l'information, la radiodiffusion publique joue un rôle important dans ce domaine.
(1250)
    Monsieur Scott, monsieur Owen, aimeriez-vous intervenir?
    Notre but ici n'est pas de supprimer les partis pris ou le sensationalisme ou le non-sens dans les médias. Ils en ont toujours et en feront toujours partie. Notre but est de les contenir afin que la majorité des gens puissent la plupart du temps asseoir leurs opinions politiques sur des faits et avoir un point de vue rationnel sur leur société.
    Comment y parvenir? Les choses ont changé. Quand on assiste à un profond virage dans les principaux moyens de diffusion de l'information, on doit se donner un nouvel ensemble de normes pour atteindre la majorité des gens la plupart du temps. Pour y parvenir dans le domaine de la radiodiffusion, nous avons investi massivement dans les médias publics, et nous nous en sommes remis aux normes journalistiques dans le marché des journaux. Aujourd'hui, on assiste à un changement monstre, le plus important dans l'information publique que nous ayons connu depuis l'avènement de la presse à imprimer, et nous cherchons à mettre en place les normes appropriées pour contrôler l'offre: en utilisant la politique sur la confidentialité pour limiter les bulles de filtres, en utilisant la politique sur la concurrence pour favoriser l'entrée de nouveaux fournisseurs sur le marché, et en investissant dans la numérisation des médias publics.
    On travaille également sur la demande, en aidant les consommateurs à comprendre que la consommation passive...
    Monsieur Scott, je n'aime pas vous interrompre, mais nous devons passer au prochain intervenant.
    Il nous reste du temps pour deux questions.
    Nous avons d'abord monsieur Saini, puis monsieur Kent, et nous aurons ensuite terminé. Désolé.
    Monsieur McKelvey, dans un de vos écrits parus il y a quelque temps, vous parliez de trois sujets: la découvrabilité, les tendances et la publicité.
    Je vais me concentrer sur la découvrabilité, qui consiste à mon avis à faire quelque chose indirectement que l'on peut faire directement avec la publicité. Vous avez un problème, et les utilisateurs ou les entreprises qui gèrent les plateformes le font ressortir, puis les algorithmes le portent en haut de la liste. Ensuite, si quelqu'un qui n'est pas au courant fait une recherche sur un sujet, sur un candidat, ou une position particulière, et qu'il google le nom, l'information négative ou la plus croustillante apparaîtra.
    Vous avez écrit sur le sujet. Que peut-on faire pour empêcher cela? Je pense que cela peut se faire indirectement. Quand on fait de la publicité, on le fait directement, mais cette façon est une façon indirecte d'amener un élément à l'avant-plan. Les algorithmes semblent plus insidieux que la publicité.
    Je pense que la découvrabilité est un thème vraiment important, alors merci d'en avoir parlé. Pour moi, cela signifie ce qui se présente lorsqu'on cherche quelque chose. J'aimerais attirer votre attention sur une partie des travaux de recherche que j'ai menés à l'Algorithmic Media Observatory. Nous nous sommes penchés sur la découvrabilité de l'information de nature politique pendant les élections en Ontario pour voir le fonctionnement du système de recommandation. La SRC a aussi mené une étude semblable dont elle a fait état.
    Je pense qu'au départ, il faut regarder ce qui compte. À quoi servent ces systèmes de classement de l'information? Je pense que nous essayons toujours de trouver des intentions, alors il est question d'engagement ou d'interactions sociales significatives. Je pense que ce sont des points auxquels il faut s'attarder. On peut rendre un jugement explicite, et je pense qu'il revient au gouvernement de formuler de bonnes recommandations ou de bonnes politiques culturelles pour d'autres types de découvrabilité comme norme gouvernementale.
    Je pense que c'est aussi une question d'essayer de reconnaître... Je m'arrête au rapport de données dans la société, qui vient de sortir et aux discussions concernant les réseaux d'influence. Je pense qu'il est important de dire que la découvrabilité se traduit par un système qui fonctionne, mais que nous ne savons pas nécessairement comment. Il est clair que, par l'intermédiaire de la coordination, on peut influencer ces systèmes de découvrabilité, et je pense que c'est un point qui nous aiguille vers la recherche. Si les gens sont payés pour influencer ou modifier la découvrabilité, je pense que cela pourrait compter comme un type de publicité.
    Merci.
    Notre dernier intervenant est M. Kent.
    Merci beaucoup, monsieur le président.
    Merci à tous pour les diverses solutions que vous avez suggérées pour le côté surveillance du capitalisme de ce dont nous avons parlé aujourd'hui, mais la nature humaine étant ce qu'elle est, les gens continuent de participer avec enthousiasme à l'aspect facilitateur de relations des médias sociaux qui est, après tout, à l'origine des médias sociaux aujourd'hui.
    J'aimerais revenir à l'ingérence étrangère dans le processus électoral dont nous avons parlé un peu plus tôt. Je pense que c'est M. Scott qui a donné l'exemple du site d'admirateurs de Beyoncé concocté par les Russes, une bombe à retardement type cheval de Troie. Comment faites-vous pour empêcher que ce type de site explose au moment de la décision pendant des élections?
(1255)
    Je pense qu'il est très difficile de se protéger contre ce type d'attaque.
    Voici la situation actuelle. Il s'agit essentiellement d'une collaboration entre des services de sécurité, des chercheurs externes et des entreprises pour essayer de détecter à l'avance l'activité coordonnée des personnes responsables de la désinformation. Le réseau donne des signaux si on sait les repérer, et on élabore des outils et on privilégie ce qu'on appelle l'approche de l'équipe rouge, qui consiste à voir les choses du point de vue d'un acteur mal intentionné qui pourrait essayer un stratagème comme le faux site de Beyoncé. Comment s'y prendrait-on pour ce faire? Si vous y arrivez, quelles sont les façons de contrer pareille approche?
    Si on arrive à y penser dans le cadre d'un exercice d'équipe rouge imaginatif, soyez assurés que nos adversaires en font autant. On élabore donc des moyens de défense contre ces choses qu'on peut imaginer faire. Il s'agit d'un exercice qui ressemble beaucoup à ce qu'on faisait pendant la guerre froide, et c'est ce qui se passe maintenant dans le domaine de la cybersécurité.
    Vous n'arriverez pas à vous défendre contre toutes ces attaques. Vous n'arriverez qu'à n'en prévenir qu'un certain pourcentage, alors le deuxième élément est la résilience. Il vous faut mettre en place un plan pour réagir très rapidement lorsque cette bombe à retardement est déclenchée et que quelque chose d'inattendu survient soudainement. Il vous faut pouvoir réagir rapidement pour l'endiguer et dire aux personnes qui ont reçu des messages provenant de ce compte qu'elles sont entrées en communication avec un compte automatisé mal intentionné ou une campagne d'influence menée par des intérêts étrangers. Ces techniques d'intervention rapide sont aussi des choses que nous devrions perfectionner.
    Merci.
    Merci à tous d'avoir assisté à la réunion d'aujourd'hui et de nous avoir donné bien de la matière à réflexion.
    Merci aux membres du comité d'être venus aujourd'hui. Ce fut une bonne première réunion de la session. Merci encore et à bientôt. Bonne journée.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU