Passer au contenu Début du contenu

JUST Réunion de comité

Les Avis de convocation contiennent des renseignements sur le sujet, la date, l’heure et l’endroit de la réunion, ainsi qu’une liste des témoins qui doivent comparaître devant le comité. Les Témoignages sont le compte rendu transcrit, révisé et corrigé de tout ce qui a été dit pendant la séance. Les Procès-verbaux sont le compte rendu officiel des séances.

Pour faire une recherche avancée, utilisez l’outil Rechercher dans les publications.

Si vous avez des questions ou commentaires concernant l'accessibilité à cette publication, veuillez communiquer avec nous à accessible@parl.gc.ca.

Publication du jour précédent Publication du jour prochain
Passer à la navigation dans le document Passer au contenu du document






Emblème de la Chambre des communes

Comité permanent de la justice et des droits de la personne


NUMÉRO 153 
l
1re SESSION 
l
42e LÉGISLATURE 

TÉMOIGNAGES

Le jeudi 30 mai 2019

[Enregistrement électronique]

  (1530)  

[Traduction]

    Je vous souhaite la bienvenue à cette séance du Comité permanent de la justice et des droits de la personne et nous reprenons aujourd'hui notre étude de la haine en ligne.
    C'est avec grand plaisir que nous accueillons cet après-midi Mme Michele Austin, chef de Gouvernement et politique publique chez Twitter Canada.
    Nous vous sommes très reconnaissants parce que ce sont des plateformes comme Twitter qui nous permettemt d'obtenir les renseignements dont nous avons besoin pour notre étude et pour bien la faire.
    Merci d'être venue. Vous avez la parole, madame Austin.
    Monsieur le président, je vous remercie de m'avoir invitée à comparaître aujourd'hui pour parler de votre étude sur la haine en ligne.
    Au nom de Twitter, je tiens à souligner le travail considérable qu'effectuent tous les membres du Comité et les témoins sur cette question. Vous m'excuserez, mais mon allocution d'ouverture est longue. Il y a beaucoup de choses à dire. Nous sommes une société spécialisée dans les messages de 280 caractères, de sorte qu'elle ne le sera peut-être pas. Nous verrons bien comment cela se passe.
    Le but de Twitter est de servir la conversation publique. Twitter est public par défaut. Lorsqu'une personne crée un compte Twitter et commence à gazouiller, ses gazouillis sont immédiatement visibles et consultables par quiconque dans le monde entier. Les gens comprennent la nature publique de Twitter. Ils viennent sur Twitter et s'attendent à participer à des conversations publiques. Comme beaucoup d'entre vous l'ont constaté, de nombreux gazouillis sont directement cités dans les articles de presse et des captures d'écran qui sont partagés par les utilisateurs d'autres plateformes. C'est cette conversation ouverte et en temps réel qui différencie Twitter des autres sociétés Internet. Toute tentative visant à miner l'intégrité de notre service sape les principes fondamentaux de la liberté d'expression en ligne, la valeur sur laquelle notre entreprise est fondée.
    Twitter respecte les lois canadiennes et s'y conforme. Twitter ne fonctionne pas dans un monde juridique numérique à part, comme l'ont avancé certains individus et organisations. Les cadres juridiques canadiens existants s'appliquent aux espaces numériques, y compris à Twitter.
    Des témoins précédents ont réclamé de nouveaux investissements et programmes en matière de littératie numérique et médiatique. Twitter est d'accord avec cette approche et exhorte les législateurs du monde entier à investir continuellement dans la littératie numérique et médiatique. Twitter soutient des groupes qui sensibilisent les utilisateurs, et en particulier les jeunes, à la saine citoyenneté numérique, à la sécurité en ligne et à la littératie médiatique. Parmi nos partenaires canadiens, mentionnons MediaSmarts — et je signale que cette société vient de publier hier un excellent rapport sur la haine en ligne axé sur les jeunes — Get Cyber Safe, Kids Help Phone, We Matter et Jack.org.
    Quiconque désire s'exprimer sur la plateforme est le bienvenu, mais les règles de Twitter reflètent des politiques précises qui expliquent les types de contenu et de comportement interdits. Nous nous efforçons de faire respecter ces règles de manière uniforme et impartiale. La sécurité et la liberté d'expression vont de pair, tant en ligne que dans le monde réel. Si les gens ne se sentent pas en sécurité pour s'exprimer, ils ne le feront pas.
    Nous pensons toujours en premier aux gens qui utilisent notre service lorsque nous prenons une mesure. Toutes les personnes qui accèdent aux services de Twitter ou les utilisent doivent respecter les politiques énoncées dans les règles de Twitter. Si ce n'est pas le cas, Twitter pourrait prendre une ou plusieurs mesures d'application de ces règles, notamment, limiter temporairement la capacité de l'utilisateur concerné de créer des messages ou d'interagir avec d'autres utilisateurs de Twitter, lui demander de supprimer le contenu interdit, par exemple, en supprimant un gazouillis, avant de créer de nouveaux messages ou d'interagir avec d'autres utilisateurs de Twitter, lui demander de confirmer qu'il est bien le véritable titulaire du compte avec un numéro de téléphone ou une adresse de courriel ou le suspendre en permanence, lui et ses comptes.
    Les règles de Twitter s'appliquent notamment aux catégories suivantes: harcèlement, exploitation sexuelle des enfants, informations privées, médias sensibles, menaces violentes, conduite haineuse et terrorisme.
    J'aimerais dire quelques mots du terrorisme.
    Twitter interdit les contenus terroristes sur sa plateforme. Nous faisons partie du Forum Internet mondial de lutte contre le terrorisme, couramment appelé le GIFCT, et nous appuyons l'appel à l'action de Christchurch. La suppression des contenus terroristes et extrémistes violents est un domaine dans lequel Twitter a fait d'importants progrès: 91 % de ce que nous supprimons est détecté de façon proactive par notre technologie. Notre PDG, Jack Dorsey, a assisté à la rencontre organisée par l'Appel à l'action de Christchurch à Paris plus tôt ce mois-ci et a rencontré le premier ministre Justin Trudeau pour réitérer notre engagement à réduire les risques de diffusion en direct et à éliminer plus rapidement le contenu viral.
    En vertu de notre politique sur la conduite haineuse, il est interdit de « promouvoir la violence contre les personnes, de les attaquer directement ou de les menacer » en raison de leur inclusion dans un groupe protégé comme la race, l'ethnicité, l'origine nationale, l'orientation sexuelle, le sexe, l'identité sexuelle, l'appartenance religieuse, l'âge, le handicap ou une maladie grave. Cela comprend les neuf catégories protégées et reconnues par la Charte des droits de l'homme des Nations unies.
    Les règles Twitter interdisent également les comptes dont l'objectif principal est d'inciter à faire du tort aux autres sur la base des catégories mentionnées précédemment. Nous excluons également les personnes associées à des organisations qui — par leurs propres déclarations ou activités, sur et hors plateforme — « utilisent ou encouragent la violence contre les civils pour faire avancer leurs causes. »
    Les contenus sur Twitter sont généralement signalés aux fins d'examen en cas de violation possible des règles Twitter par notre centre d'aide qui se trouve à help.twitter.com/forms ou par la fonction de signalement de l'application. Ils peuvent également être signalés par les organismes d'application de la loi et les gouvernements. Nous avons une équipe mondiale qui gère l'application de nos règles avec une couverture 24-7 dans toutes les langues supportées par Twitter. Nous avons également établi un flux de signalements exclusivement consacré à la conduite haineuse afin qu'il soit plus facile de la signaler à nos équipes d'examen.
    Nous nous améliorons. Au cours des six derniers mois de 2018, nous avons pris des mesures d'application des règles à l'égard de plus de 612 000 comptes uniques pour la violation des catégories des règles de Twitter. Nous prenons également des mesures significatives et substantielles afin que les utilisateurs n'aient plus besoin de signaler eux-mêmes les abus.
    Ainsi, plus tôt cette année, nous avons priorisé l'adoption d'une approche proactive face au harcèlement, en plus de nous fier aux signalements des gens. Aujourd'hui, grâce à notre technologie, 38 % des contenus abusifs sont soumis de manière proactive à un examen humain au lieu d'attendre les signalements des utilisateurs de Twitter. La technologie que nous utilisons pour suivre les pourriels, la manipulation des plateformes et d'autres violations des règles nous aide à signaler les gazouillis abusifs à notre équipe chargée des examens. Comme nous mettons l'accent sur l'examen de ce type de contenu, nous avons renforcé nos équipes dans des domaines et des régions clés afin de pouvoir travailler rapidement pour assurer la sécurité des gens. Je le mentionne: nous embauchons.
    Le dernier sujet que je veux aborder est l'application de la loi. C'est par le partage de l'information et la collaboration que Twitter s'efforce de prévenir les harcèlements qui empêchent d'avoir des conversations utiles sur notre plateforme. Twitter s'emploie activement à maintenir de solides relations avec les organismes canadiens d'application de la loi. Nous entretenons des relations de travail positives avec le Centre canadien de la cybersécurité, la GRC, les organismes gouvernementaux et les services de police provinciaux et locaux.
    Nous avons un portail en ligne réservé aux organismes d'application de la loi qui leur permet de signaler les contenus illégaux comme la haine, les demandes d'urgence et les demandes d'information. J'ai travaillé avec ces organismes d'application de la loi ainsi qu'avec des organismes de la société civile pour m'assurer qu'ils savent comment utiliser ce portail.
    Twitter s'est engagé à poursuivre sur cette lancée, conformément à son objectif qui est d'améliorer de saines conversations. Nous le faisons de manière transparente et ouverte et en tenant dûment compte de la complexité de cet enjeu particulier.
    Je vous remercie de votre attention et j'attends vos questions avec impatience.

  (1535)  

    Merci.
    Nous allons commencer par M. Cooper.
    Merci, monsieur le président.
    Merci, madame Austin. Je suis heureux de vous voir.
    J'aimerais beaucoup savoir ce que vous pensez, du point de vue de Twitter, des initiatives qu'ont lancées les gouvernements européens ainsi que la Commission européenne. D'autres témoins nous en ont parlé. Par exemple, je crois savoir que Twitter est une des plateformes médiatiques qui a conclu une entente avec la Commission européenne en mai 2016 par laquelle elle s'engageait à supprimer les contenus haineux en moins de 24 heures. Personnellement, je considère qu'il s'agit là d'aspects positifs, mais cette entente suscite quelques préoccupations, notamment sur la façon dont elle est mise en oeuvre.
    J'aimerais bien savoir ce que pense Twitter de la façon dont cela a fonctionné depuis trois ans.
    Je crois que vous pensez particulièrement au contenu extrémiste violent et terroriste, ce qui fait aussi partie du GIFCT. Je crois que nous parvenons à supprimer en deux heures ces contenus.
    Comme je l'ai mentionné dans mes remarques, grâce à notre technologie, 91 % de ces contenus n'apparaissent même pas sur la plateforme. Nous connaissons mieux aujourd'hui où ce contenu est affiché et la personne qui l'affiche. Entre le moment où le message est envoyé pour qu'il s'affiche et celui où il passe dans nos serveurs, nous pouvons le baliser.
    Vous avez posé une question très intéressante et très importante parce que nous sommes très fiers du travail que nous avons fait pour ce qui est du terrorisme et des groupes extrémistes violents. Mais lorsque nous assistons à des conférences comme la Oslo Freedom Forum ou RightsCon — je ne sais pas si vous connaissez cette conférence; elle a eu lieu à Toronto il y a deux ans — nous recevons des commentaires de la part de groupes comme Amnistie internationale, qui existe au Canada, et Witness, qui ne l'est pas, qui s'inquiètent du fait que nous sommes un peu trop efficaces. Ils aimeraient voir des labels sur les vidéos. Ils veulent pouvoir suivre la conversation à mesure qu'elle se déroule pour ensuite éventuellement intenter des poursuites.
    Nous essayons de concilier les demandes du gouvernement qui veut que nous mettions un terme à ce genre de discours haineux et à ces actions terroristes, domaine dans lequel nous avons obtenu beaucoup de succès, et ce que souhaite la société civile, à savoir suivre ces conversations pour intenter des poursuites.
    Merci pour cette réponse. Pour ce qui est de la rapidité, un délai de deux heures est excellent. Sur de nombreux plans, c'est une bonne chose. Par contre, on peut dire parfois que la rapidité amène à sacrifier une réflexion approfondie dans certains cas.
    Vous avez parlé du signalement de la haine, y compris de la part des gouvernements. Comment est-ce que Twitter traite ces demandes? Comment faites-vous pour que la suppression de ce contenu et la réponse à ces demandes, en particulier celles du gouvernement, qui ont parfois d'autres buts à l'esprit, soient traitées de façon transparente et uniforme?

  (1540)  

    Je vous remercie pour votre question. C'est un aspect auquel nous réfléchissons souvent.
    La réponse comporte deux parties. La première est notre rapport sur la transparence, que je vous invite à examiner. Il est publié deux fois par an sur le site transparency.twitter.com. Nous mentionnons dans ce rapport le genre de demandes de suppression que nous présentent les gouvernements, que ce soit pour des fins d'information ou des suppressions d'urgence. Nous déclarons le nombre des demandes que nous avons traitées.
    Je pense — et il est possible que je me trompe — que, dans le rapport précédent, nous avons donné suite à 100 % des demandes émanant du gouvernement canadien, et que cela était un chiffre faible, comme 38.
    Vous pouvez utiliser cette ressource pour voir quels sont nos rapports avec les gouvernements. Bien sûr, nous sommes également régis par des ententes et des règles internationales. L'ETEJ est l'entente d'application de la loi qui précise la façon dont nous travaillons avec d'autres gouvernements, par l'intermédiaire de Homeland Security aux États-Unis.
    Enfin, pour ce qui est de l'application de la loi, nous travaillons constamment avec ces services. J'étais au quartier général de la GRC hier pour leur demander si cet organisme obtenaitde nous les renseignements dont il avait besoin, si nos signalements étaient utiles et suffisants dans des cas d'exploitation sexuelle des enfants notamment et s'ils avaient suffisamment d'éléments pour intenter des poursuites et aussi s'ils comprenaient les limites de notre action et comment nous examinions et évaluions les signalements.
    Je vais renoncer au reste de mon temps de parole pour le donner à M. Barrett.
    Monsieur Barrett, vous avez une minute et demie.
    En ce qui concerne Twitter en particulier, j'aimerais savoir quelle importance cette société accorde à la suppression de la capacité des utilisateurs d'utiliser la plateforme de façon anonyme, ou à cette question? Bien souvent, nous avons tous observé du contenu haineux et, nous en avons été également les destinataires, à des degrés divers. Je dirais que pratiquement tous ceux qui naviguent sur cette plateforme entendent des choses que personne ne dirait à quelqu'un si leur nom était joint à leur discours. Cela recouvre tout l'éventail des interventions, qu'il s'agisse d'activités illégales ou tout simplement de la personne qui veut envenimer le débat.
    Pouvez-vous nous donner une idée de la position qu'a adoptée Twitter au sujet de l'anonymat de la plateforme?
    Twitter a autorisé l'anonymat depuis sa création. Nous le permettons pour diverses raisons. La plupart des intervenants anonymes n'affichent pas des discours haineux.
    Nous exerçons nos activités dans certains pays dans lesquels, si nous n'autorisions pas l'anonymat, les gens seraient physiquement en danger à cause des commentaires qu'ils affichent en ligne.
    Très bien.
    Je ferais néanmoins remarquer que les comptes anonymes doivent néanmoins respecter les règles de Twitter. Il n'y a aucune exception pour eux. Si les propriétaires de ces comptes font des commentaires haineux, ils se voient appliquer les règles de Twitter. Bien sûr, c'est un équilibre délicat, mais pour le moment, nous autorisons l'anonymat et nous allons continuer à le faire.
    D'un point de vue personnel, un certain nombre de groupes de femmes sont venues me parler au Canada, mais également des collègues coréennes, pour me dire que le discours qu'elles peuvent avoir est tout à fait différent parce qu'elles ont la possibilité de le faire de façon anonyme et peuvent tenir des conversations qu'elles craindraient d'avoir directement.
    Nous sommes bien évidemment sensibles au problème que l'on constate probablement au Canada et aux États-Unis au sujet des commentaires anonymes, mais nous sommes également sensibles à la situation de ceux qui utilisent Twitter pour faire entendre leurs voix alors qu'ils ne pourraient pas le faire ailleurs.
    Très bien. Je vous remercie.
    Merci.
    Madame Fraser.
    Merci, monsieur le président.
    Merci d'être venue, madame Austin. J'ai apprécié votre exposé.
    J'aimerais revenir sur une chose que vous avez mentionnée dans votre exposé au sujet d'une statistique, c'est le fait que 91 % des contenus sont supprimés proactivement; ils sont détectés grâce à votre propre technologie pour ce qui est des contenus extrémistes violents et terroristes.
    Que se passe-t-il avec les autres genres de contenu? Que se passe-t-il pour les contenus comme les menaces ou les commentaires racistes ou les commentaires qui violent autrement vos normes?
    Je crois que, d'une façon générale, il y a 1 % environ des contenus sur Twitter qui représentent la majorité des comptes qui sont signalés comme source de harcèlement.
    Si l'on parle précisément de harcèlement, encore une fois, ces statistiques sont publiées dans notre rapport sur la transparence.
    Nous intervenons sur les comptes uniques en appliquant les six règles que j'ai mentionnées concernant le harcèlement, l'exploitation sexuelle des enfants et la conduite haineuse. Sur les six catégories pour lesquelles nous sommes intervenus entre juillet et décembre 2018, nous avons suspendu 250 000 comptes pour conduite haineuse, 235 000 comptes pour harcèlement, 56 000 pour menaces avec violence, 30 000 pour médias sensibles, 29 000 associés à l'exploitation sexuelle des enfants et environ 8 000 pour des renseignements privés.
    Il est très difficile de comparer ces chiffres d'une année à l'autre, d'un pays à l'autre, parce que les contextes varient. Il peut y avoir une rébellion dans un pays ou quelque chose pourrait se produire sur le plan politique qui susciterait des conversations différentes ou des actions différentes. Mais sur les 500 millions de gazouillis que nous affichons tous les jours, ce sont là le nombre des comptes que nous avons supprimés.

  (1545)  

    Vous disposez manifestement de la technologie nécessaire. Si vous découvrez 91 % des contenus reliés à l'extrémiste violent ou au terrorisme et que vous êtes en mesure de détecter et de les supprimer dans 91 % des cas, avant qu'ils n'arrivent sur la plateforme, alors vous disposez manifestement de la technologie qui vous permettrait d'empêcher de façon plus efficace d'autres types de haine en ligne, comme la propagande raciste, le harcèlement abusif et menaçant. Pourquoi ne faites-vous pas davantage à l'égard de ce genre de comportement?
    Vous avez fait une excellente remarque. Si les gens ne se sentent pas en sécurité sur Twitter, ils n'utiliseront pas cette plateforme, et il est donc dans notre intérêt de faire davantage à l'égard de ce genre de comportement.
    Nous avons récemment modifié notre approche. Twitter a une approche différente pour ce qui est de l'aspect modération du contenu que ce que font d'autres plateformes. Il y a de nombreuses interactions entre ces personnes et nos employés qui surveillent les plateformes. Nous dépendons davantage sur notre technologie et aujourd'hui, 38 % des comptes nous sont signalés par la technologie — elle nous informe de la nécessité de procéder à un examen — alors qu'avant, nous n'en avions pas du tout. Nous projetons d'investir davantage dans notre technologie.
    Quelle est la somme que Twitter dépense chaque année pour ce genre de technologie?
    Je vais devoir vous fournir ce renseignement plus tard.
    Vous allez donc le transmettre au Comité?
    Oui.
    Pour ce qui est des poursuites civiles, j'aimerais savoir si Twitter a été poursuivi avec succès pour un type de document qui a été affiché sur sa plateforme?
    Je vais également devoir vous fournir cela plus tard.
    Savez-vous si quelqu'un a déjà poursuivi une autre personne qui avait affiché ce genre d'information...?
    Je vous fournirai cela plus tard.
    Très bien.
    Je comprends bien sûr qu'il y a une différence entre vos enquêtes proactives sur le type de contenu dont nous parlons, la cyberhaine, et le fait de demander à des utilisateurs de signaler ces contenus et d'attendre que vous communiquiez avec eux plus tard. Pensez-vous qu'il existe à l'heure actuelle un problème pour ce qui est du temps que doit attendre la personne qui signale ce genre de comportement en ligne haineux, menaçant ou abusif avant qu'elle obtienne une réponse?
    Si j'ai bien compris, il faut parfois attendre jusqu'à 24 heures pour obtenir une réponse initiale et la suite peut prendre beaucoup de temps; de plus, c'est l'utilisateur individuel qui doit établir le bien-fondé de sa demande, au lieu de tuer dans l'oeuf cet affichage, de le bloquer et de décider ensuite s'il y a lieu de supprimer ce contenu ou d'interdire à cette personne d'utiliser d'autres plateformes.
    Nos décisions prennent toujours en compte le contexte. Nous disposons d'un certain nombre de paramètres que nous évaluons et examinons avant d'intervenir. Il y a en fait deux volets: le premier est le signalement et le second, l'examen.
    Nous reconnaissons publiquement que c'est trop demander aux victimes de signaler les cas de harcèlement à Twitter et c'est la raison pour laquelle nous essayons d'être plus efficaces. Nous avons un processus qui s'applique aux comportements haineux qui nous permet de soumettre ces questions à un examen plus rapidement. Comme je l'ai mentionné, nous travaillons avec notre technologie. Nous savons que nous devons faire davantage pour signaler le harcèlement.
    Lorsque nous examinons les comptes ou les gazouillis qui nous ont été signalés, il est très important pour nous d'essayer de prendre la bonne décision. Nous recevons un certain nombre de signaux relatifs à un comportement, de sorte que, si j'affiche un gazouillis et que vous me mettez en muet, si vous me bloquez et si vous me signalez, il y a bien évidemment un problème de qualité du contenu. En outre, nous examinons nos règles ainsi que les lois du pays d'où provient ce gazouillis.
    L'autre partie du contexte est qu'il se fait des conversations extrêmement différentes sur Twitter. Bien souvent, nous donnons comme exemple le jeu. Il est tout à fait acceptable dans le milieu du jeu de dire quelque chose comme « Je vais venir vous tuer ce soir, soyez prêt », de sorte que nous veillons à bien connaître le contexte.
    Voici les aspects dont nous tenons compte lorsque nous effectuons cet examen.

  (1550)  

    Très bien, merci.
    Je vous remercie.
    Monsieur MacGregor.
    Merci, monsieur le président.
    Madame Austin, merci d'être venue devant le Comité.
    Facebook a interdit une série de groupes nationalistes blancs: Faith Goldy, les Soldiers of Odin, Kevin Goudreau et le Canadian Nationalist Front, notamment. Twitter s'est contenté d'interdire la Canadian Nationalist Front. Faith Goldy a utilisé Twitter pour diriger ses abonnés vers son site Web après l'interdiction ordonnée par Facebook.
    Lorsque Twitter a interdit le Canadian Nationalist Front, vous avez déclaré l'avoir fait parce que le compte ne respectait pas les règles interdisant les groupes extrémistes violents, mais il n'y a pas eu d'autres explications et il y a une multitude d'autres groupes nationalistes blancs qui utilisent toujours la plateforme. Facebook a déclaré que la suppression de ces groupes venait du fait que cette société avait pour politique d'interdire sur sa plateforme les groupes qui ont un discours haineux hors ligne.
    Lorsque Facebook a pris cette mesure, pourquoi Twitter s'est-il contenté d'interdire simplement le Canadian Nationalist Front? Pourquoi est-ce que votre seuil est différent de celui de Facebook pour ce qui est d'autoriser des comptes sur votre plateforme?
    Je ne ferai pas de commentaires sur des comptes particuliers.
    Premièrement, pour ce qui est de la suprématisme blanche, nous avons une procédure interne qui travaille de concert avec la société civile, avec des chercheurs, de façon à mieux comprendre comment les nationalistes et les suprématistes blancs utilisent la plateforme, mais cette approche n'est pas particulière au discours haineux. C'est ainsi que nous examinons et élaborons nos politiques, mais la politique dont vous parlez est actuellement en train d'être révisée.
    Nous avons trois politiques fondamentales très strictes concernant les groupes extrémistes violents, dont fait partie celui que vous avez mentionné. Nous avons également des politiques en matière de comportement haineux et associé au terrorisme. Nous allons examiner ces trois politiques, étant donné que ces comptes ont été signalés et que nous devons décider s'il y a lieu de prendre d'autres mesures.
    Merci.
    Vous avez fait allusion au fait qu'il est toujours possible d'améliorer les choses et que c'est un travail qui se poursuit. Je le comprends.
    Je suis curieux. Qu'est-ce qui peut entraîner une interdiction? Une interdiction peut-elle être décidée sur-le-champ ou est-ce que vous préférez prendre des sanctions progressives concernant une personne ou un compte?
    Il y a plusieurs étapes à franchir avant d'interdire quelque chose. La violation manifeste de nos règles, comme le fait d'afficher du matériel montrant l'exploitation sexuelle des enfants, peut entraîner une interdiction immédiate.
    Pour être franche, la plupart des utilisateurs qui font l'objet d'une mesure ont commis une erreur et lorsque nous leur demandons de supprimer leur gazouillis, ils s'excusent envers leurs partisans lorsqu'ils reçoivent ce genre d'information. Nous espérons offrir des moyens permettant de corriger ces comportements, de contrer ce discours, d'inviter d'autres personnes à intervenir dans ces conversations, de parler d'autres questions ou de demander aux gens de se comporter différemment.
    Nous utilisons toute une gamme de mesures. Nous pouvons intervenir après un seul gazouillis. Nous pouvons bloquer un compte, mais interdire à quelqu'un d'utiliser Twitter est une mesure très grave que nous prenons très au sérieux.
    Je sais que vous ne faites pas de commentaires sur des comptes individuels. Est-ce que vous suivez ce que font d'autres plateformes comme Facebook et est-ce que cela fait partie de votre examen?
    Oui. Nous comparons constamment nos politiques avec les bonnes pratiques d'un certain nombre d'organisations, qui ne comprennent pas seulement les plateformes en ligne ou les entreprises numériques. Nous essayons toujours de consulter la société civile. Nous avons un conseil de la sécurité et de la confiance, dont fait partie MediaSmarts au Canada. Il se réunit deux fois par an. Il nous dit ce que l'on peut voir sur les plateformes.
    Nous nous en remettons également à un certain nombre de chercheurs pour qu'ils nous disent ce qu'ils ont constaté. C'est ce dialogue ouvert et cet échange non pas simplement d'idées, mais aussi d'informations sur la façon dont les groupes extrémistes violents se comportent, qui sont extrêmement importants pour nous. Nous accordons une grande valeur à cet aspect et nous dépendons de cette collaboration pour poursuivre notre travail et essayer d'améliorer notre plateforme.

  (1555)  

    Merci.
    J'ai une dernière question. Dans votre présentation, vous avez parlé du centre d'aide. Vous avez une équipe qui examine des comptes afin de relever d'éventuelles violations de vos règles, et il s'agit en réalité d'une équipe mondiale.
    Savez-vous combien de personnes font partie de l'équipe mondiale et combien sont basées au Canada?
    Il y a probablement...
    Je tiens à préciser que je pose la question parce que je me demande si les personnes qui examinent les comptes au Canada comprennent le contexte canadien, notre histoire, notre culture, le fait qu'il y a ici beaucoup de racisme envers les Premières Nations et qu'il y a beaucoup d'incompréhension. Bon nombre de ces stéréotypes sont encore propagés dans les médias sociaux.
    Il y a deux choses. Premièrement, il n'y a pas d'examinateurs de contenu au Canada. Nous avons une équipe Moments vraiment excellente. Je ne sais pas si vous utilisez la fonction de recherche, mais quand vous parcourez la page et que nous mettons en évidence des tendances, nous avons une équipe Moments vraiment excellente au Canada qui examine le contenu sous cet angle.
    Les voix canadiennes sont bien représentées partout au pays. Il y a une formation sur les préjugés. Il y a un nombre vraiment énorme de formations.
    J'ai moi-même vécu une situation où nous avons changé une politique et on nous a demandé de fournir le contexte canadien, ce que j'ai fait. Nous avons aussi une fonction interne d'appel pour fournir plus de contexte.
    Quant aux Premières Nations, je ne sais pas si vous avez reçu des représentants de groupes autochtones, mais si ce n'est pas le cas, je vous encourage vivement à le faire. Ils vivent la haine différemment de nous, non seulement par rapport à la haine, mais aussi au langage. Ils ont porté cet élément à mon attention, et je leur en suis très reconnaissante. Nous utiliserions un mot comme « sauvage » très différemment qu'ils le feraient, et nous allons dorénavant en tenir compte. Dr Jeffrey Ansloos, de l'Université de Toronto, est vraiment une excellente ressource à cet égard.
    C'est le genre de franches conversations que nous avons. Nous espérons recevoir plus de commentaires de la part de la communauté autochtone. Ses membres font un excellent travail, du moins à mon avis, en mettant en lumière les différents types de problèmes auxquels ils se heurtent, car ils ont souvent des conversations pour essayer de corriger le discours ou de raconter leurs histoires.
    Merci.
    Merci beaucoup.
    Monsieur Ehsassi.
    Merci, monsieur le président.
    Merci, madame Austin, de comparaître devant nous. Je dois dire que votre témoignage était très clair, je vous en remercie.
    Cela m'a peut-être échappé, mais M. MacGregor a posé une question sur la taille de l'équipe mondiale chargée de l'application des règles. Pouvez-vous nous parler de la taille de cette équipe?
    Je vous fournirai plus tard des chiffres précis, mais c'est plus de 2 500 personnes.
    Cette équipe mondiale ne s'occupe pas principalement de l'application de vos propres règles internes. Prend-elle réellement en compte les distinctions entre les obligations juridiques dans différents pays?
    Nous prenons en compte plusieurs signaux lorsqu'on nous demande de prendre des mesures à l'égard de comptes ou de gazouillis, comme le comportement et le contexte local. Des pays asiatiques et sud-asiatiques ont évidemment une approche différente envers les médias sensibles, et à ce propos je dirais — je ne sais pas si vous le savez — vous pouvez actuellement activer et désactiver une fonction relative aux médias sensibles sur Twitter ici au Canada. Ils tiennent compte de bon nombre de ces signaux lorsqu'ils prennent des mesures d'exécution.
    Vous avez dit que, comme entreprise, vous aspirez à avoir des conversations saines. À votre avis, comme il s'agit de l'un des plus grands enjeux dont nous avons débattu ici, à qui devrait incomber le fardeau? Qui, des plateformes de médias sociaux ou des gouvernements, devrait veiller à ce que nous traitions le discours haineux d'une manière efficace?
    Je crois que c'est une combinaison des deux. Du point de vue de Twitter, j'ajouterais aussi les utilisateurs à cette combinaison. Les suggestions de groupes de défense des droits de la personne sont les bienvenues. Celles du gouvernement sont les bienvenues. Bien entendu, nous respectons la loi là où nous nous trouvons. Il est extrêmement important pour nous d'offrir un service sûr et sain. Il est dans notre intérêt que les utilisateurs de Twitter soient en sécurité. C'est vraiment une combinaison importante des deux.
    Dans certains cas, règle générale, les plateformes de médias sociaux agiront plus rapidement que les gouvernements. Ce n'est pas toujours le cas. Dans d'autres cas comme nous l'avons évoqué en ce qui concerne le terrorisme, on nous demande d'agir plus rapidement.
    Le rapport sur la transparence dont vous avez parlé est-il exigé par l'Union européenne?

  (1600)  

    Ce n'est pas une exigence. La structure de rapport est différente pour l'Union européenne. Le rapport sur la transparence est simplement quelque chose que nous faisons de notre propre chef.
    Les règles relatives au contenu extrémiste violent ou terroriste sont-elles imposées par une entente ou une convention ou est-ce quelque chose que vous avez choisi de faire?
    Chaque compagnie aura un ensemble de politiques qui lui est propre. Comme je l'ai dit, nous en avons trois. Nous avons une politique sur le terrorisme, une sur les groupes extrémistes violents et une autre sur la conduite haineuse. Cette dernière a tendance à englober des personnes ou, manifestement, des groupes extrémistes violents. Elle peut aussi s'appliquer à des groupes. Il faudrait demander à chaque entreprise quelles sont ses politiques et comment elle les applique.
    Comme vous faites allusion à chacune de ces entreprises, comment diriez-vous que Twitter se compare à d'autres entreprises en matière de lutte contre les crimes haineux?
    Je ne me sens pas qualifiée pour parler de ce que les autres entreprises font, ou pourraient ou ne pourraient pas faire. Notre approche est différente, comme je vous l'ai décrite. Pourrions-nous faire mieux? Nous pensons toujours que nous pouvons faire mieux.
    Que faites-vous vraiment bien qui pourrait servir d'exemple à d'autres entreprises?
    Voulez-vous dire par rapport à la haine?
    Oui.
    Je crois que nous avons très bien peaufiné et élargi notre politique. En décembre 2018, nous avons inclus les images violentes et les identifiants qui pourraient avoir une connotation haineuse. Je crois que nous collaborons bien avec la société civile et avec les gouvernements. Je crois que nous expliquons très bien ce que nous faisons dans notre rapport sur la transparence. J'en resterai là.
    Vous dites que vous essayez d'avoir des conversations saines et que vous essayez de le faire d'une manière transparente, mais vous dites dans l'une de vos conclusions que votre entreprise est aussi censée tenir dûment compte de la complexité de cet enjeu particulier.
    Selon vous, étant donné les différences et les obligations légales dans chaque ressort — la plus évidente étant qu'aux États-Unis, il y a ce qu'on appelle la liberté d'expression absolue, tandis que nous adoptons une perspective très différente sur la question — nos exigences canadiennes sont-elles complexes? Est-il difficile de tracer la ligne?
    Voulez-vous dire, le droit canadien est-il complexe?
    Oui.
    Est-ce important s'il est complexe? Nous devons le respecter, c'est ce que je tiens à dire.
    Prenons-nous en compte ce que nous faisons dans d'autres ressorts? Absolument. Prenons l'exemple du Règlement général sur la protection des données, le RGPD. C'est un exemple de protection de la vie privée. Quand ils ont mis en oeuvre le RGPD en Europe, nous avons pris ces pratiques exemplaires et nous les avons mises en oeuvre à l'échelle mondiale pour notre entreprise.
    Nous sommes absolument ouverts aux discussions sur les pratiques exemplaires du monde entier. Certaines choses fonctionnent très bien, et certaines lois fonctionnent très bien dans d'autres pays.
    Si vous me demandez aussi comment changer la loi canadienne, ou faire ce genre de choses, je ne me prononcerai pas. Si vous me parlez de la réglementation, je dirais que vous devriez envisager d'adopter des définitions claires par rapport auxquelles nous serons évalués. Élaborez des normes de transparence. Nous attachons une grande importance à la transparence avec nos utilisateurs. La priorité devrait être accordée aux problèmes systématiques et récurrents et non seulement aux problèmes ponctuels individuels. La coopération devrait être favorisée.
    Enfin, je pense que vous avez laissé entendre qu'en ce qui concerne le Canada, vous n'avez pas d'examen du contenu. Si c'est le cas, pourquoi pas?
    Pourquoi nous n'avons pas d'examinateurs du contenu au Canada?
    Au Canada, oui.
    C'est simplement un choix. Nous embauchons. Des Canadiens travaillent dans toute l'entreprise dans différents endroits, y compris à Bruxelles et dans le monde entier. C'est simplement un choix que nous avons fait, mais cela ne veut pas dire que le contenu canadien n'est pas respecté.
    Je vous remercie.
    Nous n'avons pas le temps pour un autre tour complet, mais nous avons du temps avant que l'heure se termine. Les membres peuvent-ils m'indiquer qui a des questions?
    Monsieur McKinnon.
    Quelqu'un d'autre de ce côté? Monsieur Saini.
    Commençons par M. McKinnon. Je vous donne trois minutes pour commencer, si cela vous convient.
    Je veux revenir sur l'anonymat. Je comprends ce que vous avez dit à M. Barrett, à savoir que c'est parfois tout à fait nécessaire. J'aimerais aussi vous suggérer qu'il pourrait y avoir une option utilisateur dans le compte pour authentifier ou non, et un indicateur qui apparaîtrait sur un gazouillis qui dirait si la personne est authentifiée ou non. Cela pourrait être utile, car je pense que l'anonymat explique en partie la mauvaise conduite en ligne.
    J'aimerais aussi inclure dans un tel mécanisme la perspective du pseudonymat. Je crois que lorsque des personnes fonctionnent dans des situations où elles ne veulent pas s'identifier aux autorités d'identification, comme VeriSign, il y a place à un mécanisme d'authentification relatif comme les réseaux de confiance, que le logiciel PGP offre, afin que des groupes puissent s'identifier entre eux et utiliser les noms qui leur conviennent.
    Ce serait une très bonne chose, à mon avis, si cela pouvait être mis en oeuvre.
    Je ne suis pas sûr si la deuxième partie correspond au paradigme de Twitter. Je pense plutôt à Facebook. Ce serait bien si les interactions pouvaient être filtrées selon que les personnes sont authentifiées ou non, peut-être par rapport à mon réseau de confiance ou peut-être par rapport à une liste blanche d'autorités d'authentification ou à l'absence sur une liste noire des autorités. Est-ce quelque chose que Twitter pourrait envisager?

  (1605)  

    Permettez-moi de traiter la deuxième partie en premier. Vous pouvez activer ou désactiver des mots et des comptes sur Twitter. Donc, si la partie des Raptors de ce soir vous intéresse et que vous ne pouvez pas la voir, vous pourriez désactiver #WeTheNorth, #TorontoRaptors. Vous pouvez utiliser un filtre pour les éliminer de vos conversations si vous le désirez, au cas où vous auriez manqué la partie.
    Nous y travaillons, mais pour le moment, si vous regardez votre compte, vous verrez « masquer des mots » ou « masquer des comptes ». Vous pouvez utiliser ces fonctions pour aider à filtrer ce que vous voyez ou pas. C'est la même chose avec le paramètre des médias sensibles.
    En ce qui concerne l'intégrité de l'information et faire confiance à la personne avec qui vous communiquez, j'en ai parlé dans mon témoignage au Sénat l'an dernier. Nous étudions très attentivement cette question. Notre processus de vérification est en suspens parce que nous n'étions pas satisfaits de son application. Nous n'avons pu trouver une politique cohérente qui expliquerait bien à nos utilisateurs de quoi il en retourne. Nous y travaillons.
    Nous modifions aussi nos produits quotidiennement. Nous avons ce que nous appelons l'aperçu du profil. Lorsque vous faites défiler la page à l'écran, vous pouvez simplement survoler la photo de la personne avec laquelle vous communiquez et son profil s'affichera. De plus, nous vous indiquons maintenant de quel endroit et à quel moment elle publie pour que vous puissiez savoir qu'elle publie à partir de son iPhone, depuis Hootsuite ou une quelconque autre application tierce.
    Je prends votre question et votre commentaire au sérieux. Nous y travaillons pour améliorer l'expérience utilisateur.
    Merci.
    J'ai une autre question brève...
    Nous y reviendrons, si vous êtes d'accord. Je veux donner trois minutes à tout le monde, si possible.
    Monsieur Saini.
    Bonjour, madame Austin. Très heureux de vous voir. Bienvenue.
    J'ai deux questions brèves.
    En ce qui concerne les radiodiffuseurs — la radio, la télévision — et les journaux, si quelqu'un fait un commentaire ou tient des propos haineux, le radiodiffuseur ou le journal a deux options: soit il ne les imprime pas ou ne les diffuse pas, soit il peut les signaler en donnant le nom et l'identité de la personne.
    Avec Twitter, et avec la haine en ligne, une version permet d'être anonyme. Pourquoi devrions-nous permettre à une personne d'être anonyme alors qu'elle ne peut pas l'être sur une autre plateforme?
    Merci pour votre question.
    Évidemment, le CRTC réglemente un ensemble de médias différent du nôtre, et cette conversation vous revient, par rapport à la réglementation.
    Je reviendrais à ma réponse précédente à propos de l'anonymat. C'est quelque chose que nous avons retenu depuis le début par rapport à notre plateforme, et c'est une question de liberté d'expression.
    Pourquoi le fait d'être anonyme...? C'est ce que je veux comprendre. On ne peut pas être anonyme dans un journal, à la radio ou à la télévision, mais on peut l'être sur Twitter. Je ne vois pas quelle protection cela offrirait à une personne qui veut exprimer une opinion, qu'elle soit bonne ou mauvaise. Il y a l'aspect de la liberté d'expression, mais nous n'autorisons pas la haine sur d'autres plateformes. Ce n'est pas un aspect de la liberté d'expression pour un radiodiffuseur ordinaire, mais ce l'est pour Twitter. Je ne comprends pas comment cela...
    Encore une fois, je vous dirais qu'un compte anonyme est toujours entièrement soumis aux règles de Twitter. Il peut être dénoncé, il ne devrait pas y avoir de conduite haineuse et il devrait être traité de la même manière.
    Nous avons adopté une approche différente en permettant l'expression anonyme. Encore une fois, je fais explicitement référence à la question des femmes et à la violence faite aux femmes et à la façon dont le contexte... Encore une fois, je reviens à l'exemple de la Corée. La Corée a un problème avec ce qu'ils appellent les caméras voyeuses et les gens qui filment des femmes. Elles viennent sur la plateforme de façon anonyme pour en parler et exprimer leur dégoût.
    Nous espérons avoir ce genre de conversation. Bien des gens choisissent de participer à cette conversation. En ce qui concerne la mauvaise conduite, s'il s'agit d'une très mauvaise conduite, nous allons sûrement intervenir.

  (1610)  

    Voici ma dernière question. Vous avez dit à mon collègue, M. Ehsassi, que vous avez 2 500 personnes dans le monde entier...
    Je dois le confirmer.
    Utilisons 2 500 à titre d'exemple. Ces gens sont à l'affût de gazouillis de nature offensante.
    Prenons un exemple très récent. L'Inde a tenu une campagne électorale. Neuf cents millions de personnes ont voté. En Inde, il y a 22 langues officielles et un millier de dialectes différents. Avez-vous la capacité, dans un pays comme l'Inde, où il y a 22 langues officielles, plus des milliers de dialectes, de surveiller tout ce qui se passe sur Twitter, avec toutes ces langues?
    Vous parlez du problème de la portée et de l'échelle, auquel nous nous attaquons quotidiennement.
    L'Inde est un excellent exemple. Nous avons de nombreux examinateurs de contenu qui parlent ces langues et ces dialectes. Nous sommes très présents en Inde. Nous avons la capacité d'examiner le contenu dans les langues parlées dans les pays où nous sommes présents.
    Nous sommes confiants que nous avons la capacité de les examiner. Comme je l'ai dit, nous embauchons davantage et nous aimerions aussi entendre... L'enjeu a été porté à mon attention. Les dialectes sont très importants. Ils sont très importants dans les Premières Nations ici au Canada. Le dialecte change quand vous passez d'une communauté à une autre. Nous avons tout à fait confiance en notre capacité à le faire.
    J'ai Mme Khalid et M. Fraser. Quelqu'un de l'opposition veut poser une question?
    Sinon, nous allons donner la parole à Mme Khalid.
    Merci, monsieur le président. Madame Austin, merci de votre présence.
    Vous avez effleuré le sujet lorsque vous parliez des communautés autochtones, et aussi à l'instant, quand nous parlions des femmes.
    En ce qui concerne l'examen et la détermination de ce qui constitue un contenu haineux sur Twitter, appliquez-vous une optique sexospécifique? Comme vous l'avez dit, les communautés autochtones le vivent différemment, et je peux vous dire, sans l'ombre d'un doute, que les femmes le vivent aussi différemment. Elles sont plus ciblées que leurs homologues masculins, par exemple.
    Nous donnons sans cesse de la formation chez Twitter à propos des préjugés et de la compréhension. Je parlerai plus particulièrement des femmes en politique, et plus particulièrement des femmes en politique au Canada. Les femmes comme vous, qui se présentent à des élections, subissent peut-être une somme anormale de violence verbale et de haine. Plusieurs politiciennes canadiennes m'ont expliqué leur contexte et leur façon de l'aborder, ce qui m'a été extrêmement utile. Nous avons apporté quelques modifications internes, en ce qui concerne la révision de la politique et le contexte, en nous fondant sur ces conversations.
    Ces conversations sont extrêmement importantes. Elles sont fréquentes. J'invite tout groupe qui estime que nous ne saisissons pas le contexte à venir nous en parler.
    En conséquence, d'après le contexte, quels changements précis ont été apportés à la politique?
    Je ne vais pas... Le problème, c'est que les gens jouent avec le système quand je leur dis exactement quelle politique a été modifiée. Ils font quelque chose comme changer un i majuscule pour un l minuscule.
    Je ne vais pas vous dire exactement ce qui a été changé. Cependant, avec le recul, en ce qui concerne le Canada, pour plusieurs comptes, nous connaissons certains mots que nous ne connaissions pas avant qu'ils soient utilisés et que nous devrions garder à l'oeil. C'est un peu comme le langage non parlementaire.
    Merci.
    Je serais heureuse d'en énumérer quelques autres après coup.
    Je serais heureuse de les entendre.
    Merci beaucoup.
    Monsieur Fraser.
    Merci. J'ai une question que je n'avais pas eu le temps de poser.
    Pour revenir un peu sur l'authentification, qui a été soulevée à quelques reprises, je suis évidemment très préoccupé par la quantité de désinformation qui est propagée facilement sur les plateformes de médias sociaux. Malheureusement, trop de gens n'exercent pas leur sens critique lorsqu'ils voient cette désinformation et, en conséquence, les histoires de ce genre peuvent se répandre comme une traînée de poudre. Les gens y croient et les commentent, et cela tient presque de la mentalité d'émeutiers en ligne.
    Il est important que les nouvelles diffusées sur les plateformes de médias sociaux respectent les normes journalistiques. Je sais que vous avez le crochet bleu qui permet d'authentifier certaines organisations d'une certaine façon, pour dire qu'il s'agit d'une entité légitime qui publie cette information.
    Pour les utilisateurs de votre plateforme, y a-t-il un autre moyen de déterminer qu'il s'agit d'une source d'information fiable qui respecte des normes journalistiques? Il ne s'agit pas nécessairement d'essayer d'examiner le contenu lui-même, mais de dire à vos utilisateurs qu'ils peuvent s'y fier?

  (1615)  

    J'ai travaillé pour Preston Manning et il m'a dit il n'y a pas si longtemps: « Michele, les fausses nouvelles ne sont pas nouvelles. Il suffit de remonter jusqu'à la Genèse. Ce que le serpent a dit à Eve était une fausse nouvelle à 100 % ». Ce n'est donc pas un phénomène nouveau. Toutefois, c'est quelque chose dont nous sommes très, très conscients et sur laquelle nous agissons. En 2018, nous avons recensé et contesté plus de 425 millions de comptes soupçonnés de manipulation de la plateforme.
    Quant au contexte, nous ne tenons pas compte du contexte de la même façon que nos concurrents et d'autres entreprises numériques. Comme je l'ai dit, l'équipe Moments, qui est vraiment bien implantée au Canada, ajoute maintenant plus d'information aux reportages qu'elle présente. Nous présentons des reportages en faisant appel à différents rédacteurs en chef, pour ainsi dire. Nous rassemblons des gazouillis et nous ajoutons plus de contexte.
    Je vais citer l'exemple du discours du Trône de l'Alberta. Nous avons expliqué alors en quoi consiste un discours du Trône et comment il fonctionne et ce qui s'est passé.
    Bien sûr, nous suivons de très près les fausses nouvelles. C'est particulièrement préoccupant pendant des élections. Nous avons une équipe de l'intégrité électorale qui s'y consacre. Il s'agit d'une équipe interfonctionnelle active durant les élections. Les élections en Alberta — touchons du bois — se sont très bien déroulées. Notre équipe était complètement engagée dans cette élection.
    Toutefois, c'est quelque chose qui nous préoccupe.
    Je suppose que ma question est de savoir si vous envisagez d'autres façons d'identifier une source qui respecte les normes journalistiques, par opposition à celles qui ne remplissent peut-être pas les critères pour être bannies de Twitter, mais qui n'obtiennent pas une étoile dorée, par exemple. Y a-t-il quelque chose qui permettrait à un utilisateur de reconnaître une source de nouvelles digne de confiance par opposition à une quelconque source de fausses nouvelles?
    Me demandez-vous de décider qui est digne de confiance et qui ne l'est pas d'un point de vue journalistique?
    Non. Je demande si vous pensez à une quelconque façon d'identifier les entités qui ont des normes journalistiques, qui adhèrent à la pratique courante, aux pratiques exemplaires en matière de journalisme, par opposition à celles qui ne le font pas.
    Nous travaillons avec de nombreux organes de presse. Cette industrie est en train de changer et beaucoup d'entre eux n'ont pas de crochets bleus, mais devraient en avoir, alors nous communiquons avec eux. Nous l'avons fait en particulier avant les élections en Alberta, pour nous assurer que les journalistes parlementaires étaient représentés.
    Cependant, si vous me demandez s'il existe une quelconque liste vérifiée d'organes de presse que Twitter autorise ou met de l'avant, nous ne faisons pas ce choix.
    D'accord. Restons-en là.
    Merci.
    Merci beaucoup.
    Y a-t-il quelqu'un d'autre...
    C'est une bonne question pour Google, toutefois. Leur approche est différente.
    M. McKinnon a une question brève.
    J'aimerais changer de sujet et parler des robots.
    Oui.
    Dans une certaine mesure, il y a lieu de s'attendre à des réponses automatisées, mais elles peuvent dépasser les bornes. J'ai entendu des plaintes à propos de robots qui fouillent tout l'univers Twitter et qui envoient massivement des réponses désagréables.
    Les robots sont-ils autorisés sur Twitter et avez-vous des normes de comportement à leur égard?
    Oui, l'automatisation est permise sur la plateforme.
    Je vais vous donner deux exemples positifs. Si vous perdez vos bagages et que vous adressez un message privé à Air Canada, un robot aidera à filtrer où vous vous trouvez et quel était votre numéro de vol. En Australie, ils ont un robot qui reconnaît les tendances suicidaires, qui permet de texter Lifeline Australia pour obtenir de l'aide. Si vous êtes en crise ou si vous êtes un parent à la recherche de conseils, le triage se fait aussi au moyen d'un robot. J'aimerais désespérément que nous puissions l'importer au Canada. Nous y travaillons.
    L'automatisation malveillante n'est pas autorisée sur la plateforme. Nous travaillons tous les jours pour faire en sorte que cela n'arrive pas. Cependant, dans certaines situations, les robots font un très bon travail et sont utiles.

  (1620)  

    Fantastique, merci.
    Merci beaucoup.
    Avant de terminer, le greffier a une date à mentionner. C'est simplement pour informer les membres des dates à propos du rapport dissident.
    J'examinais le calendrier des prochaines semaines et j'ai constaté que la date limite applicable pour soumettre des opinions supplémentaires ou dissidentes est le 6 et non le 13 juin.
    C'est pour le rapport sur le VIH.
    C'est pour le VIH.
    Pour l'étude de la haine en ligne, ce serait toujours le 13 juin.
    Pour la haine en ligne, c'est le 13 juin, et pour le VIH, c'est le 6 juin.
    Exactement.
    Si vous tenez à connaître la raison...
    Oui, je vous en prie.
    Dans le calendrier actuel, la date cible de dépôt du rapport sur le VIH à la Chambre est le 10 juin. Il serait donc illogique de vous demander de soumettre vos opinions supplémentaires ou dissidentes le 13 juin.
    Doit-elle être traduite au plus tard le 6 juin, ou pas?
    Non. De fait, vous la soumettez en anglais et en français, et nous l'insérons simplement à la fin du rapport.
    Non, mon point, c'est...
    Il demande s'il doit la faire traduire? Pourrait-il la soumettre seulement en anglais à ce moment-ci, puis la faire traduire par la suite? Je pense que c'est ce qu'il demande.
    Non. Ces opinions doivent nous être soumises en français et en anglais...
    Eh bien, c'est une impossibilité, alors.
    ... le 6 juin, au plus tard le 6 juin, soit jeudi de la semaine prochaine.
    La chose aurait été possible, mais en étant avisé le jeudi après-midi...
    Je comprends. Ce que nous allons faire, parce que ce n'est évidemment pas possible, c'est que puisque nous siégeons toute la semaine, au lieu de le déposer le lundi 10 juin, nous pouvons reporter le dépôt, disons, au mercredi 12 juin. Cela nous donnera quelques jours de plus pour la traduction, peut-être.
    Oui, tout à fait.
    Nous allons y travailler. Cette semaine-là, nous siégeons...
    Pouvons-nous permettre à notre témoin de partir?
    Oui, j'allais la remercier. Il y aura une discussion très brève.
    C'est parfait.
    Quoi qu'il en soit, nous allons essayer d'arrêter les dates. Nous siégeons toute la semaine, donc le rapport pourrait être déposé cette semaine-là, en tout cas.
    Ce n'est pas nécessaire de le faire le 10 juin. Nous pourrions le faire quelques jours plus tard.
    Oui. C'est environ 48 heures, plus ou moins, avant la date du dépôt.
    Nous verrons quand le faire.
    Madame Austin, merci beaucoup. Votre remarque sur le serpent était exceptionnellement drôle. Je vais me l'approprier pour l'utiliser ailleurs. J'en donnerai le crédit à M. Manning.
    Nous sommes tous vraiment reconnaissants de votre présence. C'était très utile. Merci beaucoup.
    La séance est levée.
Explorateur de la publication
Explorateur de la publication
ParlVU