PARTAGER

YouTube : confessions d’un repenti

 

VIDÉO. De 2010 à 2013, Guillaume Chaslot a travaillé dans l’équipe chargée de l’algorithme de recommandation de YouTube. Il raconte. Propos recueillis par Guillaume Grallet

Et si nous redevenions maîtres de notre temps ? Cocréé par l’ancien directeur de la création de Mozilla Aza Raskin et par un ancien salarié de Google Tristan Harris, le Center for Humane Technology veut nous faire passer « d’une économie de l’extraction de l’attention à une économie qui valorise la concentration ». Elle compte également depuis plusieurs mois dans ses membres un Français, Guillaume Chaslot, qui a travaillé sur l’algorithme de recommandation de YouTube, de 2010 à 2013, année où il quitte l’entreprise.

Titutaire d’une thèse en intelligence artificielle, cet ancien employé de Microsoft Research et passionné du jeu de go veut nous aider à avoir une meilleure « consommation du numérique ». Il s’effraie notamment «  des cercles d’enfermement algorithmique » créés par la plateforme en raison même de son mode de fonctionnement qui offre à chacun les contenus qu’il désire voir et incite les youtubeurs à la surenchère. Exemple : « Il y a deux ans, j’ai calculé que l’algorithme de YouTube recommandait la théorie de la Terre plate environ dix fois plus que les vidéos qui expliquent comment on sait que la Terre est ronde. » Repenti, il a créé le site algotransparency.org pour que le grand public comprenne et, donc, réussisse à mieux gérer cet outil.

Il est vrai que Google (qui a acheté YouTube en 2006) a commencé à réagir. La fonction Family Link permet, par exemple, aux parents de vérifier l’activité des enfants et d’interdire l’accès aux images violentes. Un mode «  Chut  » permet par ailleurs de désactiver les notifications. L’an dernier, YouTube a mis des liens Wikipédia au-dessous de vidéos complotistes pour donner accès à un autre type d’information, dans le cas de la remise en cause de l’alunissage d’Apollo 11, par exemple. «  Mais cela, à ma connaissance, n’a été fait qu’en anglais et que pour certaines théories du complot. Il faut aller plus loin  », encourage Guillaume Chaslot. Alors que chaque jour, sur YouTube, un milliard de vidéos sont vues, «  il en va de notre santé mentale », prévient-il. Interview.

e Point : Comment en êtes-vous venu à travailler pour Google ?

Guillaume Chaslot : J’ai suis diplômé de l’École centrale de Lille et d’un master en intelligence artificielle à l’université de Lille. Ensuite, je suis parti faire une thèse en intelligence artificielle sur le jeu de go aux Pays-Bas, à l’université de Maastricht. J’ai créé mon propre programme de go, Mango, qui a ensuite été combiné avec celui de l’Inria, Mogo. Le programme qui en a résulté a été le premier à battre un professionnel du jeu de go à 9 pierres de handicap. En 2010, je suis allé faire un stage à Microsoft Research à Cambridge, puis j’ai passé les tests pour rejoindre Google à Los Angeles en fin 2010.

Le principe de l’algorithme est d’essayer de faire rester l’utilisateur le plus longtemps possible sur la plateforme.

Quel a été votre rôle précis dans la mise au point de l’algorithme de recommandation de YouTube ?

J’ai travaillé avec une équipe de 4-5 personnes. Le nombre d’employés qui travaillent sur les recommandations était à l’époque inférieur à 20. Ces équipes de petite taille ont permis à YouTube d’être plus rapide et efficace. Par contre, elles ne permettaient pas de générer une vision globale de l’impact des recommandations sur la société. Je ne suis pas le seul à tirer la sonnette d’alarme. Bloomberg a interviewé plusieurs ex-googlers pour montrer comment les manageurs de YouTube pourraient davantage faire attention à la toxicité des vidéos en ligne. En réalité, on n’essaie pas suffisamment de résoudre les problèmes d’enfermement algorithmique, on s’intéresse encore trop souvent uniquement au temps de vue.

Vous avez calculé que 70 % des vidéos vues sur YouTube le sont via son algorithme. Pourquoi est-il si efficace ?

Le principe de l’algorithme est d’essayer de faire rester l’utilisateur le plus longtemps possible sur la plateforme. En étudiant toutes les combinaisons de vidéos regardées par plus de 2 milliards de personnes, il est capable de prédire très précisément quelle vidéo a le plus de chances d’être vue par chaque utilisateur. L’algorithme a beaucoup évolué depuis que je suis parti, mais le principe est resté quasiment le même. Quand votre enfant est sur YouTube, il est face à une intelligence artificielle qui étudie ses moindres clics pour lui faire perdre le plus de temps possible. Du point de vue de Google, c’est logique. D’un point de vue de la société, c’est inefficace et absurde.

Les « platistes » ne font confiance à aucun autre média.

Mais tous les médias essaient de capter l’attention. En quoi est-ce nouveau ?

Avec l’intelligence artificielle, il y a deux dangers principaux qui n’existent pas avec la télévision. Le premier, c’est qu’on ne sait pas ce qui s’y passe : pour la télé, vous pouvez regarder les programmes et avoir une idée de ce que voient les gens. YouTube ne fournit pas de statistiques globales sur ce qui est regardé. On n’a aucune idée de quelles vidéos sont les plus regardées. On a encore moins d’idée sur quelles vidéos sont les plus promues par l’intelligence artificielle. Pour essayer de pallier ce problème, j’ai créé algotransparency.org : vous pouvez y voir, pour les États-Unis et la France, quelles sont les vidéos les plus vues et les plus recommandées à partir d’un millier de chaînes d’information.

Le deuxième danger, ce sont les cercles d’enfermement algorithmique. Ils fonctionnent de la manière suivante : si un petit groupe d’utilisateurs passe beaucoup de temps sur YouTube, l’algorithme va, par design, favoriser le contenu regardé. Les créateurs vont s’en rendre compte, et se concentrer sur ce type de contenu.

Pouvez-vous nous donner un exemple de ce cercle d’enfermement algorithmique ?

Un exemple, c’est la théorie de la Terre plate. Les « platistes » ne font confiance à aucun autre média, donc ils passent beaucoup plus de temps sur YouTube. Du coup, l’algorithme recommande plus ces vidéos, et les youtubeurs en créent de plus en plus. J’ai montré il y a deux ans que l’algorithme recommandait la théorie de la Terre plate environ dix fois plus que celle montrant que la Terre était ronde. D’autres exemples de cercle vicieux amplifient la haine, qui est très efficace pour le temps de vue. Haine anti-immigrés, haine anti-Francais, haine religieuse, haines de classes : les créateurs haineux ont été particulièrement mis en avant par la page d’accueil de YouTube, parce qu’ils sont très efficaces pour faire regarder de la pub. Ces cercles ont aussi créé des scandales autour de vidéos à la limite de la pédophilie et de la zoophilie qui ont également été recommandés par l’algorithme.

Quand vous vous êtes rendu compte du caractère potentiellement nocif de ce programme, en avez-vous parlé à votre hiérarchie ?

Je me suis rendu compte du problème de l’enfermement algorithmique dans les premiers mois, en 2011. À l’époque, je ne voulais pas me concentrer sur les problèmes, mais sur les solutions. J’ai proposé trois solutions pour aider les utilisateurs à sortir de l’enfermement algorithmique. Mais ça n’a pas intéressé les manageurs, dont le but était à l’époque d’augmenter le temps de vue.

Des universités comme Stanford travaillent avec les plateformes pour améliorer les choses.

Avez-vous vu une réaction plus récente de l’état-major de Google ?

YouTube a réagi en deux étapes par rapport aux problèmes de théories du complot dont j’ai parlé : l’an dernier, ils ont mis des liens Wikipédia en dessous de vidéos complotistes, pour donner accès à un autre type d’information. Mais, à ma connaissance, ce n’est pour l’instant disponible qu’en anglais et que pour certaines théories du complot. Par ailleurs, en janvier de cette année, à la suite d’un événement tragique et révélateur, YouTube a annoncé vouloir réduire la promotion de « théories du complot dangereuses » par leur algorithme. [Un complotiste a tué son frère avec un pieu parce qu’il pensait qu’il était un homme-lézard, l’une des théories du complot mises en avant par l’algorithme de YouTube, NDLR.] Cette décision a eu un impact mesurable : comme j’ai pu l’observer avec algotransparency.org, le nombre de théories du complot promues par l’algorithme a diminué de moitié à la suite de ces changements. Ce qui correspond à une réduction de plusieurs milliards de publicités gratuites pour ces vidéos.

Plus récemment, j’ai été invité au siège Google, et le directeur des recommandations m’a assuré que YouTube avait beaucoup évolué. Son équipe m’a assuré que le temps de vue n’était plus la seule priorité. Cependant, de nombreux problèmes persistent, en particulier des chaînes qui capitalisent sur la crédulité des enfants, comme Logan Paul qui a tout de même plus de 19 millions d’abonnés sur YouTube ! Aux États-Unis, il a joué avec des cadavres, promu la théorie de la Terre plate, et invité des personnes controversées comme le théoricien du complot Alex Jones. De son côté, un auteur, dont le pseudonyme est Lama Faché en France, a diffusé des vidéos [certaines ont été supprimées depuis, NDLR] qui expliquent que le Vatican sacrifie des enfants, et d’autres, grâce à des photos truquées d’os, font croire à l’existence de géants. Ces deux chaînes ont été énormément promues par l’algorithme. Les efforts de YouTube permettront de supprimer les théories du complot les plus violentes, mais d’autres subsisteront.

Quels changements faut-il opérer à votre avis ?

Facebook et Google sont dans une course pour capter notre attention. La réalité et le dialogue civique sont souvent vus comme des freins qui risquent de leur faire perdre la course. Leur modèle économique repose sur l’addiction. Ces plateformes sont à l’information ce que McDonald’s est à la nutrition. Pour sortir de ce modèle, il faut d’abord plus de transparence. Pour cela, plusieurs types d’acteurs ont déjà commencé à travailler. Des universités, comme Stanford, ont obtenu des données de Google et d’autres plateformes pour faire des recherches et publier leurs résultats. D’autres acteurs comme Data & Society veulent aussi informer les utilisateurs sur l’impact de l’intelligence artificielle. Je participe à ces projets à temps partiel avec mon fellowship à Mozilla. Je pense que les chercheurs doivent unir leurs efforts pour créer des intelligences artificielles qui mettent en avant une bonne représentation de la réalité, rétablissent la confiance et encouragent le dialogue civique.

Source : Le Point

Publicité
loading...