YouTube, propriété de Google, est toujours resté mystérieux sur les réglages de son
algorithme, en évolution constante, ne révélant jamais précisément le rôle joué par les différentes mesures (temps passé sur la vidéo, temps de session, nombre de vues ou de « likes ») dans le moteur de recommandation. L’algorithme de YouTube, régulièrement accusé de promouvoir des contenus néfastes, se fonde plus sur les mots-clés accolés à une vidéo que sur son succès pour la recommander, conclue une étude du CSA présentée mardi.
Le CSA s’interroge dans l’étude sur la « diversité de points de vue » proposée dans les sélections de vidéos proposées automatiquement, avec ses lourds enjeux démocratiques. Le Conseil, qui devrait bientôt obtenir un pouvoir de sanction sur les plateformes dans le cadre de la réforme de l’audiovisuel, a réitéré une expérience déjà menée par des youtubeurs, chercheurs et médias.
42 utilisateurs témoins ont lancé des vidéos sur 23 sujets « susceptibles de susciter des clivages » comme la corrida, la laïcité, la drague de rue, le véganisme ou la mort de Michael Jackson. Les 10 vidéos recommandées successivement par YouTube ont ensuite été analysées.
Un algorithme sensible aux mots-clés
Résultat : dans ses premières recommandations, « l’algorithme semble accorder moins d’importance au nombre de vues, à la date de publication ou encore au nombre de réactions qu’aux mots-clés associés au thème de départ des vidéos », explique le CSA.
Le dynamisme de communautés mobilisées sur certaines questions de société semble également « jouer un rôle central » dans la visibilité de ces vidéos, comme dans le cas des antivaccins.
Plus d’un tiers des vidéos recommandées « expriment le même point de vue que la vidéo de départ », au risque de produire un phénomène dit de « chambre d’écho », souligne le CSA. Au fil des recommandations, 44 % des vidéos proposées par la lecture automatique vont dans le même sens que la vidéo directement précédente.
Un « pivot », la troisième vidéo proposée en lecture automatique
L’expérience a mis en lumière un « pivot », la troisième vidéo proposée en lecture automatique, après laquelle « l’algorithme semble définitivement dévier du thème de départ ». Le robot recommande alors « des vidéos de plus en plus populaires (nombre de vues) et de plus en plus récentes », souligne le CSA.
Youtube a répondu mardi en soulignant que son système de recommandations avait « considérablement évolué » depuis la réalisation de l’expérience à l’été 2018. « Nous avons depuis pris un certain nombre de mesures supplémentaires pour répondre à la problématique de la désinformation sur notre plate-forme », a souligné un porte-parole.
Youtube réduit les recommandations de contenus considérés comme problématiques. Le nombre de vues de ces contenus « tendancieux » a baissé de 50 % depuis sa mise en place en janvier aux Etats-Unis, et la mesure devrait être effective dans les prochaines semaines en France.
Youtube met aussi en avant les contenus provenant de « sources faisant autorité »
Youtube met aussi en avant les contenus provenant de « sources faisant autorité », comme des médias, lors d’événements majeurs. Les utilisateurs de la plateforme peuvent également supprimer de leur liste de « vidéos recommandées » les chaînes qu’ils ne souhaitent pas regarder, et devraient bientôt savoir pourquoi telle vidéo a été recommandée.
Le CSA essaie progressivement d’établir une relation de confiance avec les géants d’internet, demandant plus de « transparence ». « Les internautes doivent savoir comment leurs choix sont pris en compte », a souligné Hervé Godechot, conseiller au CSA, lors de la présentation de l’étude, ajoutant que « ces travaux doivent en amener d’autres ».
Source: Lire L’Article Complet