LES ALGORITHMES MENACENT-ILS L'HUMANITÉ ?

🚀 Add to Chrome – It’s Free - YouTube Summarizer

Category: Tech Ethics

Tags: algorithmsethicsrecommendationsecuritysocial media

Entities: FacebookInstagramKelly CARPALes NguenoangRohingyasTigréTournesolYandexYouTube

Building WordCloud ...

Summary

    Introduction
    • Les Nguenoang, ancien chercheur en mathématiques appliquées, est président de Kelly CARPA et de l'association Tournesol.
    • L'objectif de la masterclass est de discuter des algorithmes de recommandation et de leurs impacts.
    Algorithmes de Recommandation
    • Les algorithmes de recommandation influencent fortement le contenu vu sur les réseaux sociaux.
    • Ils sont plus sophistiqués que les chatbots et représentent un business de centaines de milliards de dollars.
    • Ces algorithmes amplifient souvent le sensationnalisme et peuvent modifier le comportement des créateurs de contenu.
    • Les biais des algorithmes peuvent mener à une désinformation massive et à des appels à la haine.
    Impact Sociétal
    • Les algorithmes de recommandation posent des menaces existentielles pour les démocraties et la sécurité mondiale.
    • Ils influencent les politiciens et les créateurs de contenu à produire des contenus plus clivants.
    • Des exemples incluent l'impact sur les adolescentes sur Instagram et le rôle de Facebook dans le génocide des Rohingyas.
    Solutions et Tournesol
    • Tournesol vise à créer des algorithmes de recommandation plus sécurisés et démocratiques.
    • La plateforme utilise un système de vote pour déterminer quels contenus devraient être recommandés.
    • Tournesol encourage la transparence et la recherche académique sur la gouvernance des algorithmes.
    Actionable Takeaways
    • Contribuer à Tournesol en évaluant et comparant des vidéos.
    • Promouvoir la plateforme Tournesol auprès de votre réseau.
    • Faire des dons ou contribuer au code open source de Tournesol.
    • Rejoindre le Discord de Tournesol pour s'impliquer davantage.
    • Utiliser l'extension Tournesol pour consommer des contenus de qualité.

    Transcript

    00:00

    bonjour et bienvenue pour cette masterclass de Blast donc je me présente je m'appelle les nguenoang donc j'ai longtemps été chercheur en mathématiques appliqué et en particulier en sécurité d'intelligence artificielle également en théorie des jeux et en théorie des scrutin maintenant je suis président de

    00:16

    PDG de l'entreprise startup Kelly CARPA qui fait de la cybersécurité et également président de l'association tournesol qui développe une plateforme pour concevoir des algorithmes de recommandation notamment de manière sécurisée et collaborative aujourd'hui

    00:33

    on va parler pas mal des algorithmes de recommandation en premier lieu on va parler du de la menace existentielle que représente aujourd'hui les algues de recommandation qui me semblent très gravement sous-estimé par à la fois les chercheurs le grand public et les

    00:48

    politiciens et je vais affirmer en particulier que le futur de démocratie et de du monde de façon générale dépend pas mal de ce que ces algorithmes amplifient à très grande échelle ensuite dans une seconde partie on parlera la conception des algorithmes qui sont

    01:04

    derrière ces recommandations et on va voir en particulier que ces algorithmes sont une forme moderne de scrutant qui n'est absolument pas sécurisé ou en tout cas très mal sécurisé et ça ça a conduit à beaucoup de d'amplification de la désinformation notamment par des campagnes de propagande par des fermes

    01:22

    de troll et en particulier ça a conduit à une montée de la désinformation et des appels à la haine en ligne qui met en danger des millions de vie à travers le monde enfin en troisième partie on va parler d'une solution sur laquelle on travaille qui est donc l'application

    01:39

    tournesol et plutôt que de parler uniquement de des problèmes spécifiques de tournesol je vais insister sur les défis plus généraux qui se posent lorsqu'on essaie de concevoir une plateforme collaborative pour concevoir des algorithmes de manière démocratique et en particulier tous les enjeux de

    01:55

    sécurité ou tous les compromis entre inclusivité et sécurité qui s'oppose dans la conception de telles plateformes je vais appeler chacun d'entre vous a essayé de contribuer au développement de cette plateforme soit directement en étant chercheur par exemple en

    02:10

    travaillant sur les questions de recherche qui se posent sur sur le sol soit à travers des contributions directes à la plateforme puisque la plateforme étant finalement un scrutin lui-même l'un des gros enjeux et d'avoir des personnes qui participent aux scrutin et donc plus il y en a parmi

    02:27

    vous qui voteront mieux seront les recommandations faites par par l'algorithme et enfin il y a d'autres manières plus indirecte de participer et que ça soit par des donations notamment financières mais également tout simplement par la promotion de la plateforme voilà

    02:44

    un grand programme je vous propose de commencer en parlant d'abord des algorithmes de recommandation et de l'enjeu qui représente aujourd'hui pour nos sociétés

    03:00

    qu'il vaut mieux voir c'est que sur beaucoup de plateformes les algorithmes de recommandations ont pris une ampleur énorme donc que font ces algorithmes de recommandation essentiellement à chaque fois que vous ouvrez votre téléphone que vous appuyez sur une application de réseaux social notamment YouTube TikTok

    03:15

    Twitter ou Facebook ou Instagram le contenu qui vous va vous être montré est un contenu qui a été sélectionné par un algorithme qui sont aujourd'hui enfin ce sont vraiment les algorithmes les plus sophistiqués qu'il y a au monde du salaire sur nos algorithmes beaucoup plus sophistiqués que les chatbots comme

    03:31

    4gpt dont on entend beaucoup parler ce qu'il faut bien voir c'est que ces algorithmes de langage aujourd'hui et ils n'ont pas de d'applications très concrètes en tout cas ils n'ont pas de rentabilité à court terme alors que les algorithmes de recommandation non seulement la recommandation de contenu mais également de recommandations de

    03:47

    publicité donc on parle aussi de publicité ciblée ces algorithmes représentent un business qui est qui se chiffre à des centaines de milliards de dollars par an sachant cela il faut pas être sur ici on apprend que littéralement des dizaines de milliards

    04:03

    au moins de dollars par an sont investis dont l'optimisation la construction et l'optimisation de telles algorithmes ces algues sont vraiment très sophistiqués ils apprennent vraiment le font du profilage ils apprennent vraiment les comportements de milliards d'utilisateurs ils sont capables d'anticiper énormément ce sur quoi tel

    04:20

    ou tel utilisateur à davantage de chances de cliquer donc il y a vraiment tout un travail au niveau de la surveillance des utilisateurs mais il y a également tout un travail d'analyse des contenus à recommander donc ces algorithmes sont vraiment très sophistiqués ils sont également très influents ce qu'on peut voir c'est que sur la plupart des plateformes par

    04:36

    exemple prendre le cas de YouTube le nombre de vues que à faire une vidéo et vraiment directement liée beaucoup plus au nombre de fois qu'il est recommandé par l'algorithme qu'à son caractère clickbait c'est à dire à quel point les gens ont tendance à cliquer dessus je suis moi-même youtubeur et j'ai accès

    04:53

    aux statistiques de ma chaîne mais ce qu'on peut voir c'est que le ce qu'on appelle le clics donc le nombre de fois que les gens cliquent lorsqu'on leur propose une vidéo ce clique sous rate la fréquence à laquelle les gens cliquent il varient pas énormément il varie ils peuvent

    05:08

    varier d'un facteur 10 entre une vidéo qui est très clip Betty avec qui donne vraiment envie d'être cliqué et une vidéo qui est un peu plus sobre et moins attirante il y a peut-être un facteur 10 mais c'est rare qui est un facteur une variation beaucoup plus grande généralement ça

    05:24

    varie entre quelques pourcents 2% de clics ah peut-être 20% mais vraiment 20% c'est énorme donc il y a peut-être un facteur 10 peut-être facteur 20 maximum alors que le nombre de recommandations lui par contre varie d'un facteur

    05:39

    facilement un million voire voire beaucoup plus ainsi si une vidéo fait des millions de vues ce n'est pas tant parce que les gens on clique à chaque fois dessus à chaque fois qu'il est recommandé c'est davantage parce que la vidéo a été recommandée des dizaines de millions voire peut-être même des

    05:55

    centaines de millions de fois donc ce qui fait que les gens regardent tel plutôt que telle autre contenu ce qui fait qu'ils vont s'intéresser davantage au dernier clash qu'il y a sur les réseaux sociaux à la dernière chose énervante ou sensationnaliste plutôt que

    06:12

    à des sujets beaucoup plus importants comme par exemple je sais pas le changement climatique la BU des droits humains ou autre ce n'est pas tant le fait que les gens qui davantage sur un contenu sur l'autre ça joue bien sûr mais surtout beaucoup plus ce qui va jouer c'est le nombre de fois que l'algorithme recommande tel contenu

    06:28

    plutôt que tel autre et il se trouve que de façon empirique on observe que notamment c'est ce qui a été révélé à travers les Facebook files révélés Francesco gun aussi employé de Facebook ce qui a été révélé c'est que cet

    06:44

    algorithme est à des biais énormes en faveur du sensationnalisme à tel point qu'il modifie et j'y reviendrai le comportement des créateurs de contenu et alors en quoi c'est un problème donc j'ai parlé un petit peu du problème de priorisation d'information il y a déjà des problèmes individuels qui sont un peu les problèmes les plus évident donc

    07:00

    on peut imaginer typiquement que quelqu'un qui a déjà des problèmes de d'addiction par exemple à certains produits pensez aux jeux d'argent peut penser à l'alcool ou autre de telles personnes si elles se font recommander de façon répétée des

    07:15

    contenus qui les poussent à ce genre d'addiction forcément elles vont se retrouver dans un état émotionnel difficile surtout si elle cherche à activement à lutter contre ces addictions de façon plus générale il y a eu beaucoup d'études qui lient les consommations de contenu sur

    07:32

    Instagram notamment mais sur différents médias de façon générale à des problèmes de dépression donc sur Instagram en particulier chez les adolescentes il y a des problèmes très graves soulevés d'augmentation par exemple de dépression

    07:47

    voire de suicide auprès des adolescentes là on a un cas où finalement de l'algorithme en faisant tel ou telle recommandation mais des vies en danger et en fait là on parle même de centaines de milliers de vie voire de millions de vie donc de ce problème et énorme et c'est des

    08:03

    problèmes individuels très graves en plus de ça comme j’avais déjà un peu mentionné il y a le problème de des incitatifs que cela crée pour les créateurs de contenu donc moi je suis moi-même un créateur de contenu donc j'ai subi cela d'une certaine manière je vois très bien que quand un contenu fait beaucoup de vues ça m'incite à

    08:19

    reproduire ce genre de contenu notamment l'interface de YouTube pousse beaucoup à s'intéresser aux statistiques des des vidéos produites c'est encore plus le cas pour ceux qui sont financièrement dépendants des des contenus qu'il produisent donc tous les youtubeurs qui

    08:36

    vivent de leur création toutes les tous les médias tous les créateurs de contenu qui vivent vraiment de leur contenu produit vont forcément être influencés par le type de contenu qui qui est populaire sur la plateforme qu'ils utilisent et ça on l'a beaucoup

    08:53

    vu dans le cas des Facebook file qui révèle notamment que BuzzFeed avait écrit des messages à Facebook se plaignant de l'impact négatif de l'algorith de recommandation non seulement sur ceux qui étaient promus mais également sur les incidatifs que

    09:10

    cela conduisait pour créer pour pour l'entreprise rapporté notamment que cela les avait poussé à faire des contenus beaucoup plus clivant à parler beaucoup plus de choses énervantes divisante alors que les contenus qui faisaient sur le

    09:26

    bien-être notamment le bien-être animal était beaucoup moins vu et du coup BuzzFeed naturellement produit moins de ses contenus en tout cas investi beaucoup moins dans la création de tels contenus ça c'est un aspect très important les algorithmes de recommandations modifient

    09:43

    l'offre informationnelle sur les différentes plateformes et on peut imaginer que cela ne se restreint pas à la plateforme elle-même puisqu'il y a de la porosité entre différents médias sur ce qui est produit sur Youtube et discuter sur Twitter voir à la télévision et ce qui produit à la

    09:58

    télévision et ensuite discuter sur Twitter sur Youtube et sur Tik Tok et donc on a un paysage médiatique qui est peut-être anciennement complètement modifiée par ses algorithmes de recommandation de manière indirecte le risque étant que un média qui ne s'adapte pas finissent par par couler puisque

    10:15

    produire des contenus c'est une activité économique qui est malheureusement qui malheureusement enfin qui coûte cher donc ça c'est un problème très très important les incitatifs et ils ne vont pas uniquement au niveau des créateurs de contenu il s'applique également aux politiques et Facebook phases rapportent

    10:31

    que les politiciens européens avaient écrit à Facebook en leur disant que il y a une guerre de l'information permanente entre politiciens à travers tous les médias y compris les réseaux sociaux et que pour gagner cette guerre de l'attention ils étaient obligés de se

    10:46

    conformer à l'algorithme c'est à dire aborder eux-mêmes des contenus plus clivants donc là on voit bien que les algorithmes recommandations ils vraiment ils ont vraiment une portée géopolitique majeure je suis ici aujourd'hui parce que je crois que les produits de facebook nuisent aux enfants attisent les

    11:03

    divisions affaiblissent notre démocratie et bien plus encore les dirigeants de l'entreprise savent comment rendre Facebook et Instagram plus sûr mais il ne feront pas les changements nécessaires parce qu'ils font passer leurs immenses profits avant les gens ce

    11:18

    sur quoi j'ai envie d'insister c'est le fait que cette portée et du coup pas limitée à un problème individuel je pense que trop souvent quand on pense à ces algorithmes recommandations on ramène le problème à notre interaction avec l'algorithme de recommandation c'est une grave erreur

    11:34

    c'est une grave erreur et j'en prends pour exemple le cas des recommandations faites par yendex qui est un peu le Google russe à 30 millions de Russes pendant le début de l'invasion ukrainienne en février 2014 2022 donc

    11:49

    l'ancien directeur de la branche actualités de Yandex c'était plein lui-même et avait ces anciens collègues les suppliant de faire quelque chose à propos de cela parce que ce qui était recommandé à 30 millions de Russes c'est le nombre d'utilisateurs de index était

    12:06

    en fait en train de mettre en danger 40 millions de vies ukrainiennes là on voit bien que les 40 millions de vies ukrainiennes elles sont infectées en fait indirectement par l'algorithme de recommandation de Yandex alors que eux-mêmes ne consomme pas ses contenus ce problème est pas du tout limité au cas de la Russie et de l'Ukraine sur des

    12:23

    problèmes comme par exemple le changement climatique ce qui est recommandé massivement à 300 millions de consommateurs américains aujourd'hui ou à des milliards d'utilisateurs chinois notamment si ça épouse à consommer des SUV de la viande ou des produits

    12:38

    polluants tout ceci va mettre en danger des millions de vies à travers le monde dans des pays potentiellement très différents au Pakistan ou à Madagascar qui souffrent des conséquences avérées du changement climatique donc le problème n'est absolument pas individuel

    12:55

    et il est encore plus atroce dans les cas où il y a un des appels à la guerre là j'ai envie de mentionner le cas du Myanmar qui a été reconnu non seulement par les organisations des Nations Unies mais également par Amnesty internationale

    13:11

    dans ces organisations reconnues le rôle très complice de Facebook dans les appels à la haine et au génocide envers les communautés donc des Rohingyas au myélmar qui est une communauté musulmane

    13:27

    à l'ouest nord-ouest de de du Myanmar et du Tigré qui est une communauté au nord de l'Éthiopie donc dans le cas du Myanmar on parle de dizaines de milliers de morts et de presque un million de

    13:43

    réfugiés autour de 700 000 réfugiés des près d'un million de vie qui sont bouleversés à cause de l'amplification massive de la haine via les algorithmes de recommandations notamment de Facebook qui ont été reconnus dès 2017 et depuis

    14:00

    2017 les efforts faits pour contrer cette cet appel à la haine ont été très très insuffisants et dans le cas du Tigré on parle certains chiffres émotionnels au moins un demi-million de de morts donc l'ampleur de ce conflit est vraiment

    14:16

    atroce avec aussi toutes sortes de crimes de guerre qui qui sont suivis sur lesquels je ne vais pas m'attarder même s'il y aurait beaucoup de choses graves à dire enfin un dernier aspect important que j'aimerais mentionner c'est le problème de l'inattention je pense que

    14:33

    très souvent quand on pense aux algorithmes de recommandation on pense beaucoup à l'amplification de tout ce qui va mal des informations à la haine mais il y a un problème qui à mon sens est plus grave encore c'est le problème de l'inattention à des problèmes pourtant très

    15:18

    [Musique]

    15:49

    devenir manque du coup d’investissement dans la sécurité et enfin un autre problème que je pourrais mentionner c'est le problème dont on parle aujourd'hui dans cette masterclass à savoir le prendre des algorithmes de recommandation dès qu'on 4G PPT pardon et beaucoup plus discuté par les médias que ce problème des algorithmes de recommandation alors

    16:05

    qu'ils algorithmes recommandation à mon sens que menace des millions de vies et la stabilité des démocraties à travers le monde ce qui me semble beaucoup plus grave que que les prouesses sont dans tes capables tu as des pété plus vraiment donc c'est une attention aux souffrances humaines et en particulier

    16:21

    le travail d’empathie qui serait nécessaire pour appeler à la paix c'est quelque chose qui est sous valorisé par les algorithmes de recommandation qui n'est pas amplifiée et par conséquent il y a un grand risque que le monde globalement manque d'empathie envers les

    16:36

    les populations souffrantes et que du coup cela empêche l'aide à ces communautés j'espère vous avoir convaincu que les algorithmes de recommandation posent un problème et son pot entiellement une menace existentielle plus encore dans le cas d'algorito

    16:53

    recommandation et qui sont contrôlés par des puissances auto-agarres sur lesquels je reviendrai et j'espère que cette première partie vous pousse à donner plus d'attention à ce problème à vous informer davantage sur tous les problèmes que ça pose également sur les solutions qui existent à lutter contre

    17:16

    on va passer maintenant à la deuxième partie on va parler davantage des algorithmes qui sont derrière ces recommandations et qui posent tant de problèmes à leur nature et pourquoi est-ce qu'il pose aujourd'hui problème ces algorithmes aujourd'hui comme je l'ai dit ces algorithmes parmi les plus

    17:31

    sophistiqués qu'il y a au monde donc l'algorithme de youtube il faut bien se rendre compte que il analyse 500 heures de vidéo par minute parce que c'est le nombre d'heures mises en ligne en fait c'est chiffre de 2019 aujourd'hui ce chiffre encore sans doute augmenté même si malheureusement je suis pas capable

    17:48

    de vous donner un chiffre plus précis puisque Google ne communique pas dessus ce chiffre donne déjà l'ampleur de la tâche qui est qui doit être résolue par ces algorithmes de recommandation à savoir comprendre quelles sont tous ces contenus mis en

    18:03

    ligne pour essayer de déterminer lesquels doivent être davantage recommandées ces algorithmes analysent aussi le comportement de milliards d'utilisateurs donc faut bien se rendre compte qu'aujourd'hui pour faire ça on a vraiment besoin des outils les plus sophistiqués d'une certaine manière c'est un problème c'est le problème de sciences sociales

    18:19

    en tout cas des problèmes les plus difficiles de sciences sociales et pour lequel on a beaucoup de données ou plutôt les entreprises privées ont beaucoup de données auxquelles les chercheurs n'ont malheureusement pas accès et donc avec toutes ces données forcément des algorithmes extrêmement sophistiqués ont été conçus qui font de l'analyse d'image qui font de la

    18:35

    compréhension de texte qui font de l'analyse du profilage d'utilisateur vraiment beaucoup de choses très sophistiquées ces algorithmes sont malheureusement je vais pas pouvoir les expliquer puisque moi-même je les connais pas ils sont extrêmement opaque ceci étant on peut donner des idées globales de comment fonctionne ces algorithmes puisque très probablement

    18:51

    ils suivent les principes de base qui ont été établis par la recherche scientifique et donc le principe de base de ces algodes c'est c'est très clairement ce sont des algorithmes dit de machines learning donc d'apprentissage machine en français quels sont ces algorithmes de machine

    19:06

    learning bien ce sont des algorithmes qui apprennent littéralement ce sont des algorithmes qui apprennent et ils apprennent de quoi ils apprennent des données qui leur fourni pour faire cet entraînement malheureusement il se trouve que on a observé empiriquement que plus un algorithme a de données plus

    19:24

    il est performant et donc il est très tentant pour ces entreprises de fournir un maximum de données assez algorithmes pour qu'ils apprennent autant que possible et pour qu'ils soient aussi spectaculaire que possible et c'est ce qui est fait pas mal en pratique notamment dans le cas des

    19:39

    algorithmes de langage ou des applications comme j'ai pété 3 chat GPT palme de Google blenderbots de méta tous ces algorithmes sont conçus souvent en apprenant à partir de données massives du web donc typiquement des pages Web

    19:55

    qui sont téléchargées à gauche à droite des conversations sur des réseaux sociaux publics ou semi-publique comme comme Reddit tout Twitter et à partir de toutes ces données ces algorithmes vont apprendre mais ce qu'il faut bien voir c'est que l'apprentissage consiste à

    20:10

    généraliser ces données d'entraînement c'est à dire que un algorithme qui apprend de toutes ces chercher à parler de la même manière que les gens parlent sur ces données d'entraînements c'est à dire sur Twitter sur Reddit ou sur le Web de façon générale et ça ça pose clairement un

    20:26

    énorme problème puisque des algorithmes lorsqu'on les lance sur des sujets clivants sur lequel l'opinion la plus répandue sur Internet est un appel à la haine ou une désinformation il faut s'attendre à ce que ces algorithmes

    20:42

    répliquent ce genre de comportement et ça on l'a observé dans le cas notamment de GPT 3 donc l'algorithme développé par l'entreprise openéi ils sont capables d'anticiper énormément ce sur quoi tel ou tel utilisateur a davantage de chances de cliquer donc il y a vraiment

    20:57

    tout un travail au niveau de la surveillance des utilisateurs mais il y a également tout un travail d'analyse des contenus à recommander à chaque fois qu'on lançait j'ai pété 3 sur des histoires de musulmans commencer une phrase en parlant de musulmans cet algorithme fait de l'autocomplétion et

    21:13

    il faisait comp la phrase en parlant systématiquement de terrorisme ou au moins de meurtres donc là on observe un biasystémique systématique pardon dans cette dans cet algorithme qui est lié à un biais systémique dans l'organisation

    21:29

    du web c'est un cas qui est très intéressant parce qu'il est très spectaculaire et donc il permet d'attirer pas mal d'attention on a observé des efforts de 4gpt de corriger enfin de Opena de corriger un peu GPT 3 avec un nouvel algorithme péter qui consiste en gros à demander à des

    21:45

    reviews humains de dire à l'algorithme un peu plus à ce que tu as dit là c'est pas bien là c'est c'est davantage ce qu'il faut dire ça a corrigé une partie des problèmes mais vraiment pas du tout le cœur du problème il arrive très souvent que cet algorithme produise du contenu extrêmement raciste ou des

    22:02

    appels à la haine mais ce qu'il faut voir c'est que ces applications qui sont très spectaculaires qui attire beaucoup l'attention en fait sont assez négligeables de certains manière parce que leur impact géopolitique est beaucoup moins de d'autres algorithmes beaucoup plus bourgeois à mon sens à savoir les algorithmes de recommandation

    22:18

    et c'est même problème qu'on a pour draguer de langage ils existent également pour les algorithmes de recommandation qui vont amplifier et recommander davantage les contenus qui semblent plus populaires à leurs yeux donc typiquement les contenus qui sont beaucoup plus laqués beaucoup plus

    22:33

    regardées beaucoup plus commenté sur sur ces plateformes titoque Youtube et Twitter sont des contenus que l'algorithme de recommandation va beaucoup plus amplifier y compris quand ces contenus sont haineux ou racistes et ça c'est un problème beaucoup plus

    22:49

    dangereux puisque dans le cas du bien de mer on a vu que ça a conduisait même à un génocide d’après en tout cas ça ça a beaucoup contribué je me suis d'après l'Organisation des Nations Unies et Amnesty International encore une fois donc on a là un problème vraiment grave

    23:04

    et on peut se demander pourquoi est-ce que l'algorithme amplifie ces tel contenu la réponse vient encore une fois de ces données d'entraînement puisque en machine learning en apprentissage machine l'algorithme général généralise ces données d'entraînement en fait d'une certaine manière ce qu'il faut voir c'est que ces données d'entraînement

    23:20

    c'est ce qui permettent de concevoir l'algorithme et d'une certaine manière lorsque quelqu'un produit de tel contenu parce que quelqu'un dit regarde un contenu like un contenu ou comment un contenu c'est exactement comme si il votait pour que ce contenu soit

    23:36

    davantage amplifié par l'algorithme de recommandation je pense que c'est quelque chose qui est que beaucoup de gens comprennent qu'on utilise ces contenus en tout cas dans les commentaires que j'ai sur Youtube j'ai régulièrement des commentaires qui mettent un commentaire d'une certaine manière artificielle ou fabriquée ou non

    23:53

    authentique pour encourager l'algorithme de recommandation à recommander davantage le contenu qu'il venait de visionner bien ce travail qui est fait par mes abonnés sur ma chaîne il faut se rendre compte qu'il est fait de façon beaucoup plus massive encore par les campagnes de désinformation qui vont

    24:08

    ainsi amplifier des contenus potentiellement nuisibles voire dangereux pour les démocraties ou pour la sécurité notamment dans le cadre du cyber-harcèlement l'observe beaucoup c'est pour la sécurité notamment des créateurs de contenu encore plus quand on s'écrit de créatrices qui

    24:24

    commençaient sont beaucoup plus exposés à ce genre d'attaque dangereuses sur Internet l'analogie que je propose sur laquelle j'aimerais insister et que je propose ici c'est de voir vraiment ces algorithmes comme des systèmes de vote comme des scrutant si tu analogie qui en fait est plus qu'une analogie puisque

    24:41

    inscritant de façon très générale inscritant c'est quelque chose qui prend en compte l'expression de plusieurs personnes et qui va aboutir à une décision collective qui résulte des avis des différentes personnes sont des de plus en plus on essaie de pousser notre

    24:56

    monde notre recharge en machine learning à voir si l'algorithmes comme des scrutin et malheureusement quand on fait ça on se rend compte très vite que les scrutins qui gouvernent aujourd'hui la recommandation de contenu sur le web et donc le flux de l'information sur le web donc ce qui attire l'attention c'est

    25:12

    scrutin là sont extrêmement mauvaises elles sont jamais au mal sécurisé et ont de très très mauvaises propriétés qui sont vraiment une catastrophe en termes de théorie ce qu'on appelle du théorie du choix social c'est-à-dire la théorie des scrutin alors en quoi ils sont ils sont très mauvais en premier lieu ils ne

    25:27

    sont absolument pas dans la logique une personne une voix qui est quand même un des principes assez fondamental fondateur de démocratie en fait pour beaucoup de ces algorithmes il suffit de parler davantage pour davantage influencer l'algorithme plus vous allez

    25:43

    liker regarder des contenus sur Youtube ou sur Tik Tok et mettre des likes sur les bons contenus plus vous influencez l'algorithme alors dit comme ça a priori ça paraît pas mal sauf qu'il faut se rendre compte que derrière cela il y a des enjeux économiques et géopolitiques

    25:58

    énormes et donc il faut s'attendre et c'est le cas en pratique à ce que il y ait des entreprises privées et des régimes notamment autorail autoritaires qui vont investir massivement pour polluer le vote et encourager la

    26:14

    recommandation de contenu problématique en particulier aujourd'hui il y a même une industrie autour de la création de faux contenu pour amplifier tel ou tel contenu assez vieille ça tourne notamment autour de ce qu'on appelle parfois le search engine optimization

    26:31

    donc l'optimisation à des moteurs de recherche pour être davantage recommandé notamment par Google ce qu'il faut voir c'est que cette formation assez classique de référencement les recherches Google et un petit peu passer aujourd'hui puisqu'il y a plus de vues sur Youtube que de recherche sur google

    26:47

    et donc les contenus les plus consommés le son d'avantage parce qu'à cause des algorithmes de recommandation directement qu'à cause de la recherche sur Google donc il y a encore beaucoup plus d'intérêt à essayer d'investir dans la recommandation de dans le hackage de la recommandation des algorithmes de

    27:03

    recommandation donc ça c'est un aspect assez pratique alors il y a certaines défenses contre cela donc on peut limiter l'effet de chaque compte individuel et donc il y a certaines plateformes qui essaient de faire cela par exemple le nombre de like que vous pouvez mettre une vidéo YouTube en particulier c'est un par utilisateur

    27:18

    donc c'est une certaine défense contre cela mais il y a ensuite une attaque contre cela qui consiste simplement créer beaucoup de faux comptes et là encore en fait il y a toute une industrie aujourd'hui mais une industrie extrêmement complexe aujourd'hui et extrêmement lucrative qui consiste à

    27:33

    créer des faux comptes notamment des faux comptes de qualité sachant qu'il y a un faucon qui vient d'être créé à plus de chance d'être retiré rapidement par les plateformes être détectées comme un compte non authentique donc il y a tout un travail de ces entreprises à voler des vieux contes ou à récupérer des

    27:50

    comptes ou entretenir des décomptes créer il y a longtemps pour ensuite les revendre à des entreprises qui souhaiteraient utiliser ce cela pour amplifier leur contenu ça c'est c'est un énorme problème et juste pour insister sur l'ampleur de ce problème

    28:06

    j'aimerais partager un chiffre qui est le nombre de faux comptes que facebook retire chaque année de sa plateforme Facebook communique jusqu'à récemment communiquer dessus et ce chiffre était est de l'ordre de 7 milliards de faux

    28:22

    comptes par an 7 milliards de faux comptes créés par an très probablement dans un but de hacker les recommandations qui sont faites sur ces plateformes ce qu'il faut voir c'est que on a là vraiment un marché de l'information où sont économique dans le sens où les personnes qui investissent

    28:39

    davantage pour hacker ce marché de l'information pour faire en sorte que leur contenu est plus de visibilité passez personne sont en train simplement d'investir dans ce marché et du coup de gagner des parts de ce marché c'est à dire de l'attention de la plupart des utilisateurs contrario des groupes

    28:54

    notamment des groupes militants qui cherchent à avoir de l'attention pour par exemple défendre des problèmes de d'abus de droit humain ou des problèmes de changement climatique eux n'ont généralement pas les mêmes moyens pour investir dans ce marché de l'information et seront donc nécessairement battus

    29:11

    dans cette bataille de l'information qu'il y a sur Internet là je parle un système qui sont un petit peu un petit peu dark un peu pas très clean mais faut bien voir que le marché de l'information c'est quelque chose qui existe déjà depuis longtemps notamment à travers la

    29:28

    publicité la publicité c'est vraiment un marché d'information dans le sens où il suffit de payer pour avoir un contenu davantage recommandé j'insiste un peu sur ça parce que l'un des grands problèmes aujourd'hui par exemple pour la cause environnementale c'est le problème de la surconsommation et le

    29:44

    moteur de cette de la consommation et de la surconsommation c'est vraiment la publicité notamment si on pense à l'industrie de la mode ou industrie des nouvelles technologies beaucoup du renouvellement de ces produits est lié à l'appel à consommer davantage

    29:59

    qui est lié à ce problème de la publicité or il y a des lois qui encadrent la publicité donc ici à la télévision notamment l'arcom en France est chargé de vérifier la qualité des contenus toutes sortes de contenu audiovisuel

    30:15

    mais y compris la publicité en revanche sur Internet il est milliards de recommandations de contenus publicitaires qu'il y a par jour ce n'est absolument aujourd'hui complètement opaque et il n'y a pas d'agence de régulation pour vérifier que

    30:31

    ces contenus sont conformes à la loi en particulier qui n'est pas de d'arnaque via ces publicités ciblées pour vérifier qu'il n'y a pas d'incitation à la consommation addictive notamment tout ce qui est abus de tabac ou de ou d'alcool et ou de jeux d'argent faute

    30:50

    de régulation aujourd'hui ce marché est tout simplement hors de contrôle même les lois aujourd'hui ne peuvent pas s'appliquer parce qu'il manque d'investissement pour vérifier que ces bonus ou conforme à la loi on a là tout un tout un problème au niveau de la transparence de ces algorithmes qui est

    31:07

    vraiment un problème assez énorme d'autant plus que il faut enfin les scrutins qui sont conçus par ces entreprises donc c'est ces algorithmes de recommandation sont conçus de manière très opaque ce qui permet aux entreprises de truquer le

    31:22

    vote là où c'est les arranges donc on a ce problème très clairement déjà dans les entreprises privées qui ont des intérêts propres qui ont par exemple pas intérêt à ce que tes discussions sur l'éthique soit de leurs algorithmes en particulier et la sécurité de leurs

    31:37

    algorithmes soit amplifiés qui ont davantage intérêts à amplifier toutes les discours sur la spectacles à curiosité du machine learning et l'intelligence artificielle qui pour faire notamment objet de distraction stratégique et amener les scientifiques à s'intéresser davantage à respecter à spectacularité de machines learning

    31:53

    qu'aux problèmes de sécurité également les régulateurs les investisseurs les politiciens ainsi de suite mais le problème est à mon sens beaucoup plus grave encore quand il s'agit d'algorithmes qui sont contrôlées au contrôlables par des régimes

    32:09

    autoritaires là je pourrais mentionner en particulier le cas de Tik Tok qui est une entreprise chinoise et on sait très bien qu'en Chine les liens entre les entreprises privées dans l'influence notamment de la tech et le gouvernement chinois sont complexes et

    32:26

    opaques on va dire pour utiliser un euphémisme dès lors il faut absolument se méfier de ces scrutants de ces algorithmes parce qu'ils sont complètement opaques pas vérifiables du tout et du coup ce qui ressort de ce scrutin peut en fait ne pas être

    32:41

    représentatif des données qui ont été fournies c'est-à-dire du comportement des utilisateurs et peut être même modifié par loueur de mon chinois en particulier il y a déjà des études assez préoccupantes sur les types de contenu qu'il y a sur Tik Tok lorsqu'on

    32:58

    recherche le mot singe c'est-à-dire cette province des où habite notamment les wigos en Chine ou beaucoup de défenseurs des droits humains suspects fortement des problèmes d'abus graves de

    33:13

    droits humains une dernière chose que je veux dire sur ces algores sur les scrutin qui sont utilisés sur le web c'est que le vote qui est utilisé c'est-à-dire l'expression des consommateurs notamment des utilisateurs notamment authentiques

    33:28

    ça correspond absolument pas à votre réfléchi comme ça peut être davantage le cas notamment quand les quand on va voter à Lyon en démocratie puisque ça correspond beaucoup plus à leur comportement quotidien lequel est peut-être potentiellement déjà quelque

    33:44

    chose de problématique ou en tout cas n'est pas quelque chose de réfléchi donc je parle parfois de mode Zombies c'est à dire que quand je regarde par exemple des images de foot il y a beaucoup de vidéos sur sur Youtube que je regarde en étant fatigué ce sont pas en fait des contenus que je souhaiterais voir recommander à moi-même et encore moins

    34:00

    des contenus que je souhaiterais avoir recommandé à d'autres personnes c'est-à-dire que c'est pas un problème de force nécessairement de consommer ces contenus mais par contre de les voir recommander massivement notamment quand à côté il y a des problèmes beaucoup plus graves d'abus de droits humains ça

    34:15

    devient effectivement vraiment un problème plus généralement ça vient du fait que la manière enfin les votes qui sont pris en compte par ces scrutins ce n'est pas un vote réfléchi c'est vraiment le comportement quotidien des utilisateurs sans qu'ils sachent qui sont en fait en train de voter pour le

    34:30

    comportement de l'algorithme j'espère vous avoir bien expliqué le fonctionnement global de ces algorithmes et en particulier j'espère que vous avez compris en quoi c'est scrutin sont selon moi des enfin c'est l'algorithmes des scrutin en tout cas on peut les voir vraiment comme des scrutins mais des

    34:45

    scrutins très mal sécurisé et extrêmement accable je vais passer maintenant à la troisième partie de cette masterclasse qui va parler d'une proposition de scrutin

    35:03

    beaucoup plus sécurisé pour concevoir des algorithmes de recommandation à savoir la plateforme tourne au sol que j'ai co-fondé parce qu'ils géré par la société tournesol donc je suis le président mais derrière ton tournesol il

    35:18

    y a une énorme équipe enfin une énorme équipe il y a cinq personnes mais il y a des gens extrêmement brillants donc c'est vraiment pas un projet que j'ai pu faire tout seul et en particulier derrière tournesol comme c'est inscritant il y a avant tout des contributeurs qui votent pour quel

    35:33

    contenu devrait davantage être recommandé sur sur toutes sortes de réseaux sociaux de réseaux sociaux mais aujourd'hui on se concentre surtout sur Youtube alors comment concevoir à votre sécurisé ce qui va être important pour moi c'est de vous montrer que les problématiques qui se posent à tournesol ne sont pas spécifiques à notre projet et plus

    35:50

    généralement tout système qu'on essaie de concevoir qui va chercher à gouverner relativement ces algorithmes de recommandation avoir un scrutin juste équitable et sécurisé pour déterminer quelle vidéo devrait être beaucoup plus recommandée à tout le monde

    36:05

    n'importe quelle tentative d'y arriver va être nécessairement confrontée au problème que je vais soulever par la suite et sur lequel on a dû beaucoup travailler chez tournesol le premier de ces problèmes c'est le problème de la certification des votants le problème de la carte électorale finalement qui peut

    36:22

    voter sur tournesol en particulier comment peut-on faire pour être aussi inclusif que possible tout en se protégeant des faux comptes comme on l'a vu sont une activité énorme sur Internet probablement aujourd'hui c'est au moins des millions si ce n'est des milliards de dollars qui sont investis pour pour

    36:40

    produire des faux comptes comment est-ce qu'on se protège de toutes ces attaques tout en étant aussi inclusif que possible la réponse est forcément qui est un compromis entre les deux et qui va falloir trouver des solutions qui ne sont pas aujourd'hui entièrement satisfaisante par manque de dispositif permettant

    36:55

    les comptes sur Internet la solution qu'on propose sur tournesol aujourd'hui c'est surtout qu'on s'y surtout à s'appuyer sur des noms de domaine de confiance donc typiquement des adresses liées à des organisations non gouvernementales de confiance comme à

    37:14

    washop c'est l'organisme mondial de la santé ou par exemple à amnesty.fr et donc ça c'est leur manière de certifier des comptes on a aussi d'autres domaines comme par exemple tout

    37:29

    ce qui est universitaire donc voilà hâte Polytechnique pour réduire à epfl.ch et on est prêt à accepter aussi forcément des entreprises le la clé en fait pour tous ces noms de domaine c'est surtout de vérifier que ces noms de domaine ne

    37:45

    vont pas créer massivement des faux comptes donc ça c'est un des aspects importants et c'est pour ça que des adresses comme admail.com ou ton mail ce genre de domaine ne va pas être

    38:00

    accédé puisque n'importe qui peut facilement créer un compte sur ces sur ces avec ces adresses et du coup pourra créer potentiellement plein de faux comptes surtout au sol alors le problème bien sûr de partir sur ces noms de domaine c'est que c'est un système extrêmement exclusif puisque toute personne qui n'a pas un nom de domaine

    38:15

    dans ces dans ces organisations ne pourra pas participer à priori à ton seul c'est pas vrai pour deux raisons la première c'est que même si vous n'avez pas une adresse certifiée vous pouvez toujours participer à tournesol et vous influencerez en fait les résultats enfin

    38:31

    les recommandations faites par tournesol là où on a une protection en fait c'est plus sur le fait que le vote cumulé pour une vidéo donnée de tous les comptes non certifiés CE nombre de votes cumulé doit pas être trop grand et donc s'il y a trop de gens qui notent une vidéo en

    38:47

    particulier et qui ne sont pas certifiés on va diviser leurs droits de vote à ce moment-là pour empêcher des attaques il y en a beaucoup sur Internet et de base lorsque vous notez une vidéo c'est pris en compte et en fait de base c'est même pris en compte comme un vote d'une personne complètement certifiée vos

    39:03

    votes ont quand même une infante même si vous n'avez pas un compte certifié en plus on sait que l'objectif de tournesol c'est et j'y reviendrai un peu plus tard c'est de motiver la recherche académique sur ces problèmes de gouvernance collaborative des algorithmes en fait on

    39:18

    a vraiment tout intérêt à collecter vos données on a vraiment besoin de vos données et du coup si vous vous fournissez vos données surtout dans le sol vous jugez les vidéos sur tournesol de manière publique et bien vos données entrent dans la base de données publiques qui pourront être utilisés

    39:35

    parigés par les différents académiques et différents chercheurs et donc vous encourager également ce faisant la recherche dans le domaine mais l'autre raison pour laquelle vous pouvez avoir en fait un droit de vote quasiment total sur enfin même total sur tournesol c'est parce qu'on a en plus de cela un système plus inclusif de

    39:52

    certification par parrain en particulier si quelqu'un qui a déjà été certifié partiellement donc la certification est en fait pas binaire mais si quelqu'un a déjà partiellement certifié sur tous nos sols se porte garant pour vous en

    40:08

    sertiant que vous êtes une personne authentique et que vous n'allez pas utiliser plein de faux comptes sur tournesol à ce moment-là vous allez gagner ce qu'on appelle un score de confiance qui vous permettra d'avoir davantage de droits de vote au moment de de voter pour quelle vidéo devrait davantage être recommandée sur tournesol

    40:23

    ou via tournesol puisqu'on a aussi une extension navigateur dans laquelle via laquelle on fait des recommandations sur la page d'accueil YouTube ok donc ça c'est la première chose la deuxième chose c'est que on cherche à sécuriser autant que possible le vote notamment ça

    40:40

    veut dire que on sent bien compte que notre système d'authentification est loin d'être parfait et c'est sans doute assez facile pour quelqu'un de très motivé de créer des faucons un faux compte quelque part qui saura certifié sur tournesol voilà en demandant un ami en faisant passer pour quelqu'un fiable

    40:56

    en volant une adresse email dans un monde de domaine de conférences il faut s'attendre à ce qui est quand même des utilisateurs malveillants sur tournesol du coup il est vraiment critique pour nous de se protéger contre cela alors je vais pas rentrer dans les détails de comment on fait parce que malheureusement ce sont des algorithmes assez sophistiqués en fait qui ont même

    41:12

    pas encore été accepté par la communauté scientifique puisque les articles de recherche qu'on écrit sont encore en phase de soumission et de revues par les pairs mais l'idée globale c'est que chaque personne tire le score d'une vidéo de plus une force qui dépend de

    41:28

    son droit de vote et l'autre chose c'est que ça fait manière les scores d'une vidéo sont plongées donc quelque part dans une vallée parabolique de sorte que quand quelqu'un tire sur le score il doit remonter le score il doit faire remonter la pente à ce score ça

    41:44

    pour conséquence que un utilisateur unique qui a une force seulement limitée il pourra pas tirer le score très haut pour pas le tirer très bas non plus de sorte que l'effet du vote d'un individu et borné et finit il pourra pas

    42:00

    manipuler le score arbitrairement ça veut aussi dire que pour qu'une vidéo est vraiment un bon score il faut que vraiment pas mal de gens se mettent à tirer le score et du coup disent à l'algorithme que cette vidéo est vraiment quelque chose qu'il faut recommander massivement c'est comme ça qu'on se protège des frontes et des

    42:17

    comptes qui des fauconques qui ont réussi à être certifiés en particulier un autre aspect sur lequel tournesol soit de faire beaucoup mieux que les algorithmes aujourd'hui c'est que au lieu de d'utiliser des comportements non réfléchis des utilisateurs comme

    42:33

    j'ai pu en parler dans la partie précédente surtout ça on va vraiment chercher à faire réfléchir l'utilisateur à lui faire vraiment poser la question vraiment fondamentale pour l'algorithme recommandation à savoir entre deux contenus lequel devrait davantage être recommandé devrait vraiment davantage

    42:50

    être mis dans la page d'accueil de YouTube lorsque l'on utilisateur utilise par exemple une navigateur l'extension tournesol pour navigateur ce qui est intéressant de voir avec cette question extrêmement concrète que ce qui est au final la question que ce qu'il faut se poser d'un point de vue éthique c'est que doit faire l'algorithme en pratique

    43:06

    pour répondre à cette question il va être nécessaire vraiment sur tournesol le comparer toutes sortes de contenu y compris des contenus qui parlent le sujet très différents et ça ça revient à une problématique plus générale qui est le fait que les algorithmes de recommandation font de la priorisation de l'information vraiment ils disent à

    43:22

    ce qu'il faut entendre davantage parler de ça plutôt que de ça et ce problème d'appoint priorisation d'information si vous suivez un petit peu tout ce qui défendent les droits humains ou tous ceux qui défendent la cause climatique vous rendez compte que c'est vraiment au cœur de leur préoccupation à savoir

    43:39

    est-ce qu'on va parler davantage de ces problèmes de ce qui se passe aujourd'hui en Iran de ce qui se passe aujourd'hui au Pakistan que de sujets de moindre importance comme par exemple le football même si le football a une certaine

    43:54

    importance elles sont doute moindre que ces enjeux géopolitiques et qui menacent des millions de vie du coup surtout un seul je vous invite vraiment à non seulement comparer des contenus qui parlent du même sujet parce que c'est intéressant de savoir entre deux vidéos qui parlent le changement climatique laquelle on parle le mieux de façon plus

    44:09

    juste de façon plus claire de façon plus pédagogique avec un angle peut-être plus important mais c'est également important de comparer des contenus qui parlent de sujets complètement différents et c'est une problématique qui me semble en fait beaucoup plus générale que que le cas particulier de tournesol qui est

    44:25

    vraiment un problème de priorisation de l'information et de l'attention en particulier global dans nos sociétés un autre aspect sur lequel tournesol fait à mon sens clairement beaucoup mieux que n'importe quel autre alternative que je connais en tout cas qui est qui existe

    44:42

    c'est au niveau de la transparence la plupart des scrutants c'est un des algorithmes recommandations aujourd'hui sont extrêmement opaques notamment à cause de problèmes de rgpd mais pas que bien sûr mais bien sûr le problème de la RGP c'est que c'est difficile de

    44:58

    combiner données personnelles et influence sur des algorithmes surtout si on prend comme influence comme comme Vulcain de vote des utilisateurs leur comportement authentique et qui est forcément une donnée personnelle sensible sur sur ces plateformes contrairement à tout ça sur ton seul on

    45:14

    a un effort énorme de transparence à tous les échelons à la fois sur la conception globale de la plateforme sur la gouvernance de la plateforme dont on parle régulièrement sur notre discorde également sur les données qu'on utilise puisqu'on encourage autant que possible aux

    45:30

    utilisateurs à fournir des comparaisons de vidéos de manière publique pour que ça rentre dans une base de données publiques pour que ça soit ensuite audit et réutilisable notamment par des chercheurs permet également quand même des des votes secrets parce que ça peut être parfois compliqué de critiquer

    45:45

    notamment un régime autoritaire donc je pense que c'est ça reste important qui est une certaine protection de certaines données sensibles mais autant que possible on encourage vraiment la transparence et on essaie de communiquer autant que possible de vulgariser autant

    46:00

    que possible les algorithmes que l'on a derrière et de vous expliquer autant que possible de rentrer autant dans les détails et surtout de prouver des théorèmes de sécurité autour de ces algorithmes qui seront vérifiables dans les preuves sont vérifiables par la communauté scientifique je pense que c'est quelque chose qu'il est urgent d'exiger de tout les scrutins qui sont

    46:17

    utilisés sur Internet c'est à dire tous les algorithmes de recommandation et enfin l'objectif dont j'ai déjà un peu parlé mais sur lesquels j'aimerais insister dans cette masterclass des algorithmes de tournesol et de toute la plateforme qui a été développée c'est de

    46:32

    faciliter et d'encourager beaucoup plus la recherche en sécurité et en éthique de tout ce qui est à voir avec l'information de façon plus générale et pas juste des algorithmes de recommandation aujourd'hui c'est un problème absolument critique pour se rendre compte de l'ampleur du problème il y a un

    46:47

    excellent article qui fait une comparaison article scientifique qui a été accepté qui fait la comparaison entre big Tobago donc tout l'industrie du tabac Philippe Maurice et les autres et Big tech selon cet article aujourd'hui big

    47:03

    Tech est beaucoup plus dangereux que Big tobako comme j'ai dit big même si des millions peut-être des dizaines de millions enfin exactement les chiffres tu es beaucoup beaucoup de vie également bixel qui est en train de menacer toute les démocraties et donc là on parle et

    47:19

    le bien-être et la sécurité de beaucoup plus de gens encore donc là potentiellement on parle d'un problème beaucoup plus grave pourtant big take aujourd'hui est beaucoup plus infiltré dans le monde accueil académique que bitobacco il contrôle beaucoup plus il y a des financements il y a des

    47:35

    stages proposés via des partenariats des collaborations avec le monde académique ils ont beaucoup plus influences sur l'attention en particulier des chercheurs qui vont beaucoup plus s'intéresser naturellement à des algorithmes très performants

    47:50

    qu'aux problèmes de cybersécurité qui mettent en vie des vies en danger c'est assez similaire avec le cas de bito ACO qui va s'intéresser qui va chercher à détourner l'attention de beaucoup de scientifiques pour qu'il s'intéressent beaucoup plus par exemple à des problèmes d'autres sources par exemple

    48:07

    potentielles du cancer quel effet directe du tabac sur le cancer on a des stratégies en fait assez similaires sauf que bifteck et encore une fois beaucoup plus infiltré il y avait des estimations qui autour de dans les pires heures de bitovaco il y avait peut-être 15% des personnes dans le monde Academy qui

    48:22

    d'une manière d'une autre était un peu corrompu par ou de cas financer par directement indirectement par bitobacco là dans le monde de Big tech aujourd'hui en gros la quasi-totalité des chercheurs ont quelque part un partenariat un financement direct avec avec une

    48:39

    entreprise de Big tech parfois de conséquence la recherche sur la sécurité et l'éthique dans le monde académique en informatique et aujourd'hui quasiment négligeable par rapport à tout ce qui est fait dans la recherche en informatique c'est extrêmement grave et c'est extrêmement dangereux c'est un peu

    48:56

    comme si lorsqu'on développait un nouvel avion sauf que là c'est encore une fois on part de choses beaucoup plus dangereux à mon sens qu'un avion mais c'est comme si lorsqu'on développait un avion on se posait d'abord les questions de performance à savoir est-ce que l'avion vole vite plutôt que les problèmes de sécurité qu'il y a autour

    49:12

    de la conception d'un avion qui sont aujourd'hui devenus extrêmement importants avec des investissements énormes on parle de 2 milliards de dollars pour chaque avion avec des audits énormes et des conséquences énormes à chaque fois qu'il y ait un accident dans le domaine de la version notamment publique je pense que l'un des

    49:27

    gros enjeux aujourd'hui c'est de changer un peu ses habitudes et de faire en sorte que la sécurité elliptique soit beaucoup plus valorisée que les chercheurs du milieu valorisent beaucoup plus cela s'intéresse beaucoup plus à ça donne beaucoup plus attention à cela encourage beaucoup plus sa publication de tels contenus valorise les chercheurs du

    49:44

    domaine au moment de recrutement et ainsi de suite ceci clos cette troisième partie qui parlait de tournesol et de tous les enjeux derrière la conception d'algorithmes sécurisé éthique et

    50:02

    notamment gouverner de manière collaborative et je viens maintenant venir à la conclusion qui que vous allez voir est un peu longue mais qui est notamment parce qu'il s'agit pas mal d'un appel à l'action parce que sur ces questions du numérique trop souvent on a tendance à s'indigner sans proposer vraiment de manière de vraiment avancer

    50:19

    de manière constructive notamment pour améliorer la qualité informationnelle sur sur Internet et pour éviter un effondrement informationnel qui est déjà malheureusement bien en route quand on a pu observer dans le cas du covid dans le cas des émeutes du Capitole dans le cas

    50:35

    de la reprise de Twitter par un milliardaire américain et ainsi de suite alors vous pouvez aider chacun d'entre vous et j'appelle vraiment à chacun d'entre vous à réfléchir à s'il ne faudrait pas que vous consacrer

    50:50

    davantage de temps à justement aider la cause pour des algorithmes beaucoup plus éthiques sécurisés et et gouverner de manière démocratique notamment sur internet alors vous pouvez aider comment la première chose simple c'est que si

    51:06

    vous regardez cette vidéo pourquoi le moment vous consommez pas mal de contenu audiovisuel probablement beaucoup de continuer audiovisuels de qualité et du coup on a absolument besoin de vous pour savoir quels sont ces contenus de qualité du coup je vous invite à prendre

    51:21

    le temps d'analyser les vidéos que vous avez observées d'aller créer un compte sur tournesol de choisir ses vidéos que vous avez vu qui vous ont particulièrement marqué et de les comparer de faire des jugements sur tournesol en nous disant à chaque fois pour chaque paire de vidéos que vous

    51:38

    avez regardées laquelle devrait davantage être recommandée par l'algorithme de tournesol laquelle devrait être mis dans ce carré dans ces rectangle jaune ou sont faites les recommandations de tournesol sur le la page d'accueil de YouTube lorsque les gens utilisent l'extension de tournesol

    51:53

    pense que dans ce rectangle il faut qu'il y ait davantage de sujets qui parlent le changement climatique des abus des droits humains de comment mieux réfléchir comment améliorer l'esprit critique et la réflexion autour des contenus informationnels et ainsi de

    52:09

    suite le deuxième aspect sur lequel vous pouvez aider c'est promouvoir la plateforme auprès notamment de vos amis auprès des médias auprès des politiciens auprès des radiateurs auprès des scientifiques auprès des ingénieurs il y a énormément

    52:25

    de travail à faire autour de tournesol et pour que tout au sol est davantage ce démontage mieux conçu pour qu'il y ait davantage de recommandations de qualité pour qu'il soit davantage digne de confiance il faut absolument qu'il y ait

    52:40

    beaucoup plus de gens qui utilisent tournesol qui aident tournesol qui aide à concevoir ton sol et ainsi de suite donc tout ce que vous pouvez faire c'est inviter vos amis à utiliser tout seul parler à vos amis du projet du problème plus des algorithmes de recommandation et de leurs conception et partager des

    52:57

    liens à chaque fois qui parlent le tournesol donc typiquement des choses que vous pouvez faire c'est que si au lieu de partager un lien youtube vers une vidéo de qualité sur vos réseaux sociaux ou sur vous applications de messagerie au lieu de mettre le lien youtube vous pouvez mettre le lien

    53:13

    tournesol associé à cette vidéo il suffit de chercher la vidéo sur ton sol vous cliquez sur la vidéo ça vous fait un lien vous pouvez le partager et donc indirectement ça promouvra le fait d'utiliser le tournesol et en particulier le score tournesol sera

    53:29

    affiché ce qui prouvera la réflexion sur la qualité des contenus recommandés en troisième lieu la chose que vous pouvez faire c'est faire des dons notamment financiers ou nous aider à faire des appels à projets à répondre à des appels

    53:44

    à projets chercher des financements ou encore si vous êtes développeur vous pouvez contribuer au code Open Source en licence libre de tournesol donc GPL la base de données était en licence qui est encore plus libre qui est

    54:01

    réutilisable à des fins commerciales donc voilà je vous intéresse je vous invite à vous intéresser à tout ça notamment par exemple une façon de promouvoir ton osseuse c'est si vous êtes étudiant ou chercheur en machine learning vous pouvez utiliser la base de données de tournesol comme base de données à étudier trouver des choses des

    54:18

    corrélations intéressantes ou encore à entraîner des algorithmes à partir de cette base de données en quatrième point si vous êtes encore plus motivé vous pouvez rejoindre le discord de tournesol pour vraiment aider à concevoir la plateforme ou à répondre à aider à

    54:35

    organiser la communauté qui veut s'intéresser à ces problèmes il faut se rendre compte qu'aujourd'hui tournesol c'est encore très petit aujourd'hui on a un seul employé à 80% et le reste c'est des bénévoles donc moi même je suis bénévole de l'association président et

    54:50

    je travaille à titre bénévole pour le développement de la plateforme et malheureusement beaucoup de gens sont très occupés malheureusement un tournesol par d'autres choses que tournesol et du coup on manque vraiment de temps et de main d'oeuvre pour mener à bien toutes sortes de projets donc si

    55:07

    vous avez vraiment la motivation pour vous impliquer davantage vous êtes plus que les bienvenus voilà pour répondre aux questions des utilisateurs voire pour organiser toutes sortes de l'événements parce que j'appelle les scientifiques parmi vous à s'impliquer dans ton tournesol on a on essaie d'organiser régulièrement des tocs des

    55:23

    présentations pour avoir Federer une communauté de chercheurs autour de ce projet et si vous ça vous intéresse n'hésitez pas à me contacter pour essayer soit de donner une présentation soit pour assister et encourager du coup la participation à ce genre de

    55:41

    d'échanges académiques enfin la dernière chose que vous pouvez faire qui est la plus simple c'est simplement de consommer tournesol et de consommer plus généralement des contenus de qualité et ça vous pouvez le faire notamment en téléchargeant l'extension de navigateur tournesol pour

    55:56

    qu'il existe pour Firefox et pour Chrome avec lequel vous aurez des recommandations bientôt on espère développer des fonctionnalités pour vous permettre de faire directement des comparaisons de vidéos via l'extension donc directement sur des pages YouTube après avoir vu une vidéo typiquement

    56:13

    voilà donc il y a beaucoup de choses à développer mais il y a aussi beaucoup de choses à consommer et on pense que consommer ces contenus peut aussi améliorer tout simplement la qualité informatique nationale et donc le niveau épistémique des des

    56:29

    différentes consommateurs pour ensuite essayer de mieux attirer notamment l'attention des gens vers les problèmes qui nous semblent être les plus urgents à résoudre pour la sécurité et le bien-être de la population [Musique]

    56:57

    [Musique]