🚀 Add to Chrome – It’s Free - YouTube Summarizer
Category: Tech Ethics
Tags: algorithmsethicsrecommendationsecuritysocial media
Entities: FacebookInstagramKelly CARPALes NguenoangRohingyasTigréTournesolYandexYouTube
00:00
bonjour et bienvenue pour cette masterclass de Blast donc je me présente je m'appelle les nguenoang donc j'ai longtemps été chercheur en mathématiques appliqué et en particulier en sécurité d'intelligence artificielle également en théorie des jeux et en théorie des scrutin maintenant je suis président de
00:16
PDG de l'entreprise startup Kelly CARPA qui fait de la cybersécurité et également président de l'association tournesol qui développe une plateforme pour concevoir des algorithmes de recommandation notamment de manière sécurisée et collaborative aujourd'hui
00:33
on va parler pas mal des algorithmes de recommandation en premier lieu on va parler du de la menace existentielle que représente aujourd'hui les algues de recommandation qui me semblent très gravement sous-estimé par à la fois les chercheurs le grand public et les
00:48
politiciens et je vais affirmer en particulier que le futur de démocratie et de du monde de façon générale dépend pas mal de ce que ces algorithmes amplifient à très grande échelle ensuite dans une seconde partie on parlera la conception des algorithmes qui sont
01:04
derrière ces recommandations et on va voir en particulier que ces algorithmes sont une forme moderne de scrutant qui n'est absolument pas sécurisé ou en tout cas très mal sécurisé et ça ça a conduit à beaucoup de d'amplification de la désinformation notamment par des campagnes de propagande par des fermes
01:22
de troll et en particulier ça a conduit à une montée de la désinformation et des appels à la haine en ligne qui met en danger des millions de vie à travers le monde enfin en troisième partie on va parler d'une solution sur laquelle on travaille qui est donc l'application
01:39
tournesol et plutôt que de parler uniquement de des problèmes spécifiques de tournesol je vais insister sur les défis plus généraux qui se posent lorsqu'on essaie de concevoir une plateforme collaborative pour concevoir des algorithmes de manière démocratique et en particulier tous les enjeux de
01:55
sécurité ou tous les compromis entre inclusivité et sécurité qui s'oppose dans la conception de telles plateformes je vais appeler chacun d'entre vous a essayé de contribuer au développement de cette plateforme soit directement en étant chercheur par exemple en
02:10
travaillant sur les questions de recherche qui se posent sur sur le sol soit à travers des contributions directes à la plateforme puisque la plateforme étant finalement un scrutin lui-même l'un des gros enjeux et d'avoir des personnes qui participent aux scrutin et donc plus il y en a parmi
02:27
vous qui voteront mieux seront les recommandations faites par par l'algorithme et enfin il y a d'autres manières plus indirecte de participer et que ça soit par des donations notamment financières mais également tout simplement par la promotion de la plateforme voilà
02:44
un grand programme je vous propose de commencer en parlant d'abord des algorithmes de recommandation et de l'enjeu qui représente aujourd'hui pour nos sociétés
03:00
qu'il vaut mieux voir c'est que sur beaucoup de plateformes les algorithmes de recommandations ont pris une ampleur énorme donc que font ces algorithmes de recommandation essentiellement à chaque fois que vous ouvrez votre téléphone que vous appuyez sur une application de réseaux social notamment YouTube TikTok
03:15
Twitter ou Facebook ou Instagram le contenu qui vous va vous être montré est un contenu qui a été sélectionné par un algorithme qui sont aujourd'hui enfin ce sont vraiment les algorithmes les plus sophistiqués qu'il y a au monde du salaire sur nos algorithmes beaucoup plus sophistiqués que les chatbots comme
03:31
4gpt dont on entend beaucoup parler ce qu'il faut bien voir c'est que ces algorithmes de langage aujourd'hui et ils n'ont pas de d'applications très concrètes en tout cas ils n'ont pas de rentabilité à court terme alors que les algorithmes de recommandation non seulement la recommandation de contenu mais également de recommandations de
03:47
publicité donc on parle aussi de publicité ciblée ces algorithmes représentent un business qui est qui se chiffre à des centaines de milliards de dollars par an sachant cela il faut pas être sur ici on apprend que littéralement des dizaines de milliards
04:03
au moins de dollars par an sont investis dont l'optimisation la construction et l'optimisation de telles algorithmes ces algues sont vraiment très sophistiqués ils apprennent vraiment le font du profilage ils apprennent vraiment les comportements de milliards d'utilisateurs ils sont capables d'anticiper énormément ce sur quoi tel
04:20
ou tel utilisateur à davantage de chances de cliquer donc il y a vraiment tout un travail au niveau de la surveillance des utilisateurs mais il y a également tout un travail d'analyse des contenus à recommander donc ces algorithmes sont vraiment très sophistiqués ils sont également très influents ce qu'on peut voir c'est que sur la plupart des plateformes par
04:36
exemple prendre le cas de YouTube le nombre de vues que à faire une vidéo et vraiment directement liée beaucoup plus au nombre de fois qu'il est recommandé par l'algorithme qu'à son caractère clickbait c'est à dire à quel point les gens ont tendance à cliquer dessus je suis moi-même youtubeur et j'ai accès
04:53
aux statistiques de ma chaîne mais ce qu'on peut voir c'est que le ce qu'on appelle le clics donc le nombre de fois que les gens cliquent lorsqu'on leur propose une vidéo ce clique sous rate la fréquence à laquelle les gens cliquent il varient pas énormément il varie ils peuvent
05:08
varier d'un facteur 10 entre une vidéo qui est très clip Betty avec qui donne vraiment envie d'être cliqué et une vidéo qui est un peu plus sobre et moins attirante il y a peut-être un facteur 10 mais c'est rare qui est un facteur une variation beaucoup plus grande généralement ça
05:24
varie entre quelques pourcents 2% de clics ah peut-être 20% mais vraiment 20% c'est énorme donc il y a peut-être un facteur 10 peut-être facteur 20 maximum alors que le nombre de recommandations lui par contre varie d'un facteur
05:39
facilement un million voire voire beaucoup plus ainsi si une vidéo fait des millions de vues ce n'est pas tant parce que les gens on clique à chaque fois dessus à chaque fois qu'il est recommandé c'est davantage parce que la vidéo a été recommandée des dizaines de millions voire peut-être même des
05:55
centaines de millions de fois donc ce qui fait que les gens regardent tel plutôt que telle autre contenu ce qui fait qu'ils vont s'intéresser davantage au dernier clash qu'il y a sur les réseaux sociaux à la dernière chose énervante ou sensationnaliste plutôt que
06:12
à des sujets beaucoup plus importants comme par exemple je sais pas le changement climatique la BU des droits humains ou autre ce n'est pas tant le fait que les gens qui davantage sur un contenu sur l'autre ça joue bien sûr mais surtout beaucoup plus ce qui va jouer c'est le nombre de fois que l'algorithme recommande tel contenu
06:28
plutôt que tel autre et il se trouve que de façon empirique on observe que notamment c'est ce qui a été révélé à travers les Facebook files révélés Francesco gun aussi employé de Facebook ce qui a été révélé c'est que cet
06:44
algorithme est à des biais énormes en faveur du sensationnalisme à tel point qu'il modifie et j'y reviendrai le comportement des créateurs de contenu et alors en quoi c'est un problème donc j'ai parlé un petit peu du problème de priorisation d'information il y a déjà des problèmes individuels qui sont un peu les problèmes les plus évident donc
07:00
on peut imaginer typiquement que quelqu'un qui a déjà des problèmes de d'addiction par exemple à certains produits pensez aux jeux d'argent peut penser à l'alcool ou autre de telles personnes si elles se font recommander de façon répétée des
07:15
contenus qui les poussent à ce genre d'addiction forcément elles vont se retrouver dans un état émotionnel difficile surtout si elle cherche à activement à lutter contre ces addictions de façon plus générale il y a eu beaucoup d'études qui lient les consommations de contenu sur
07:32
Instagram notamment mais sur différents médias de façon générale à des problèmes de dépression donc sur Instagram en particulier chez les adolescentes il y a des problèmes très graves soulevés d'augmentation par exemple de dépression
07:47
voire de suicide auprès des adolescentes là on a un cas où finalement de l'algorithme en faisant tel ou telle recommandation mais des vies en danger et en fait là on parle même de centaines de milliers de vie voire de millions de vie donc de ce problème et énorme et c'est des
08:03
problèmes individuels très graves en plus de ça comme j’avais déjà un peu mentionné il y a le problème de des incitatifs que cela crée pour les créateurs de contenu donc moi je suis moi-même un créateur de contenu donc j'ai subi cela d'une certaine manière je vois très bien que quand un contenu fait beaucoup de vues ça m'incite à
08:19
reproduire ce genre de contenu notamment l'interface de YouTube pousse beaucoup à s'intéresser aux statistiques des des vidéos produites c'est encore plus le cas pour ceux qui sont financièrement dépendants des des contenus qu'il produisent donc tous les youtubeurs qui
08:36
vivent de leur création toutes les tous les médias tous les créateurs de contenu qui vivent vraiment de leur contenu produit vont forcément être influencés par le type de contenu qui qui est populaire sur la plateforme qu'ils utilisent et ça on l'a beaucoup
08:53
vu dans le cas des Facebook file qui révèle notamment que BuzzFeed avait écrit des messages à Facebook se plaignant de l'impact négatif de l'algorith de recommandation non seulement sur ceux qui étaient promus mais également sur les incidatifs que
09:10
cela conduisait pour créer pour pour l'entreprise rapporté notamment que cela les avait poussé à faire des contenus beaucoup plus clivant à parler beaucoup plus de choses énervantes divisante alors que les contenus qui faisaient sur le
09:26
bien-être notamment le bien-être animal était beaucoup moins vu et du coup BuzzFeed naturellement produit moins de ses contenus en tout cas investi beaucoup moins dans la création de tels contenus ça c'est un aspect très important les algorithmes de recommandations modifient
09:43
l'offre informationnelle sur les différentes plateformes et on peut imaginer que cela ne se restreint pas à la plateforme elle-même puisqu'il y a de la porosité entre différents médias sur ce qui est produit sur Youtube et discuter sur Twitter voir à la télévision et ce qui produit à la
09:58
télévision et ensuite discuter sur Twitter sur Youtube et sur Tik Tok et donc on a un paysage médiatique qui est peut-être anciennement complètement modifiée par ses algorithmes de recommandation de manière indirecte le risque étant que un média qui ne s'adapte pas finissent par par couler puisque
10:15
produire des contenus c'est une activité économique qui est malheureusement qui malheureusement enfin qui coûte cher donc ça c'est un problème très très important les incitatifs et ils ne vont pas uniquement au niveau des créateurs de contenu il s'applique également aux politiques et Facebook phases rapportent
10:31
que les politiciens européens avaient écrit à Facebook en leur disant que il y a une guerre de l'information permanente entre politiciens à travers tous les médias y compris les réseaux sociaux et que pour gagner cette guerre de l'attention ils étaient obligés de se
10:46
conformer à l'algorithme c'est à dire aborder eux-mêmes des contenus plus clivants donc là on voit bien que les algorithmes recommandations ils vraiment ils ont vraiment une portée géopolitique majeure je suis ici aujourd'hui parce que je crois que les produits de facebook nuisent aux enfants attisent les
11:03
divisions affaiblissent notre démocratie et bien plus encore les dirigeants de l'entreprise savent comment rendre Facebook et Instagram plus sûr mais il ne feront pas les changements nécessaires parce qu'ils font passer leurs immenses profits avant les gens ce
11:18
sur quoi j'ai envie d'insister c'est le fait que cette portée et du coup pas limitée à un problème individuel je pense que trop souvent quand on pense à ces algorithmes recommandations on ramène le problème à notre interaction avec l'algorithme de recommandation c'est une grave erreur
11:34
c'est une grave erreur et j'en prends pour exemple le cas des recommandations faites par yendex qui est un peu le Google russe à 30 millions de Russes pendant le début de l'invasion ukrainienne en février 2014 2022 donc
11:49
l'ancien directeur de la branche actualités de Yandex c'était plein lui-même et avait ces anciens collègues les suppliant de faire quelque chose à propos de cela parce que ce qui était recommandé à 30 millions de Russes c'est le nombre d'utilisateurs de index était
12:06
en fait en train de mettre en danger 40 millions de vies ukrainiennes là on voit bien que les 40 millions de vies ukrainiennes elles sont infectées en fait indirectement par l'algorithme de recommandation de Yandex alors que eux-mêmes ne consomme pas ses contenus ce problème est pas du tout limité au cas de la Russie et de l'Ukraine sur des
12:23
problèmes comme par exemple le changement climatique ce qui est recommandé massivement à 300 millions de consommateurs américains aujourd'hui ou à des milliards d'utilisateurs chinois notamment si ça épouse à consommer des SUV de la viande ou des produits
12:38
polluants tout ceci va mettre en danger des millions de vies à travers le monde dans des pays potentiellement très différents au Pakistan ou à Madagascar qui souffrent des conséquences avérées du changement climatique donc le problème n'est absolument pas individuel
12:55
et il est encore plus atroce dans les cas où il y a un des appels à la guerre là j'ai envie de mentionner le cas du Myanmar qui a été reconnu non seulement par les organisations des Nations Unies mais également par Amnesty internationale
13:11
dans ces organisations reconnues le rôle très complice de Facebook dans les appels à la haine et au génocide envers les communautés donc des Rohingyas au myélmar qui est une communauté musulmane
13:27
à l'ouest nord-ouest de de du Myanmar et du Tigré qui est une communauté au nord de l'Éthiopie donc dans le cas du Myanmar on parle de dizaines de milliers de morts et de presque un million de
13:43
réfugiés autour de 700 000 réfugiés des près d'un million de vie qui sont bouleversés à cause de l'amplification massive de la haine via les algorithmes de recommandations notamment de Facebook qui ont été reconnus dès 2017 et depuis
14:00
2017 les efforts faits pour contrer cette cet appel à la haine ont été très très insuffisants et dans le cas du Tigré on parle certains chiffres émotionnels au moins un demi-million de de morts donc l'ampleur de ce conflit est vraiment
14:16
atroce avec aussi toutes sortes de crimes de guerre qui qui sont suivis sur lesquels je ne vais pas m'attarder même s'il y aurait beaucoup de choses graves à dire enfin un dernier aspect important que j'aimerais mentionner c'est le problème de l'inattention je pense que
14:33
très souvent quand on pense aux algorithmes de recommandation on pense beaucoup à l'amplification de tout ce qui va mal des informations à la haine mais il y a un problème qui à mon sens est plus grave encore c'est le problème de l'inattention à des problèmes pourtant très
15:18
[Musique]
15:49
devenir manque du coup d’investissement dans la sécurité et enfin un autre problème que je pourrais mentionner c'est le problème dont on parle aujourd'hui dans cette masterclass à savoir le prendre des algorithmes de recommandation dès qu'on 4G PPT pardon et beaucoup plus discuté par les médias que ce problème des algorithmes de recommandation alors
16:05
qu'ils algorithmes recommandation à mon sens que menace des millions de vies et la stabilité des démocraties à travers le monde ce qui me semble beaucoup plus grave que que les prouesses sont dans tes capables tu as des pété plus vraiment donc c'est une attention aux souffrances humaines et en particulier
16:21
le travail d’empathie qui serait nécessaire pour appeler à la paix c'est quelque chose qui est sous valorisé par les algorithmes de recommandation qui n'est pas amplifiée et par conséquent il y a un grand risque que le monde globalement manque d'empathie envers les
16:36
les populations souffrantes et que du coup cela empêche l'aide à ces communautés j'espère vous avoir convaincu que les algorithmes de recommandation posent un problème et son pot entiellement une menace existentielle plus encore dans le cas d'algorito
16:53
recommandation et qui sont contrôlés par des puissances auto-agarres sur lesquels je reviendrai et j'espère que cette première partie vous pousse à donner plus d'attention à ce problème à vous informer davantage sur tous les problèmes que ça pose également sur les solutions qui existent à lutter contre
17:16
on va passer maintenant à la deuxième partie on va parler davantage des algorithmes qui sont derrière ces recommandations et qui posent tant de problèmes à leur nature et pourquoi est-ce qu'il pose aujourd'hui problème ces algorithmes aujourd'hui comme je l'ai dit ces algorithmes parmi les plus
17:31
sophistiqués qu'il y a au monde donc l'algorithme de youtube il faut bien se rendre compte que il analyse 500 heures de vidéo par minute parce que c'est le nombre d'heures mises en ligne en fait c'est chiffre de 2019 aujourd'hui ce chiffre encore sans doute augmenté même si malheureusement je suis pas capable
17:48
de vous donner un chiffre plus précis puisque Google ne communique pas dessus ce chiffre donne déjà l'ampleur de la tâche qui est qui doit être résolue par ces algorithmes de recommandation à savoir comprendre quelles sont tous ces contenus mis en
18:03
ligne pour essayer de déterminer lesquels doivent être davantage recommandées ces algorithmes analysent aussi le comportement de milliards d'utilisateurs donc faut bien se rendre compte qu'aujourd'hui pour faire ça on a vraiment besoin des outils les plus sophistiqués d'une certaine manière c'est un problème c'est le problème de sciences sociales
18:19
en tout cas des problèmes les plus difficiles de sciences sociales et pour lequel on a beaucoup de données ou plutôt les entreprises privées ont beaucoup de données auxquelles les chercheurs n'ont malheureusement pas accès et donc avec toutes ces données forcément des algorithmes extrêmement sophistiqués ont été conçus qui font de l'analyse d'image qui font de la
18:35
compréhension de texte qui font de l'analyse du profilage d'utilisateur vraiment beaucoup de choses très sophistiquées ces algorithmes sont malheureusement je vais pas pouvoir les expliquer puisque moi-même je les connais pas ils sont extrêmement opaque ceci étant on peut donner des idées globales de comment fonctionne ces algorithmes puisque très probablement
18:51
ils suivent les principes de base qui ont été établis par la recherche scientifique et donc le principe de base de ces algodes c'est c'est très clairement ce sont des algorithmes dit de machines learning donc d'apprentissage machine en français quels sont ces algorithmes de machine
19:06
learning bien ce sont des algorithmes qui apprennent littéralement ce sont des algorithmes qui apprennent et ils apprennent de quoi ils apprennent des données qui leur fourni pour faire cet entraînement malheureusement il se trouve que on a observé empiriquement que plus un algorithme a de données plus
19:24
il est performant et donc il est très tentant pour ces entreprises de fournir un maximum de données assez algorithmes pour qu'ils apprennent autant que possible et pour qu'ils soient aussi spectaculaire que possible et c'est ce qui est fait pas mal en pratique notamment dans le cas des
19:39
algorithmes de langage ou des applications comme j'ai pété 3 chat GPT palme de Google blenderbots de méta tous ces algorithmes sont conçus souvent en apprenant à partir de données massives du web donc typiquement des pages Web
19:55
qui sont téléchargées à gauche à droite des conversations sur des réseaux sociaux publics ou semi-publique comme comme Reddit tout Twitter et à partir de toutes ces données ces algorithmes vont apprendre mais ce qu'il faut bien voir c'est que l'apprentissage consiste à
20:10
généraliser ces données d'entraînement c'est à dire que un algorithme qui apprend de toutes ces chercher à parler de la même manière que les gens parlent sur ces données d'entraînements c'est à dire sur Twitter sur Reddit ou sur le Web de façon générale et ça ça pose clairement un
20:26
énorme problème puisque des algorithmes lorsqu'on les lance sur des sujets clivants sur lequel l'opinion la plus répandue sur Internet est un appel à la haine ou une désinformation il faut s'attendre à ce que ces algorithmes
20:42
répliquent ce genre de comportement et ça on l'a observé dans le cas notamment de GPT 3 donc l'algorithme développé par l'entreprise openéi ils sont capables d'anticiper énormément ce sur quoi tel ou tel utilisateur a davantage de chances de cliquer donc il y a vraiment
20:57
tout un travail au niveau de la surveillance des utilisateurs mais il y a également tout un travail d'analyse des contenus à recommander à chaque fois qu'on lançait j'ai pété 3 sur des histoires de musulmans commencer une phrase en parlant de musulmans cet algorithme fait de l'autocomplétion et
21:13
il faisait comp la phrase en parlant systématiquement de terrorisme ou au moins de meurtres donc là on observe un biasystémique systématique pardon dans cette dans cet algorithme qui est lié à un biais systémique dans l'organisation
21:29
du web c'est un cas qui est très intéressant parce qu'il est très spectaculaire et donc il permet d'attirer pas mal d'attention on a observé des efforts de 4gpt de corriger enfin de Opena de corriger un peu GPT 3 avec un nouvel algorithme péter qui consiste en gros à demander à des
21:45
reviews humains de dire à l'algorithme un peu plus à ce que tu as dit là c'est pas bien là c'est c'est davantage ce qu'il faut dire ça a corrigé une partie des problèmes mais vraiment pas du tout le cœur du problème il arrive très souvent que cet algorithme produise du contenu extrêmement raciste ou des
22:02
appels à la haine mais ce qu'il faut voir c'est que ces applications qui sont très spectaculaires qui attire beaucoup l'attention en fait sont assez négligeables de certains manière parce que leur impact géopolitique est beaucoup moins de d'autres algorithmes beaucoup plus bourgeois à mon sens à savoir les algorithmes de recommandation
22:18
et c'est même problème qu'on a pour draguer de langage ils existent également pour les algorithmes de recommandation qui vont amplifier et recommander davantage les contenus qui semblent plus populaires à leurs yeux donc typiquement les contenus qui sont beaucoup plus laqués beaucoup plus
22:33
regardées beaucoup plus commenté sur sur ces plateformes titoque Youtube et Twitter sont des contenus que l'algorithme de recommandation va beaucoup plus amplifier y compris quand ces contenus sont haineux ou racistes et ça c'est un problème beaucoup plus
22:49
dangereux puisque dans le cas du bien de mer on a vu que ça a conduisait même à un génocide d’après en tout cas ça ça a beaucoup contribué je me suis d'après l'Organisation des Nations Unies et Amnesty International encore une fois donc on a là un problème vraiment grave
23:04
et on peut se demander pourquoi est-ce que l'algorithme amplifie ces tel contenu la réponse vient encore une fois de ces données d'entraînement puisque en machine learning en apprentissage machine l'algorithme général généralise ces données d'entraînement en fait d'une certaine manière ce qu'il faut voir c'est que ces données d'entraînement
23:20
c'est ce qui permettent de concevoir l'algorithme et d'une certaine manière lorsque quelqu'un produit de tel contenu parce que quelqu'un dit regarde un contenu like un contenu ou comment un contenu c'est exactement comme si il votait pour que ce contenu soit
23:36
davantage amplifié par l'algorithme de recommandation je pense que c'est quelque chose qui est que beaucoup de gens comprennent qu'on utilise ces contenus en tout cas dans les commentaires que j'ai sur Youtube j'ai régulièrement des commentaires qui mettent un commentaire d'une certaine manière artificielle ou fabriquée ou non
23:53
authentique pour encourager l'algorithme de recommandation à recommander davantage le contenu qu'il venait de visionner bien ce travail qui est fait par mes abonnés sur ma chaîne il faut se rendre compte qu'il est fait de façon beaucoup plus massive encore par les campagnes de désinformation qui vont
24:08
ainsi amplifier des contenus potentiellement nuisibles voire dangereux pour les démocraties ou pour la sécurité notamment dans le cadre du cyber-harcèlement l'observe beaucoup c'est pour la sécurité notamment des créateurs de contenu encore plus quand on s'écrit de créatrices qui
24:24
commençaient sont beaucoup plus exposés à ce genre d'attaque dangereuses sur Internet l'analogie que je propose sur laquelle j'aimerais insister et que je propose ici c'est de voir vraiment ces algorithmes comme des systèmes de vote comme des scrutant si tu analogie qui en fait est plus qu'une analogie puisque
24:41
inscritant de façon très générale inscritant c'est quelque chose qui prend en compte l'expression de plusieurs personnes et qui va aboutir à une décision collective qui résulte des avis des différentes personnes sont des de plus en plus on essaie de pousser notre
24:56
monde notre recharge en machine learning à voir si l'algorithmes comme des scrutin et malheureusement quand on fait ça on se rend compte très vite que les scrutins qui gouvernent aujourd'hui la recommandation de contenu sur le web et donc le flux de l'information sur le web donc ce qui attire l'attention c'est
25:12
scrutin là sont extrêmement mauvaises elles sont jamais au mal sécurisé et ont de très très mauvaises propriétés qui sont vraiment une catastrophe en termes de théorie ce qu'on appelle du théorie du choix social c'est-à-dire la théorie des scrutin alors en quoi ils sont ils sont très mauvais en premier lieu ils ne
25:27
sont absolument pas dans la logique une personne une voix qui est quand même un des principes assez fondamental fondateur de démocratie en fait pour beaucoup de ces algorithmes il suffit de parler davantage pour davantage influencer l'algorithme plus vous allez
25:43
liker regarder des contenus sur Youtube ou sur Tik Tok et mettre des likes sur les bons contenus plus vous influencez l'algorithme alors dit comme ça a priori ça paraît pas mal sauf qu'il faut se rendre compte que derrière cela il y a des enjeux économiques et géopolitiques
25:58
énormes et donc il faut s'attendre et c'est le cas en pratique à ce que il y ait des entreprises privées et des régimes notamment autorail autoritaires qui vont investir massivement pour polluer le vote et encourager la
26:14
recommandation de contenu problématique en particulier aujourd'hui il y a même une industrie autour de la création de faux contenu pour amplifier tel ou tel contenu assez vieille ça tourne notamment autour de ce qu'on appelle parfois le search engine optimization
26:31
donc l'optimisation à des moteurs de recherche pour être davantage recommandé notamment par Google ce qu'il faut voir c'est que cette formation assez classique de référencement les recherches Google et un petit peu passer aujourd'hui puisqu'il y a plus de vues sur Youtube que de recherche sur google
26:47
et donc les contenus les plus consommés le son d'avantage parce qu'à cause des algorithmes de recommandation directement qu'à cause de la recherche sur Google donc il y a encore beaucoup plus d'intérêt à essayer d'investir dans la recommandation de dans le hackage de la recommandation des algorithmes de
27:03
recommandation donc ça c'est un aspect assez pratique alors il y a certaines défenses contre cela donc on peut limiter l'effet de chaque compte individuel et donc il y a certaines plateformes qui essaient de faire cela par exemple le nombre de like que vous pouvez mettre une vidéo YouTube en particulier c'est un par utilisateur
27:18
donc c'est une certaine défense contre cela mais il y a ensuite une attaque contre cela qui consiste simplement créer beaucoup de faux comptes et là encore en fait il y a toute une industrie aujourd'hui mais une industrie extrêmement complexe aujourd'hui et extrêmement lucrative qui consiste à
27:33
créer des faux comptes notamment des faux comptes de qualité sachant qu'il y a un faucon qui vient d'être créé à plus de chance d'être retiré rapidement par les plateformes être détectées comme un compte non authentique donc il y a tout un travail de ces entreprises à voler des vieux contes ou à récupérer des
27:50
comptes ou entretenir des décomptes créer il y a longtemps pour ensuite les revendre à des entreprises qui souhaiteraient utiliser ce cela pour amplifier leur contenu ça c'est c'est un énorme problème et juste pour insister sur l'ampleur de ce problème
28:06
j'aimerais partager un chiffre qui est le nombre de faux comptes que facebook retire chaque année de sa plateforme Facebook communique jusqu'à récemment communiquer dessus et ce chiffre était est de l'ordre de 7 milliards de faux
28:22
comptes par an 7 milliards de faux comptes créés par an très probablement dans un but de hacker les recommandations qui sont faites sur ces plateformes ce qu'il faut voir c'est que on a là vraiment un marché de l'information où sont économique dans le sens où les personnes qui investissent
28:39
davantage pour hacker ce marché de l'information pour faire en sorte que leur contenu est plus de visibilité passez personne sont en train simplement d'investir dans ce marché et du coup de gagner des parts de ce marché c'est à dire de l'attention de la plupart des utilisateurs contrario des groupes
28:54
notamment des groupes militants qui cherchent à avoir de l'attention pour par exemple défendre des problèmes de d'abus de droit humain ou des problèmes de changement climatique eux n'ont généralement pas les mêmes moyens pour investir dans ce marché de l'information et seront donc nécessairement battus
29:11
dans cette bataille de l'information qu'il y a sur Internet là je parle un système qui sont un petit peu un petit peu dark un peu pas très clean mais faut bien voir que le marché de l'information c'est quelque chose qui existe déjà depuis longtemps notamment à travers la
29:28
publicité la publicité c'est vraiment un marché d'information dans le sens où il suffit de payer pour avoir un contenu davantage recommandé j'insiste un peu sur ça parce que l'un des grands problèmes aujourd'hui par exemple pour la cause environnementale c'est le problème de la surconsommation et le
29:44
moteur de cette de la consommation et de la surconsommation c'est vraiment la publicité notamment si on pense à l'industrie de la mode ou industrie des nouvelles technologies beaucoup du renouvellement de ces produits est lié à l'appel à consommer davantage
29:59
qui est lié à ce problème de la publicité or il y a des lois qui encadrent la publicité donc ici à la télévision notamment l'arcom en France est chargé de vérifier la qualité des contenus toutes sortes de contenu audiovisuel
30:15
mais y compris la publicité en revanche sur Internet il est milliards de recommandations de contenus publicitaires qu'il y a par jour ce n'est absolument aujourd'hui complètement opaque et il n'y a pas d'agence de régulation pour vérifier que
30:31
ces contenus sont conformes à la loi en particulier qui n'est pas de d'arnaque via ces publicités ciblées pour vérifier qu'il n'y a pas d'incitation à la consommation addictive notamment tout ce qui est abus de tabac ou de ou d'alcool et ou de jeux d'argent faute
30:50
de régulation aujourd'hui ce marché est tout simplement hors de contrôle même les lois aujourd'hui ne peuvent pas s'appliquer parce qu'il manque d'investissement pour vérifier que ces bonus ou conforme à la loi on a là tout un tout un problème au niveau de la transparence de ces algorithmes qui est
31:07
vraiment un problème assez énorme d'autant plus que il faut enfin les scrutins qui sont conçus par ces entreprises donc c'est ces algorithmes de recommandation sont conçus de manière très opaque ce qui permet aux entreprises de truquer le
31:22
vote là où c'est les arranges donc on a ce problème très clairement déjà dans les entreprises privées qui ont des intérêts propres qui ont par exemple pas intérêt à ce que tes discussions sur l'éthique soit de leurs algorithmes en particulier et la sécurité de leurs
31:37
algorithmes soit amplifiés qui ont davantage intérêts à amplifier toutes les discours sur la spectacles à curiosité du machine learning et l'intelligence artificielle qui pour faire notamment objet de distraction stratégique et amener les scientifiques à s'intéresser davantage à respecter à spectacularité de machines learning
31:53
qu'aux problèmes de sécurité également les régulateurs les investisseurs les politiciens ainsi de suite mais le problème est à mon sens beaucoup plus grave encore quand il s'agit d'algorithmes qui sont contrôlées au contrôlables par des régimes
32:09
autoritaires là je pourrais mentionner en particulier le cas de Tik Tok qui est une entreprise chinoise et on sait très bien qu'en Chine les liens entre les entreprises privées dans l'influence notamment de la tech et le gouvernement chinois sont complexes et
32:26
opaques on va dire pour utiliser un euphémisme dès lors il faut absolument se méfier de ces scrutants de ces algorithmes parce qu'ils sont complètement opaques pas vérifiables du tout et du coup ce qui ressort de ce scrutin peut en fait ne pas être
32:41
représentatif des données qui ont été fournies c'est-à-dire du comportement des utilisateurs et peut être même modifié par loueur de mon chinois en particulier il y a déjà des études assez préoccupantes sur les types de contenu qu'il y a sur Tik Tok lorsqu'on
32:58
recherche le mot singe c'est-à-dire cette province des où habite notamment les wigos en Chine ou beaucoup de défenseurs des droits humains suspects fortement des problèmes d'abus graves de
33:13
droits humains une dernière chose que je veux dire sur ces algores sur les scrutin qui sont utilisés sur le web c'est que le vote qui est utilisé c'est-à-dire l'expression des consommateurs notamment des utilisateurs notamment authentiques
33:28
ça correspond absolument pas à votre réfléchi comme ça peut être davantage le cas notamment quand les quand on va voter à Lyon en démocratie puisque ça correspond beaucoup plus à leur comportement quotidien lequel est peut-être potentiellement déjà quelque
33:44
chose de problématique ou en tout cas n'est pas quelque chose de réfléchi donc je parle parfois de mode Zombies c'est à dire que quand je regarde par exemple des images de foot il y a beaucoup de vidéos sur sur Youtube que je regarde en étant fatigué ce sont pas en fait des contenus que je souhaiterais voir recommander à moi-même et encore moins
34:00
des contenus que je souhaiterais avoir recommandé à d'autres personnes c'est-à-dire que c'est pas un problème de force nécessairement de consommer ces contenus mais par contre de les voir recommander massivement notamment quand à côté il y a des problèmes beaucoup plus graves d'abus de droits humains ça
34:15
devient effectivement vraiment un problème plus généralement ça vient du fait que la manière enfin les votes qui sont pris en compte par ces scrutins ce n'est pas un vote réfléchi c'est vraiment le comportement quotidien des utilisateurs sans qu'ils sachent qui sont en fait en train de voter pour le
34:30
comportement de l'algorithme j'espère vous avoir bien expliqué le fonctionnement global de ces algorithmes et en particulier j'espère que vous avez compris en quoi c'est scrutin sont selon moi des enfin c'est l'algorithmes des scrutin en tout cas on peut les voir vraiment comme des scrutins mais des
34:45
scrutins très mal sécurisé et extrêmement accable je vais passer maintenant à la troisième partie de cette masterclasse qui va parler d'une proposition de scrutin
35:03
beaucoup plus sécurisé pour concevoir des algorithmes de recommandation à savoir la plateforme tourne au sol que j'ai co-fondé parce qu'ils géré par la société tournesol donc je suis le président mais derrière ton tournesol il
35:18
y a une énorme équipe enfin une énorme équipe il y a cinq personnes mais il y a des gens extrêmement brillants donc c'est vraiment pas un projet que j'ai pu faire tout seul et en particulier derrière tournesol comme c'est inscritant il y a avant tout des contributeurs qui votent pour quel
35:33
contenu devrait davantage être recommandé sur sur toutes sortes de réseaux sociaux de réseaux sociaux mais aujourd'hui on se concentre surtout sur Youtube alors comment concevoir à votre sécurisé ce qui va être important pour moi c'est de vous montrer que les problématiques qui se posent à tournesol ne sont pas spécifiques à notre projet et plus
35:50
généralement tout système qu'on essaie de concevoir qui va chercher à gouverner relativement ces algorithmes de recommandation avoir un scrutin juste équitable et sécurisé pour déterminer quelle vidéo devrait être beaucoup plus recommandée à tout le monde
36:05
n'importe quelle tentative d'y arriver va être nécessairement confrontée au problème que je vais soulever par la suite et sur lequel on a dû beaucoup travailler chez tournesol le premier de ces problèmes c'est le problème de la certification des votants le problème de la carte électorale finalement qui peut
36:22
voter sur tournesol en particulier comment peut-on faire pour être aussi inclusif que possible tout en se protégeant des faux comptes comme on l'a vu sont une activité énorme sur Internet probablement aujourd'hui c'est au moins des millions si ce n'est des milliards de dollars qui sont investis pour pour
36:40
produire des faux comptes comment est-ce qu'on se protège de toutes ces attaques tout en étant aussi inclusif que possible la réponse est forcément qui est un compromis entre les deux et qui va falloir trouver des solutions qui ne sont pas aujourd'hui entièrement satisfaisante par manque de dispositif permettant
36:55
les comptes sur Internet la solution qu'on propose sur tournesol aujourd'hui c'est surtout qu'on s'y surtout à s'appuyer sur des noms de domaine de confiance donc typiquement des adresses liées à des organisations non gouvernementales de confiance comme à
37:14
washop c'est l'organisme mondial de la santé ou par exemple à amnesty.fr et donc ça c'est leur manière de certifier des comptes on a aussi d'autres domaines comme par exemple tout
37:29
ce qui est universitaire donc voilà hâte Polytechnique pour réduire à epfl.ch et on est prêt à accepter aussi forcément des entreprises le la clé en fait pour tous ces noms de domaine c'est surtout de vérifier que ces noms de domaine ne
37:45
vont pas créer massivement des faux comptes donc ça c'est un des aspects importants et c'est pour ça que des adresses comme admail.com ou ton mail ce genre de domaine ne va pas être
38:00
accédé puisque n'importe qui peut facilement créer un compte sur ces sur ces avec ces adresses et du coup pourra créer potentiellement plein de faux comptes surtout au sol alors le problème bien sûr de partir sur ces noms de domaine c'est que c'est un système extrêmement exclusif puisque toute personne qui n'a pas un nom de domaine
38:15
dans ces dans ces organisations ne pourra pas participer à priori à ton seul c'est pas vrai pour deux raisons la première c'est que même si vous n'avez pas une adresse certifiée vous pouvez toujours participer à tournesol et vous influencerez en fait les résultats enfin
38:31
les recommandations faites par tournesol là où on a une protection en fait c'est plus sur le fait que le vote cumulé pour une vidéo donnée de tous les comptes non certifiés CE nombre de votes cumulé doit pas être trop grand et donc s'il y a trop de gens qui notent une vidéo en
38:47
particulier et qui ne sont pas certifiés on va diviser leurs droits de vote à ce moment-là pour empêcher des attaques il y en a beaucoup sur Internet et de base lorsque vous notez une vidéo c'est pris en compte et en fait de base c'est même pris en compte comme un vote d'une personne complètement certifiée vos
39:03
votes ont quand même une infante même si vous n'avez pas un compte certifié en plus on sait que l'objectif de tournesol c'est et j'y reviendrai un peu plus tard c'est de motiver la recherche académique sur ces problèmes de gouvernance collaborative des algorithmes en fait on
39:18
a vraiment tout intérêt à collecter vos données on a vraiment besoin de vos données et du coup si vous vous fournissez vos données surtout dans le sol vous jugez les vidéos sur tournesol de manière publique et bien vos données entrent dans la base de données publiques qui pourront être utilisés
39:35
parigés par les différents académiques et différents chercheurs et donc vous encourager également ce faisant la recherche dans le domaine mais l'autre raison pour laquelle vous pouvez avoir en fait un droit de vote quasiment total sur enfin même total sur tournesol c'est parce qu'on a en plus de cela un système plus inclusif de
39:52
certification par parrain en particulier si quelqu'un qui a déjà été certifié partiellement donc la certification est en fait pas binaire mais si quelqu'un a déjà partiellement certifié sur tous nos sols se porte garant pour vous en
40:08
sertiant que vous êtes une personne authentique et que vous n'allez pas utiliser plein de faux comptes sur tournesol à ce moment-là vous allez gagner ce qu'on appelle un score de confiance qui vous permettra d'avoir davantage de droits de vote au moment de de voter pour quelle vidéo devrait davantage être recommandée sur tournesol
40:23
ou via tournesol puisqu'on a aussi une extension navigateur dans laquelle via laquelle on fait des recommandations sur la page d'accueil YouTube ok donc ça c'est la première chose la deuxième chose c'est que on cherche à sécuriser autant que possible le vote notamment ça
40:40
veut dire que on sent bien compte que notre système d'authentification est loin d'être parfait et c'est sans doute assez facile pour quelqu'un de très motivé de créer des faucons un faux compte quelque part qui saura certifié sur tournesol voilà en demandant un ami en faisant passer pour quelqu'un fiable
40:56
en volant une adresse email dans un monde de domaine de conférences il faut s'attendre à ce qui est quand même des utilisateurs malveillants sur tournesol du coup il est vraiment critique pour nous de se protéger contre cela alors je vais pas rentrer dans les détails de comment on fait parce que malheureusement ce sont des algorithmes assez sophistiqués en fait qui ont même
41:12
pas encore été accepté par la communauté scientifique puisque les articles de recherche qu'on écrit sont encore en phase de soumission et de revues par les pairs mais l'idée globale c'est que chaque personne tire le score d'une vidéo de plus une force qui dépend de
41:28
son droit de vote et l'autre chose c'est que ça fait manière les scores d'une vidéo sont plongées donc quelque part dans une vallée parabolique de sorte que quand quelqu'un tire sur le score il doit remonter le score il doit faire remonter la pente à ce score ça
41:44
pour conséquence que un utilisateur unique qui a une force seulement limitée il pourra pas tirer le score très haut pour pas le tirer très bas non plus de sorte que l'effet du vote d'un individu et borné et finit il pourra pas
42:00
manipuler le score arbitrairement ça veut aussi dire que pour qu'une vidéo est vraiment un bon score il faut que vraiment pas mal de gens se mettent à tirer le score et du coup disent à l'algorithme que cette vidéo est vraiment quelque chose qu'il faut recommander massivement c'est comme ça qu'on se protège des frontes et des
42:17
comptes qui des fauconques qui ont réussi à être certifiés en particulier un autre aspect sur lequel tournesol soit de faire beaucoup mieux que les algorithmes aujourd'hui c'est que au lieu de d'utiliser des comportements non réfléchis des utilisateurs comme
42:33
j'ai pu en parler dans la partie précédente surtout ça on va vraiment chercher à faire réfléchir l'utilisateur à lui faire vraiment poser la question vraiment fondamentale pour l'algorithme recommandation à savoir entre deux contenus lequel devrait davantage être recommandé devrait vraiment davantage
42:50
être mis dans la page d'accueil de YouTube lorsque l'on utilisateur utilise par exemple une navigateur l'extension tournesol pour navigateur ce qui est intéressant de voir avec cette question extrêmement concrète que ce qui est au final la question que ce qu'il faut se poser d'un point de vue éthique c'est que doit faire l'algorithme en pratique
43:06
pour répondre à cette question il va être nécessaire vraiment sur tournesol le comparer toutes sortes de contenu y compris des contenus qui parlent le sujet très différents et ça ça revient à une problématique plus générale qui est le fait que les algorithmes de recommandation font de la priorisation de l'information vraiment ils disent à
43:22
ce qu'il faut entendre davantage parler de ça plutôt que de ça et ce problème d'appoint priorisation d'information si vous suivez un petit peu tout ce qui défendent les droits humains ou tous ceux qui défendent la cause climatique vous rendez compte que c'est vraiment au cœur de leur préoccupation à savoir
43:39
est-ce qu'on va parler davantage de ces problèmes de ce qui se passe aujourd'hui en Iran de ce qui se passe aujourd'hui au Pakistan que de sujets de moindre importance comme par exemple le football même si le football a une certaine
43:54
importance elles sont doute moindre que ces enjeux géopolitiques et qui menacent des millions de vie du coup surtout un seul je vous invite vraiment à non seulement comparer des contenus qui parlent du même sujet parce que c'est intéressant de savoir entre deux vidéos qui parlent le changement climatique laquelle on parle le mieux de façon plus
44:09
juste de façon plus claire de façon plus pédagogique avec un angle peut-être plus important mais c'est également important de comparer des contenus qui parlent de sujets complètement différents et c'est une problématique qui me semble en fait beaucoup plus générale que que le cas particulier de tournesol qui est
44:25
vraiment un problème de priorisation de l'information et de l'attention en particulier global dans nos sociétés un autre aspect sur lequel tournesol fait à mon sens clairement beaucoup mieux que n'importe quel autre alternative que je connais en tout cas qui est qui existe
44:42
c'est au niveau de la transparence la plupart des scrutants c'est un des algorithmes recommandations aujourd'hui sont extrêmement opaques notamment à cause de problèmes de rgpd mais pas que bien sûr mais bien sûr le problème de la RGP c'est que c'est difficile de
44:58
combiner données personnelles et influence sur des algorithmes surtout si on prend comme influence comme comme Vulcain de vote des utilisateurs leur comportement authentique et qui est forcément une donnée personnelle sensible sur sur ces plateformes contrairement à tout ça sur ton seul on
45:14
a un effort énorme de transparence à tous les échelons à la fois sur la conception globale de la plateforme sur la gouvernance de la plateforme dont on parle régulièrement sur notre discorde également sur les données qu'on utilise puisqu'on encourage autant que possible aux
45:30
utilisateurs à fournir des comparaisons de vidéos de manière publique pour que ça rentre dans une base de données publiques pour que ça soit ensuite audit et réutilisable notamment par des chercheurs permet également quand même des des votes secrets parce que ça peut être parfois compliqué de critiquer
45:45
notamment un régime autoritaire donc je pense que c'est ça reste important qui est une certaine protection de certaines données sensibles mais autant que possible on encourage vraiment la transparence et on essaie de communiquer autant que possible de vulgariser autant
46:00
que possible les algorithmes que l'on a derrière et de vous expliquer autant que possible de rentrer autant dans les détails et surtout de prouver des théorèmes de sécurité autour de ces algorithmes qui seront vérifiables dans les preuves sont vérifiables par la communauté scientifique je pense que c'est quelque chose qu'il est urgent d'exiger de tout les scrutins qui sont
46:17
utilisés sur Internet c'est à dire tous les algorithmes de recommandation et enfin l'objectif dont j'ai déjà un peu parlé mais sur lesquels j'aimerais insister dans cette masterclass des algorithmes de tournesol et de toute la plateforme qui a été développée c'est de
46:32
faciliter et d'encourager beaucoup plus la recherche en sécurité et en éthique de tout ce qui est à voir avec l'information de façon plus générale et pas juste des algorithmes de recommandation aujourd'hui c'est un problème absolument critique pour se rendre compte de l'ampleur du problème il y a un
46:47
excellent article qui fait une comparaison article scientifique qui a été accepté qui fait la comparaison entre big Tobago donc tout l'industrie du tabac Philippe Maurice et les autres et Big tech selon cet article aujourd'hui big
47:03
Tech est beaucoup plus dangereux que Big tobako comme j'ai dit big même si des millions peut-être des dizaines de millions enfin exactement les chiffres tu es beaucoup beaucoup de vie également bixel qui est en train de menacer toute les démocraties et donc là on parle et
47:19
le bien-être et la sécurité de beaucoup plus de gens encore donc là potentiellement on parle d'un problème beaucoup plus grave pourtant big take aujourd'hui est beaucoup plus infiltré dans le monde accueil académique que bitobacco il contrôle beaucoup plus il y a des financements il y a des
47:35
stages proposés via des partenariats des collaborations avec le monde académique ils ont beaucoup plus influences sur l'attention en particulier des chercheurs qui vont beaucoup plus s'intéresser naturellement à des algorithmes très performants
47:50
qu'aux problèmes de cybersécurité qui mettent en vie des vies en danger c'est assez similaire avec le cas de bito ACO qui va s'intéresser qui va chercher à détourner l'attention de beaucoup de scientifiques pour qu'il s'intéressent beaucoup plus par exemple à des problèmes d'autres sources par exemple
48:07
potentielles du cancer quel effet directe du tabac sur le cancer on a des stratégies en fait assez similaires sauf que bifteck et encore une fois beaucoup plus infiltré il y avait des estimations qui autour de dans les pires heures de bitovaco il y avait peut-être 15% des personnes dans le monde Academy qui
48:22
d'une manière d'une autre était un peu corrompu par ou de cas financer par directement indirectement par bitobacco là dans le monde de Big tech aujourd'hui en gros la quasi-totalité des chercheurs ont quelque part un partenariat un financement direct avec avec une
48:39
entreprise de Big tech parfois de conséquence la recherche sur la sécurité et l'éthique dans le monde académique en informatique et aujourd'hui quasiment négligeable par rapport à tout ce qui est fait dans la recherche en informatique c'est extrêmement grave et c'est extrêmement dangereux c'est un peu
48:56
comme si lorsqu'on développait un nouvel avion sauf que là c'est encore une fois on part de choses beaucoup plus dangereux à mon sens qu'un avion mais c'est comme si lorsqu'on développait un avion on se posait d'abord les questions de performance à savoir est-ce que l'avion vole vite plutôt que les problèmes de sécurité qu'il y a autour
49:12
de la conception d'un avion qui sont aujourd'hui devenus extrêmement importants avec des investissements énormes on parle de 2 milliards de dollars pour chaque avion avec des audits énormes et des conséquences énormes à chaque fois qu'il y ait un accident dans le domaine de la version notamment publique je pense que l'un des
49:27
gros enjeux aujourd'hui c'est de changer un peu ses habitudes et de faire en sorte que la sécurité elliptique soit beaucoup plus valorisée que les chercheurs du milieu valorisent beaucoup plus cela s'intéresse beaucoup plus à ça donne beaucoup plus attention à cela encourage beaucoup plus sa publication de tels contenus valorise les chercheurs du
49:44
domaine au moment de recrutement et ainsi de suite ceci clos cette troisième partie qui parlait de tournesol et de tous les enjeux derrière la conception d'algorithmes sécurisé éthique et
50:02
notamment gouverner de manière collaborative et je viens maintenant venir à la conclusion qui que vous allez voir est un peu longue mais qui est notamment parce qu'il s'agit pas mal d'un appel à l'action parce que sur ces questions du numérique trop souvent on a tendance à s'indigner sans proposer vraiment de manière de vraiment avancer
50:19
de manière constructive notamment pour améliorer la qualité informationnelle sur sur Internet et pour éviter un effondrement informationnel qui est déjà malheureusement bien en route quand on a pu observer dans le cas du covid dans le cas des émeutes du Capitole dans le cas
50:35
de la reprise de Twitter par un milliardaire américain et ainsi de suite alors vous pouvez aider chacun d'entre vous et j'appelle vraiment à chacun d'entre vous à réfléchir à s'il ne faudrait pas que vous consacrer
50:50
davantage de temps à justement aider la cause pour des algorithmes beaucoup plus éthiques sécurisés et et gouverner de manière démocratique notamment sur internet alors vous pouvez aider comment la première chose simple c'est que si
51:06
vous regardez cette vidéo pourquoi le moment vous consommez pas mal de contenu audiovisuel probablement beaucoup de continuer audiovisuels de qualité et du coup on a absolument besoin de vous pour savoir quels sont ces contenus de qualité du coup je vous invite à prendre
51:21
le temps d'analyser les vidéos que vous avez observées d'aller créer un compte sur tournesol de choisir ses vidéos que vous avez vu qui vous ont particulièrement marqué et de les comparer de faire des jugements sur tournesol en nous disant à chaque fois pour chaque paire de vidéos que vous
51:38
avez regardées laquelle devrait davantage être recommandée par l'algorithme de tournesol laquelle devrait être mis dans ce carré dans ces rectangle jaune ou sont faites les recommandations de tournesol sur le la page d'accueil de YouTube lorsque les gens utilisent l'extension de tournesol
51:53
pense que dans ce rectangle il faut qu'il y ait davantage de sujets qui parlent le changement climatique des abus des droits humains de comment mieux réfléchir comment améliorer l'esprit critique et la réflexion autour des contenus informationnels et ainsi de
52:09
suite le deuxième aspect sur lequel vous pouvez aider c'est promouvoir la plateforme auprès notamment de vos amis auprès des médias auprès des politiciens auprès des radiateurs auprès des scientifiques auprès des ingénieurs il y a énormément
52:25
de travail à faire autour de tournesol et pour que tout au sol est davantage ce démontage mieux conçu pour qu'il y ait davantage de recommandations de qualité pour qu'il soit davantage digne de confiance il faut absolument qu'il y ait
52:40
beaucoup plus de gens qui utilisent tournesol qui aident tournesol qui aide à concevoir ton sol et ainsi de suite donc tout ce que vous pouvez faire c'est inviter vos amis à utiliser tout seul parler à vos amis du projet du problème plus des algorithmes de recommandation et de leurs conception et partager des
52:57
liens à chaque fois qui parlent le tournesol donc typiquement des choses que vous pouvez faire c'est que si au lieu de partager un lien youtube vers une vidéo de qualité sur vos réseaux sociaux ou sur vous applications de messagerie au lieu de mettre le lien youtube vous pouvez mettre le lien
53:13
tournesol associé à cette vidéo il suffit de chercher la vidéo sur ton sol vous cliquez sur la vidéo ça vous fait un lien vous pouvez le partager et donc indirectement ça promouvra le fait d'utiliser le tournesol et en particulier le score tournesol sera
53:29
affiché ce qui prouvera la réflexion sur la qualité des contenus recommandés en troisième lieu la chose que vous pouvez faire c'est faire des dons notamment financiers ou nous aider à faire des appels à projets à répondre à des appels
53:44
à projets chercher des financements ou encore si vous êtes développeur vous pouvez contribuer au code Open Source en licence libre de tournesol donc GPL la base de données était en licence qui est encore plus libre qui est
54:01
réutilisable à des fins commerciales donc voilà je vous intéresse je vous invite à vous intéresser à tout ça notamment par exemple une façon de promouvoir ton osseuse c'est si vous êtes étudiant ou chercheur en machine learning vous pouvez utiliser la base de données de tournesol comme base de données à étudier trouver des choses des
54:18
corrélations intéressantes ou encore à entraîner des algorithmes à partir de cette base de données en quatrième point si vous êtes encore plus motivé vous pouvez rejoindre le discord de tournesol pour vraiment aider à concevoir la plateforme ou à répondre à aider à
54:35
organiser la communauté qui veut s'intéresser à ces problèmes il faut se rendre compte qu'aujourd'hui tournesol c'est encore très petit aujourd'hui on a un seul employé à 80% et le reste c'est des bénévoles donc moi même je suis bénévole de l'association président et
54:50
je travaille à titre bénévole pour le développement de la plateforme et malheureusement beaucoup de gens sont très occupés malheureusement un tournesol par d'autres choses que tournesol et du coup on manque vraiment de temps et de main d'oeuvre pour mener à bien toutes sortes de projets donc si
55:07
vous avez vraiment la motivation pour vous impliquer davantage vous êtes plus que les bienvenus voilà pour répondre aux questions des utilisateurs voire pour organiser toutes sortes de l'événements parce que j'appelle les scientifiques parmi vous à s'impliquer dans ton tournesol on a on essaie d'organiser régulièrement des tocs des
55:23
présentations pour avoir Federer une communauté de chercheurs autour de ce projet et si vous ça vous intéresse n'hésitez pas à me contacter pour essayer soit de donner une présentation soit pour assister et encourager du coup la participation à ce genre de
55:41
d'échanges académiques enfin la dernière chose que vous pouvez faire qui est la plus simple c'est simplement de consommer tournesol et de consommer plus généralement des contenus de qualité et ça vous pouvez le faire notamment en téléchargeant l'extension de navigateur tournesol pour
55:56
qu'il existe pour Firefox et pour Chrome avec lequel vous aurez des recommandations bientôt on espère développer des fonctionnalités pour vous permettre de faire directement des comparaisons de vidéos via l'extension donc directement sur des pages YouTube après avoir vu une vidéo typiquement
56:13
voilà donc il y a beaucoup de choses à développer mais il y a aussi beaucoup de choses à consommer et on pense que consommer ces contenus peut aussi améliorer tout simplement la qualité informatique nationale et donc le niveau épistémique des des
56:29
différentes consommateurs pour ensuite essayer de mieux attirer notamment l'attention des gens vers les problèmes qui nous semblent être les plus urgents à résoudre pour la sécurité et le bien-être de la population [Musique]
56:57
[Musique]