View
3
Download
0
Category
Preview:
Citation preview
Initiatives inspirantes
Dans le cadre de ses travaux, le Conseil national du numérique a pu relever une grande diversité d’initiatives inspirantes, en faveur de la confiance dans la société numérique : projets académiques, associatifs, artistiques, hybrides, outils de maîtrise des données, sensibilisation, entraide, etc.
Sans prétention exhaustive, nous souhaitons profiter de cette consultation pour les mettre en lumière. Nous nous efforcerons de compléter cette liste au fur et à mesure, dans cet espace dédié.
1
Quelques . initiatives . .inspirantes .
Algo Transparency Algodiv Algorithm Justice League Algorithm Watch Cookie-viz Dark Patterns Data Selfie DeepMoji Dégooglisons Internet Design de la privacy, une cartographie à enrichir Diaspora* Do Not Track Documenting Hate Droit au déréférencement Égalité numérique par l’Accès à une infrastructure Haut Débit Ethics for Design Facebook - agb - das musical Factitious Fair Crowd Work FAT ML FlipFeed Google Transparency Project
2
Fact-Checking Network IOTics J’alerte l’ARCEP Justdelete.me L’oracle du net Legal Design Toolbox Les CGU d’Instagram pour les nuls Little Brother Mozilla Information Trust Initiative - MITI My Data Can Pop your bubble Predictive World Price by ZIP Challenge Privacy Patterns Respect my net Ranking Digital Rights SecNumAcadémie $heriff Sleeping giants Terms of Service; Didn’t Read Time Well Spent Track Me Not Turkopticon
3
.Algo Transparency .
Tags : curation de contenus vidéo - test d’algorithmes - projet associatif
« Nous avons développé un programme qui détecte les vidéos les plus suggérées par l’algorithme de YouTube
à partir d’une recherche donnée. »
Quels facteurs influent sur les suggestions de YouTube ? C’est pour répondre à cette question que Guillaume Chaslot, Adrien Montcoudiol, Soline Ledésert, Nicolas Wielonsky, Frédéric Bardolle et Mathieu Grac ont créé Algo Transparency dans le cadre de l’association Data For Good. L’association Data For Good regroupe des développeurs et experts de données volontaires pour mettre leurs compétences au profit de la résolution de problèmes sociaux. Algo Transparency est l’un des projets conduits dans ce cadre, pour développer l’information des citoyens sur le fonctionnement des algorithmes influençant l’accès à l’information. Leur premier travail a été d’observer le comportement du système de recommandations de Youtube pendant les élections présidentielles françaises mais les auteurs travaillent actuellement à des outils équivalents pour d’autres plateformes. À cette fin, ils ont créé un compte “neutre” sur Youtube, c’est à dire sans historique de recherche, et un programme informatique lui faisant faire des requêtes au nom des 11 candidats à l’élection présidentielle, chaque jour entre le 27 mars et le 10 avril 2017. Pour chacun d’entre eux, le programme a enregistré les 6 premières vidéos proposées en résultat puis, à partir de celles-ci, les 3 premières vidéos suggérées. Le projet a permis de constater que durant cette période, les recherches sur les 11 candidats faisaient apparaître les mots “Mélenchon”, “Le Pen” et “Asselineau” dans les titres de 60% des vidéos suggérées.
Le projet a ainsi soulevé la question de savoir pourquoi certains candidats étaient plus favorisés que d’autres. Était-ce en raison de la popularité, des mentions “j’aime”, du nombre de vues, de l’addictivité ou encore du nombre de vidéos existantes ? L’initiative fait plus généralement écho à des interrogations sur le rôle des plateformes en tant que prescripteurs d’information dans le débat démocratique. Le code développé dans le cadre du projet AlgoTransparency est disponible ici. Chacun peut l'utiliser en faisant varier la profondeur de recherche, les sujets de recherche initiale, etc.
Pour en savoir plus : http://algotransparency.org/ 4
.Algodiv .
Tags : projet de recherche - diversité informationnelle sur le web
« Algodiv s’intéresse à divers environnements du web, des blogs et micro-blogs aux médias sociaux, en passant par les wikis et sites de partage d’images et d’articles . »
Sommes-nous de plus en plus enfermés dans nos bulles informationelles qui rétrécissent notre horizon en cachant des informations qui pourraient nous surprendre ou nous déranger ? Les algorithmes peuvent-ils être « neutres » ? Quels sont les desseins de ceux qui pourraient les « biaiser » ? Quelles sont les conséquences du guidage algorithmique sur l’autonomie et le libre arbitre des internautes ? Quel paysage informationnel et, plus largement, quel espace public numérique résulte de l’effet conjugué du comportement des internautes et des algorithmes des plateformes ?
Algodiv est un projet de recherche 2016-2019 interdisciplinaire qui entend apporter une contribution scientifique à cet enjeu politique, économique et culturel :
- en clarifiant les différentes acceptions de la notion de diversité informationnelle,
- en proposant des métriques adaptées, - en explorant empiriquement et expérimentalement les effets conjoints
du guidage algorithmique et du comportement des utilisateurs sur cette diversité,
- en déconstruisant ce guidage et en proposant des alternatives.
Associant étroitement informaticiens et chercheurs en sciences sociales, Algodiv s’attachera à examiner les enjeux de la diversité informationnelle dans trois configurations différentes du calcul algorithmique : les mesures d’autorité structurelle construite à partir des liens hypertextes du web, les mesures affinitaires du web social, et les traces personnalisées de navigation à partir d’un corpus de données unique issu d’un partenariat avec le Groupe Le Monde.
Sur ces trois terrains des enquêtes informatiques et sociologiques seront conduites pour confronter les classements produits par les plateformes et les pratiques numériques. Dans certains cas, des dispositifs expérimentaux seront mis en place pour mesurer plus directement l’articulation entre la diversité offerte et la diversité consommée. Ce projet est soutenu par l’Agence Nationale de la Recherche (ANR). Coordonné par le Centre Marc Bloch Berlin e.V., il associe le Centre d’Analyse et de Mathématique Sociales (CAMS, unité mixte CNRS/EHESS), le Laboratoire d’Informatique de Paris 6 (LIP6, unité mixte CNRS/UPMC) et le laboratoire des usages d’Orange Labs (SENSE), ainsi que la participation du Groupe Le Monde, de la plateforme melty, et du médialab de Sciences Po ainsi que du TGIR Huma-Num.
Pour en savoir plus : http://algodiv.huma-num.fr
5
.Algorithm Justice League . Tags : biais des algorithmes - test d’algorithmes - projet de recherche
« Nous avons besoin de votre aide pour tester des logiciels et aider à créer des ensembles de formation inclusifs. »
Algorithm Justice League (ALJ) part du constat que de nombreuses personnes ignorent l'impact des systèmes codés (comme les algorithmes des moteurs de recherche) et le besoin croissant d'équité, de responsabilité et de transparence que nécessitent ces systèmes. Partant, ALJ considère que si des biais discriminatoires entrent en jeu dans la conception de ces systèmes, les citoyens sont incapables d'affirmer leurs droits ou d'identifier d’éventuelles violations de leurs droits.
La Ligue d’ALJ est un collectif mené par Joy Buolamwini de MIT Media Lab qui vise :
- Pour la presse : à mettre en évidence les biais des algorithmes à travers les médias, l'art et la science ;
- Pour la recherche : à identifier les biais des algorithmes en soutenant le développement d'outils pour les détecter dans les données et les logiciels existants ;
- Soutenir le développement d'outils pour auditer les biais dans les données utilisées et les logiciels existants ; notamment en développant des pratiques pour la responsabilisation lors de la conception, du développement et du déploiement de ces systèmes codés.
Pour en savoir plus : https://www.ajlunited.org
Compte twitter : @AJL United
6
.Algorithm Watch .
Tags : étude des prises de décisions algorithmiques - transparence des plateformes
« Le fait que la plupart des procédures de prise de décisions algorithmiques soient des boîtes noires pour les personnes
impactées n'est pas une loi de la nature. Cela doit finir. » AlgorithmWatch est une initiative pour la transparence et l'intelligibilité des procédures de décisions prises à l’aide d’algorithmes qui ont un impact fort sur la société et plus particulièrement les algorithmes de prédiction. Le manifeste d’Algorithm Watch, défend ainsi l’idée que la complexité des algorithmes ne doit pas signifier leur incompréhensibilité. Créée en 2015 en 2015 par Lorena Jaume-Palasí, Lorenz Matzat, Matthias Spielkamp et Katharina Anna Zweig, cette initiative à but non lucratif associe des experts issus de différentes cultures et disciplines touchant à l'étude des processus décisionnels algorithmiques et leurs impacts sociaux. La plateforme vise d’une part à analyser et expliquer les processus décisionnels algorithmiques et leurs effets sur le comportement humain ; et d’autre part à mettre en évidence pour le grand public les éventuels conflits éthiques qu’ils engendrent.
L’objectif global poursuivi par Algorithm Watch est d’aider à développer des idées et des stratégies pour atteindre l'intelligibilité de ces processus algorithmiques grâce aux technologies, à la régulation et aux institutions de supervision appropriées.
Pour en savoir plus : https://algorithmwatch.org/en/ Compte twitter : @algorithmwatch
7
.Cookie-viz.
Tags : données & vie privée - extension pour navigateur - visualisation - tracking
« Découvrez la face cachée de votre navigation. » Pour l’un des premiers projets de son laboratoire d'innovation (Linc), l'autorité française de protection des données - la CNIL - a développé Cookieviz, un outil de visualisation pour mesurer l'impact des cookies et autres traqueurs qui sont installés sur nos terminaux pendant la navigation. Il s’agit d’un plug-in pour navigateur internet qui analyse les interactions entre notre ordinateur, notre navigateur et les sites et serveurs distant : une fois installé, Cookieviz identifie ainsi point par point, quels acteurs du web auront accès aux traces laissées par l’utilisateur à chaque connexion. En l'installant, l’utilisateur peut savoir à quels autres acteurs le site visité envoie des informations. Cookieviz permet ainsi aux internautes de tester et vérifier l'efficacité de leur navigateur à limiter les cookies. Les webmasters et éditeurs de site auront la possibilité d'identifier les régies publicitaires liées à leur site web.
Le code source du logiciel Cookieviz est librement accessible. Il distribué en licence GPLv3, et peut être téléchargé depuis l’espace Github de la CNIL. Il peut donc être enrichi par tout un chacun, afin d’y apporter de nouvelles fonctionnalités.
Pour en savoir plus : https://linc.cnil.fr/fr/cookieviz-une-dataviz-en-temps-reel-du-tracking-de-votre-navigation
Compte twitter : @LINCnil Voir aussi : ce projet s’inspire aussi de l’extension pour Firefox Lightbeam développé par Mozilla et qui fait appel à des visualisations interactives pour montrer à l’utilisateur avec quels sites tiers il communique des informations sans le savoir.
8
Dark Patterns . Tags : Design - pratiques déceptives - activisme - name and shame
« Vous pouvez vous défendre en vous familiarisant avec les Dark Patterns sur ce site. »
Dark Patterns est une expression qui décrit les pratiques déceptives liées au design et aux process intégrés dans les interfaces utilisateurs. Par exemple, pré-cocher l’option d’abonnement à la newsletter, éparpiller les informations, rendre difficile d’accès la fonction de suppression de compte, employer des formulations vague, contraindre à regarder une publicité ...
Le designer Harry Brignull a créé un site qui vise à rassembler des témoignages d’utilisateurs et de professionnels sur ces pratiques et à les mettre en lumière sur un “mur de la honte”. Sur son site, il recense et explique la dizaine des Dark Patterns les plus fréquents tels que les annonces déguisées, les coûts de sortie élevés voire impossibles ou encore le Privacy Zuckering qui consiste à partager publiquement plus de données que celles escomptées.
Pour en savoir plus : http://darkpatterns.org Compte Twitter : @darkpatterns
9
Data Selfie .
Tags : Données et vie privée - Tracking et profilage Plug-in - sensibilisation
« Nous vous révélons le type de données que Facebook peut posséder sur vous. »
Projet mené par Hang Do Thi Duc, Regina Flores Mir et Michal Kosinski, Data Selfie est une extension de navigateur open source qui suit l’utilisateur pendant qu’il est sur Facebook afin de lui montrer ses propres traces de données et révéler comment les algorithmes d'apprentissage automatique (machine learning) utilisent ses données pour obtenir des informations sur sa personnalité. L'outil explore la relation de l’utilisateur avec les données en ligne qu’il laisse en naviguant sur les médias et les réseaux sociaux - autrement dit l'information qu’il partage consciemment et inconsciemment. Les informations recueillis sont ensuite utilisées pour formuler des inférences sur la personnalité de l'utilisateur. Elles sont par la suite synthétisées sur un tableau comprenant les orientations politique et religieuse de l’utilisateur ou encore les facteurs influençant ses achats.
Data Selfie n’est pas intéressé par les données de ses utilisateurs et ne les stocke pas. Il s’appuie sur un projet parent développé à l’université de Cambridge : Apply Magic Sauce (un test de personnalité basé sur une analyse des “likes” laissés sur Facebook). Le projet est financé par le NYC Media Lab.
Pour en savoir plus : https://dataselfie.it/#/
Compte Twitter : @dataselfie
10
DeepMoji.
Tags : Identification des contenus ironiques et sarcastiques par des algorithmes - lutte contre les contenus haineux
« DeepMoji a appris à comprendre les émotions et le sarcasme en se basant sur des millions d'emojis. »
Développé par une équipe d’informaticiens du Massachusetts Institute of Technology (MIT), l'algorithme baptisé DeepMoji utilise "une méthode d’apprentissage mécanique s’appuyant sur un réseau neuronal artificiel". À l’origine conçu pour identifier les messages racistes, les premiers résultats des recherches ont permis un taux d’identification de sarcasme de 82% (contre 76% de réussite pour les humains mis à contribution). D’aucuns considèrent que le système de réseau de neurones artificiels utilisé pourrait permettre d'améliorer la modération automatisée des contenus haineux (Lire l’article).
Le modèle DeepMoji pré-entraîné est disponible pour tous (y compris les entreprises), et des implémentations sont disponibles pour les frameworks Keras et pyTorch. Les auteurs espèrent pouvoir compter sur la contribution des internautes qui peuvent soumettre leurs propres tweets et emojis car certaines phrases sont complexes à identifier. Par exemple, le taux de confiance est faible pour la phrase « J’aime Donald Trump » auquel DeepMoji associe les smileys tête de mort, diablotin, cœur. A contrario, DeepMoji a identifié l'ironie dans la phrase « J’aime être facturé pour un service gratuit » car il propose des emojis afférant à cette expression : pouce levé, sourire…
Pour en savoir plus : https://deepmoji.mit.edu/
11
Dégooglisons Internet.
Tags : alternatives aux géants du numérique - logiciels libres - empouvoirement des utilisateurs
« En route vers votre indépendance numérique...? La voie est libre ! Dégooglisons Internet vous propose de la cheminer en plusieurs étapes. »
Le réseau Framasoft, et l’association qui le soutient, considèrent que les “géants du web centralisent nos vie numériques en échanges de leurs services”. Le collectif se soucie du des effets potentiellement dangereux des plateformes en matière de protection des données et de la vie privée, de centralisation de l’innovation et de fermeture des systèmes.
Fort de ces constats, l’association Framasoft propose une gamme de services digitaux “libres, éthiques, décentralisés et solidaires” alternatifs aux populaires Google Docs, Skype, Dropbox, Facebook, Twitter, Google Agenda, Youtube, Yahoo!, Gmail, etc. Framasoft s’engage à :
- n’utiliser que des logiciels au code source « libre ». - promouvoir le respect et l’autonomie de ces utilisateurs (tant que la
réciproque sera vraie). - ne pas exploiter les données des utilisateurs de ses services, et à
promouvoir un Web ouvert et équitable. - faciliter l’auto-hébergement et l’interopérabilité, afin de ne pas «
enfermer » ses utilisateurs.
Pour en savoir plus : https://degooglisons-internet.org/ Compte Twitter : @degooglisons
12
.Design de la privacy,.
.une . cartographie à enrichir .
Tags : plateformes, données et vie privée : cartographie d'initiatives en faveur de la privacy
« Quelles sont les différentes stratégies des acteurs face à l'enjeu de représentation et de maîtrise des données
personnelles? »
Le laboratoire d’innovation LINC - de l’autorité de protection des données en France : la CNIL - a conçu avec la designer Mylène Podvin, une première cartographie expérimentale du legal design et du design de la privacy, comme un projet d'exploration de l'écosystème de la privacy au travers d'un nouveau regard : celui du design et donc des moyens concrets mis en oeuvre ou explorés pour informer, protéger, éduquer… Cette cartographie et ce benchmark ont vocation à évoluer grâce aux contributions des lecteurs.
En parallèle des autorités de protection de données personnelles, toute une série d'acteurs (associations, chercheurs, artistes ou même des start-ups) ont choisi de développer des projets innovants autour de la manière de parler de la privacy. Voici des exemples tirées de cette cartographie :
- Une des initiatives pour exposer, dénoncer par l'humour et l'ironie : I Know Where your Cat Lives : on recense plus de quinze millions de photos de chats géolocalisées postées publiquement sur des sites de partage, des milliers sont postées chaque jour, en voici la cartographie... qui est en fait celle de leur maître.
- Une des initiatives pour voter-évaluer-informer de la fiabilité : Privacy Grade, une application pour noter le respect de la vie privée des applications.
- Une des initiatives pour faire conscience via la visualisation des flux : Privacy Badger, qui est aussi une extension de navigation permettant de voir et bloquer les traqueurs par catégories, mais produit par l'EFF, une association.
Pour en savoir plus : https://linc.cnil.fr/fr/design-de-la-privacy-une-cartographie-de-veille-enrichir
Compte twitter : @LINCnil
13
.Diaspora* .
Tags : données et vie privée - réseau social distribué et open source « Le réseau social où vous gardez le contrôle. »
Diaspora* est un réseau social distribué et open source qui permet à ses utilisateurs de préserver le contrôle sur leur vie privée. Diaspora*est à la fois une application web de réseau social, et le réseau social distribué qui repose sur cette application. Chaque utilisateur du réseau peut choisir de s'inscrire sur un des serveurs diaspora* déjà existants (appelés pods) ou de créer le sien.
Ce nouveau serveur forme ainsi, avec l'ensemble des autres serveurs, la fédération diaspora*. Diaspora* est basé sur trois concepts clefs : décentralisation des données et des serveurs, liberté d’utiliser une identité différente de sa véritable identité et confidentialité des données.
L'application de serveur est distribuée sous licence libre (AGPL) depuis septembre 2010 et régulièrement mis à jour depuis. Diaspora* permet de rester connecté(e) avec ses ami(e)s même si ils/elles ne sont pas encore sur diaspora*. Il suffit de connecter le compte aux autres services et d'utiliser diaspora* comme base : ce qui sera publié sur un profil sera propagé à ces services automatiquement. Diaspora* permet la propagation vers les comptes Facebook, Twitter et Tumblr et d'autres sont à venir. Les fonctionnalités de diaspora* sont similaires à celles des principaux réseaux sociaux : hashtags, repartage, mentions (@) et like.
Pour en savoir plus : https://joindiaspora.com
14
.Do Not Track. Tags : données et vie privée - Web documentaire personnalisé - sensibilisation
« Découvrez ce que le Web sait sur vous…
en partageant vos données avec nous. » Do Not Track est une série documentaire de sept épisodes personnalisés consacrée à la vie privée et à l'économie du Web et plus particulièrement à la collecte des informations réalisée à l'insu des internautes. Do Not Track explore les différentes manières dont le Web moderne enregistre et traque nos activités, nos publications et nos identités. Afin d’aider l’internaute à comprendre comment ses informations sont utilisées et collectées, la série interactive lui demande de participer avec ses propres données étant précisé que plus il y a de données, plus les épisodes sont personnalisés. Les auteurs à l’origine du projet admettent que cela peut sembler paradoxal, mais que c’est en se prêtant au jeu que l’utilisateur pourra comprendre l’implication du tracking.
Do Not Track interpelle son public sur les questions suivantes : quelle est la valeur cachée derrière chacun de vos clics ? Que se passe-t-il sans que vous vous en rendiez compte et sans votre consentement ? Chaque épisode aborde un aspect différent de cette problématique, avec des thèmes aussi variés que le financement du web par la publicité et la traque par cookies, l’exploitation de nos données privées par les réseaux sociaux, ce que nos téléphones mobiles révèlent de nos vies, la personnalisation du contenu et la “filter bubble”, le big data et les algorithmes d’interprétation de nos données et le futur du tracking. Entre chaque épisode, l’utilisateur est invité à lire, écouter et fouiller plus en profondeur les thématiques abordées, à travers du contenu supplémentaire. Ce documentaire de 2015 qui incite les internautes à devenir prudent a été récompensé par de nombreux prix. Les porteurs de ce projet sont des diffuseurs publics, des journalistes, des développeurs, des graphistes et des membres de médias indépendants de différentes régions du monde. Ils promettent de n’utiliser les données des utilisateurs que pour personnaliser leurs épisodes. Il est possible de voir et supprimer ces données à tout moment.
Pour en savoir plus : https://donottrack-doc.com/fr
15
Documenting Hate . Tags : discours de haine - base de données contributive
« Les données sur les crimes de haine et les incidents de partialité sont insuffisantes. Propublica et ses partenaires essaient de changer cela. »
Porté par les journalistes d'investigation du site d’information indépendant Propublica, Documenting Hate est un projet de base de données contributive visant à améliorer la documentation des crimes de haine en ligne et hors ligne. Il fait suite au constat du manque récurrent de données vérifiées et exploitables en la matière, puisqu’il n'existe pas de données fiables sur les crimes haineux aux États-Unis. Par ailleurs, les agences gouvernementales ne répertorient pas les incidents dits de “niveau inférieur”, tels que les tentatives d’intimidation en ligne ou dans la vie réelle. Les journalistes de Propublica estiment que la documentation et la compréhension de ces incidents dans leur ensemble est nécessaire - qu’il s’agisse des meurtres motivés par la haine ou de trolling racistes en ligne; et que ces sujets nécessitent des approches nouvelles et plus créatives.
L'objectif de Documenting Hate est de recueillir les témoignages de victimes ou de témoins afin de créer une base de données qui puisse par la suite être exploitée par les journalistes, chercheurs et associations de défense des droits civils. Documenting Hate a regroupé une coalition nationale d'organismes de presse, de groupes de défense des droits civils et de sociétés de technologie. Participent par exemple des organismes comme The Google News Lab, Univision News, New York Times Opinion Section, WNYC, BuzzFeed News, First Draft, Meedan, New America Media, The Root, Latino USA, The Advocate, et Ushahidi, des groupes de défense des droits civils tels que le Southern Poverty Law Centre ou encore des écoles comme l'Université de Miami School of Communication.
Pour en savoir plus : https://projects.propublica.org/graphics/hatecrimes
Contact Twitter : @DocumentHate
16
Droit au déréférencement .
Tags : extension pour contrôler le déréférencement
« Comment suivre l’état d’avancement et l’effectivité du droit au déréférencement ? Une démarche fastidieuse si on l’effectue à la main,
mais pour laquelle le LINC a développé un outil open source à installer sur votre navigateur. »
Depuis 2014, le droit au déréférencement permet aux citoyens européens de demander à un moteur de recherche de supprimer certains résultats de recherche associés à leurs noms et prénoms. Un droit qui ne signifie pas l’effacement de l’information sur le site internet source, mais qui consiste à supprimer l'association d'un résultat de recherche de votre nom et de votre prénom. La demande de déréférencement implique dans un premier temps de vérifier si le résultat à déréférencer apparaît dans les résultats de recherche. Mais comme il peut y avoir un grand nombre de résultats pour une requête, la vérification peut s’avérer fastidieuse si le résultat n’apparaît qu’après un grand nombre de pages ! Par ailleurs, l’ordre des résultats peut varier suivant de nombreux critères, comme votre adresse IP, votre historique de vos recherches, ou encore votre navigateur. Le rang d’un résultat de recherche peut varier dans le temps ; c’est donc également le cas de la page de résultats sur laquelle il apparaît. Ainsi, ce n’est pas parce qu’un résultat n’apparaît plus sur une page donnée qu’il a forcément été déréférencé.
Pour vous aider à vérifier l’effectivité de l’exercice de vos droits, l’équipe du laboratoire de la CNIL a développé une extension pour trois navigateurs (Firefox, Chrome et Opéra) qui permet de déterminer si un lien apparaît ou non parmi l’ensemble des résultats d’un moteur de recherche, à la saisie d’un nom. Cette extension peut ainsi simplifier les démarches des personnes ayant demandé un déréférencement en déterminant, parmi les moteurs de recherches proposés, si un résultat apparaît et s’il a bien été déréférencé suite à la demande.
Pour en savoir plus : https://linc.cnil.fr/outil-controlez-votre-dereferencement Contact Twitter : @LINCnil
17
.Égalité numérique par.
.l’Accès à . une infrastructure.
.Haut Débit. Tags : initiative territoriale de la société civile - accès à Internet, inclusion et médiation numériques
« L’association a pour objet principal d’aider les plus démunis en zone blanche ou grise (en particulier les zones non denses, rurales) à obtenir un accès numérique
satisfaisant. » La loi du 7 octobre 2016 pour une République numérique reconnaît le droit au maintien de la connexion Internet en cas de défaut de paiement pour les personnes les plus démunies. Dans un département, de nombreuses personnes en situation de précarité (chômeurs, TPE, indépendants, artisans, agriculteurs …) n’ont pas d’accès à un réseau (aDLS, LTE 4G…) avec un débit suffisant (cas des zones blanches, zones grises). Mais les « décideurs opérationnels » pour un département sont parfois nombreux : l’opérateur historique, la structure départementale « numérique » créée sous l’impulsion de l’état pour déployer la fibre, les opérateurs avec divers projets de montée en débit aDSL, projets « fibre » et projets « LTE 4G » (pour les zones rentables), et les financeurs publics (communautés de communes, communes, département, région…). Et les solutions techniques ne sont pas simples à expliquer (monter en débit ADSL, 4G, wimax, satellite…).
L’objet de l’association « Égalité Numérique par l’Accès à une Infrastructure Haut Débit » est social et apolitique, elle est basée en Charente. Ses actions sont de deux ordres : (1) Au cas par cas, accompagner des personnes dans leurs
demandes d’un accès correct à Internet et à l’horizon 2022 le Haut Débit, en suivant le plan de travail proposé par l’ARCEP ; (2) Informer par des réunions publiques et le site web de l’association sur le Plan Numérique du département/région (informations officielles disponibles) et de la procédure pour obtenir une connexion dans une zone blanche. Les principaux points présentés sont :
- des informations sur les types d’infrastructures (cuivre, fibre, radio, satellite…),
- les décideurs locaux (opérateurs, zones RIP (réseau d’initiative publique), zones d’intervention privée…),
- le Schéma Départemental Territoriale d’Aménagement Numérique (SDTAN), et
- les démarches à faire pour avoir une connexion en zone blanche. Cette initiative a été transmise au CNNum par Michel Jannet, Président de l’association via la partie débattre de la consultation sur la confiance à l’ère des plateformes.
Pour en savoir plus : https://egalitenumerique.wixsite.com/egalitenumerique
Compte twitter : Égalité Numérique (@ENAIHD16)
18
.Ethics for Design .
Tags : design et actions sur les comportements - éthique
« Est-ce que tout ce que conçoit le designer est fait dans notre intérêt ? Il est hors de question de laisser les générations actuelles et futures de designers indifférentes à l’impact de leur métier et à la valeur de leur responsabilité. »
Ethics for Design est un documentaire dans lequel douze designers et chercheurs, venant de 8 villes européennes, discutent ensemble de l’impact, parfois néfaste, du design sur nos sociétés et des chemins à emprunter pour que le designer travaille pour le bien de tous.
Le documentaire met en évidence des phénomènes tels que l’économie de l’attention à travers des interfaces et l'obsolescence programmée. Les auteurs du projet expliquent qu’il devient évident que la conception de n’importe quel produit peut être un dilemme moral quand le designer doit choisir entre sa survie économique, l’intérêt financier de son commanditaire et le bien-être de l’usager. Aussi, face à ces dilemmes qui vont devenir une constante du métier de designer, les porteurs d’Ethics for Design considèrent qu’il est primordial de créer une base de réflexion et de définir une orientation à une profession qui reste incroyablement éparse, c’est-à-dire définir une éthique.
Le but du documentaire est de faire prendre conscience que la question de l’éthique doit être soulevée maintenant afin que le métier de designer gagne en autonomie et en pertinence face aux enjeux réels de nos sociétés. L’éthique est un questionnement permanent sur ce qui est souhaitable pour le bien de tous et il est impensable que les designers ne prennent pas part aujourd’hui à ce questionnement.
Pour en savoir plus : ethicsfordesign.com Documentaire : https://vimeo.com/235547814
19
Facebook - agb - das musical .
Tags : comédie musicale - CGU de Facebook
« Un des textes les plus mystérieux de l’époque contemporaine enfin mis sur scène. »
La comédie musicale allemande “facebook-agb - das musical” (CGUs de Facebook - la comédie musicale) est une pièce qui met en scène les conditions générales d’utilisations du réseau social Facebook. C’est à travers une histoire d’amour, des chansons et un happy-end que les auteurs Tim Gerhards et Peer Gahmert ont souhaité faire découvrir aux spectateurs les nombreuses clauses établies par le texte, généralement inconnues du grand public. La pièce est interprétée par la troupe du “Theater Spedition“ de Brême.
Pour en savoir plus : http://facebook-agb-das-musical.de/ueber/
20
Factitious .
Tags : Lutte contre les fake news et éducation - outil interactif
« Le nouveau jeu en ligne qui permet de démasquer les fake news. »
Développé par l'American University Game Lab, “Factitious” est un outil interactif et ludique qui propose de tester notre capacité à discerner une bonne d'une mauvaise information. Les auteurs du jeu sont partis du constat que certaines fake news sont si crédibles qu’il devient parfois difficile de les déceler sans apprendre les indices pour les repérer.
Le site fonctionne selon le principe suivant : il propose plusieurs articles, avec la possibilité de vérifier la source, et l'utilisateur doit décider si l'information donnée est vraie ou non.
Pour en savoir plus : http://factitious.augamestudio.com/#/
Lire l’article Un jeu en ligne veut vous apprendre à démasquer les fake news - Numerama
21
.Fair Crowd Work . Tags : syndicalisme - rééquilibrage des rapports de pouvoir crowdsourcing - informations - conditions commerciales des plateformes de travail à la demande
« Saviez-vous qu'il existe des syndicats pour les travailleurs des plateformes ? »
Fair Crowd Work est une plateforme qui recueille des informations sur le travail des applications et d'autres travaux basés sur des plateformes à destination des travailleurs et des syndicats. Fair Crowd Work offre des évaluations des conditions de travail sur différentes plateformes de travail en ligne sur la base d'enquêtes auprès des travailleurs. La plateforme sert également d’outil de négociation car elle facilite la coordination des travailleurs en lutte pour l’amélioration de leurs conditions de travail.
Il s'agit d'un projet commun d'IG Metall (Union allemande des métallurgistes), de la Chambre autrichienne du travail, de la Confédération syndicale autrichienne et de l'Union suédoise de colis blanc Unionen, en association avec des partenaires de recherche et de développement, Rencontre technique et M & L Communication Marketing. Cette initiative se base sur les travaux de recherche de Six Silberman développés précédemment aux États-Unis.
Pour en savoir plus : http://faircrowd.work/fr/
22
FAT ML . Tags : algorithmes et machine learning - événement annuel de partage de ressources bibliographiques
« Réunir une communauté croissante de chercheurs et de praticiens soucieux d'équité, de responsabilité et de transparence
dans l'apprentissage automatique. »
Fairness, Accountability, and Transparency in Machine Learning - FAT ML - est un événement annuel qui se déroule depuis 2014. Il rassemble une communauté croissante de chercheurs, adeptes et responsables politique concernées par les enjeux de loyauté, de responsabilité et de transparence posés par les processus d’apprentissage par la machine. Il s’agit principalement d’un forum de discussion. Les participants sont invités à soumettre leurs papiers de recherche et ressources bibliographiques concernant les thèmes abordés, qui sont ensuite publiés.
Pour en savoir plus : http://www.fatml.org/
23
FlipFeed . Tags : curation - algorithmes - projet académique - extension pour navigateur - percer sa bulle filtrante
« Plongez dans le flux Twitter de quelqu'un d'autre. »
FlipFeed est une extension Google Chrome qui permet aux utilisateurs de Twitter de remplacer leur propre flux par celui d'un autre utilisateur réel de Twitter. Propulsé par l’apprentissage profond (deep learning) et l'analyse des réseaux sociaux, les flux sont sélectionnés en fonction de l'idéologie politique inférée («gauche» ou «droite») et servent les utilisateurs de l'extension. Par exemple, un sympathisant de droite qui utilise FlipFeed peut charger et naviguer dans un flux d'utilisateurs de gauche, en observant les nouvelles, les commentaires et autres contenus qu'ils consomment. L'utilisateur peut alors décider de retourner dans sa ligne politique ou de répéter le processus avec un autre flux.
FlipFeed a été élaboré par des chercheurs du Laboratoire Social Machines du MIT Media Lab pour explorer comment les plateformes de réseaux sociaux peuvent être utilisées pour atténuer, plutôt que d'exacerber, la polarisation idéologique en aidant les gens à explorer et à s’ouvrir à des perspectives différentes.
Pour en savoir plus : https://flipfeed.media.mit.edu/
24
.Google Transparency Project . Tags : plateformes et pouvoirs publics - transparence du lobbying - initiative militante
« Le Google Transparency Project est une ressource en ligne qui permet au public d'explorer l'influence de Google sur le gouvernement,
les politiques publiques et nos vies. » Le projet Google Transparency est une initiative de recherche de Campaign for Accountability (CfA) - une organisation non gouvernementale engagée dans le dévoilement d'épisodes de corruption, de négligence ou de comportements immoraux dans les lieux de pouvoir.
À travers cette initiative, la CfA cherche à démontrer qu’au cours de la dernière décennie, Google a pris une ampleur d’empire commercial qui dépasse celui de moteur de recherche Internet dominant, et que cela a des répercussions insuffisamment connues sur la vie des citoyens, ici américains. Pour ce faire, la CfA met par exemple en lumière le fait que les dépenses de lobbying que Google a consacré en 2015 auprès de la Maison Blanche (plus de 16,6 millions de dollars) ont excédé le budget consacré par toutes les autres entreprises de technologie.
Le Google Transparency Project entend remédier à ces défauts de transparence : il s’agit d’une initiative de recherche globale et participative visant à aider le public à suivre l'influence de Google sur le gouvernement, les politiques et les citoyens américains. Il rassemble des documents répertoriant l'influence de Google et rend consultable des informations par n'importe quel utilisateur - qui peut par ailleurs les enrichir et proposer de nouvelles pistes de recherche.
Pour en savoir plus : https://googletransparencyproject.org/
Compte Twitter : @GTP_updates
Voir aussi : D’autres initiatives existent aussi en Europe pour oeuvrer en faveur de la transparence quant à l’influence des grands acteurs du numérique, tels que le site Lobbyplag, qui a suivi le processus législatif du Règlement européen sur la protection des données, ou les travaux de Transparency International avec par exemple ce rapport de mai 2017.
25
.International.
.Fact-Checking Network. Tags : plateformes, médias et contenus problématiques - fact-checking
« L'International Fact-Checking Network @Poynter rassemble des vérificateurs de faits dans le monde entier. »
Le réseau d’International Fact-checking (IFCN) est un forum mondial regroupant des fact-checkers (des vérificateurs de faits). Il est coordonné par l’institut de recherche américain Poynter Institute for Media Studies. Les organisations membres du réseau vérifient les propos tenus par des figures publiques (responsables politiques, personnalités influentes de la société civile,...), les informations rapportées par des journaux et médias de masse, ainsi que les rumeurs qui circulent sur les réseaux sociaux. Créée en 2015, l’organisation s’est plus particulièrement fait connaître à la suite du partenariat qu’elle a signé avec Facebook afin de sélectionner les fact-checkers habilités (essentiellement des journaux reconnus) à travailler avec le géant américain pour lutter contre les fake news circulant sur sa plateforme.
L’objectif de l’IFCN est de favoriser les meilleures pratiques et les échanges dans le domaine du fact-checking : - en surveillant les tendances et les formats dans la vérification des faits
dans le monde entier, en publiant des articles réguliers sur le sujet ; - en aidant à maintenir des pratiques exemplaires grâce à un code de
principes et aux projets des vérificateurs de faits pour suivre l'incidence de la vérification des faits ;
- en finançant des bourses annuelles et un programme de financement participatif ;
- en réunissant des vérificateurs lors d'une conférence annuelle (Global Fact) et en encourageant les efforts de collaboration en matière de vérification des faits à l'échelle internationale ;
- en fournissant des formations présentielles et en ligne ; - en plaidant en faveur d'une vérification plus poussée des faits,
notamment par le biais d'une journée internationale annuelle de vérification des faits.
Le premier et actuel directeur de l'IFCN est Alexios Mantzarlis épaulé depuis septembre 2017 du directeur de programme Dulce Ramos et du reporter Daniel Funke. L'IFCN a reçu des fonds de la Fondation de la Famille Arthur M. Blank, du Duke Reporters’ Lab, de la Fondation Bill & Melinda Gates, de Google, du National Endowment for Democracy, du Omidyar Network, des Open Society Foundations et du Park.
Pour en savoir plus : https://www.poynter.org/channels/fact-checking Contacts Twitter : @factchecknet et @Mantzarlis
26
.IOTics . Tags : projet de recherche interdisciplinaire sur les données des objets connectés
« La sécurité, la transparence et le contrôle par l’utilisateur sont trois propriétés clefs qui devraient être suivies par tous les acteurs présents dans le monde des
smartphones et des objets connectés. »
Le projet IOTics (appel ANR 2016 DAPCODS) part de l’engouement actuel des utilisateurs pour l’automesure via des wearables devices, la domotique intelligente, et de façon générale les objets connectés qui permet de collecter des données personnelles parfois très sensibles dans des domaines jusque-là hors de portée. Cependant on connaît peu de choses sur les pratiques et conditions de sécurité, de confidentialité et d’échanges de données.
Le projet de recherche - piloté par Vincent Roca de l’INRIA - regroupe quatre équipes de recherche renommées, expertes en sécurité, vie privée et économie numérique. Elles sont secondées par la CNIL, l’agence française de protection des données. Le projet contribuera selon plusieurs axes :
1- En analysant le fonctionnement interne d’un ensemble significatif d’objets connectés en termes de fuite d’informations personnelles. Ceci sera rendu possible par l’analyse de leurs flux de données (et de l’application smartphone associée le cas échéant) depuis l’extérieur (smartphone et/ou réseau d’interconnexion) ou l’intérieur (par des analyses statiques et dynamiques sur l’objet lui-même). De nouvelles méthodes et outils seront nécessaires, certains s’appuyant sur des travaux antérieurs ;
2- En étudiant les chartes de vie privée des fabricants d’objets connectés selon plusieurs critères (par exemple l’accessibilité de la charte, sa précision et sa focalisation sur l’objet, et les risques de vie privée annoncés). Dans un deuxième temps, les affirmations seront comparées au véritable comportement de l’objet connecté, ainsi qu’il aura été observé lors des campagnes de tests. Ceci permettra un classement précis et unique de ces objets connectés ;
3- En comprenant l’écosystème sous-jacent, selon l’angle économique. Les données alors récoltées permettront de définir les frontières jusqu’ici floues du marché des données personnelles, essentiel pour mettre en place une régulation efficace ;
4- Finalement en proposant un site web public qui classera ces objets connectés et informera le citoyen. L’impact de cette information sur le changement potentiel de comportement des acteurs sera ainsi testé.
En donnant des informations transparentes sur des comportements cachés, en mettant en lumière les bonnes et les mauvaises pratiques, ce projet contribuera à réduire l’asymétrie d’information du système, à rendre un certain contrôle aux utilisateurs finaux, et nous l’espérons à encourager certains acteurs à changer de pratiques.
27
. J’alerte l’ARCEP . Tags : Pouvoirs publics et plateformes : nouvelle forme de régulation - remontée des problèmes par les utilisateurs
« [J’alerte l’Arcep] c'est l'objectif de la régulation par la data, un nouveau mode d'action qui complète les outils traditionnels du régulateur. Son principe : utiliser la puissance de l'information afin d'orienter le marché dans la bonne direction. »
L'arcep a lancé un espace de signalement qui permet à tout un chacun, particulier ou élu, entreprise ou collectivité de l'alerter des dysfonctionnements rencontrées dans ses relations avec les opérateurs fixes, mobiles, internet, de courrier et de colis.
Cette plateforme répond à plusieurs objectifs : - pour les utilisateurs, elle ouvre l'opportunité de faire peser leur expérience
dans la régulation du marché, pour inciter les opérateurs à améliorer leurs services et à développer leurs réseaux. Elle leur permet également d'obtenir rapidement des conseils adaptés à leur situation ;
- pour l'Arcep, les alertes recueillies permettront de suivre en temps réel les difficultés rencontrées par les utilisateurs. Elle pourra alors s'appuyer sur les récurrences des dysfonctionnements rencontrés, et détecter des pics ou des signaux faibles pour cibler son action et être plus efficace dans ses actions de régulation vis-à-vis des opérateurs.
"J'alerte l'Arcep" est un outil s'inscrivant dans une stratégie de modernisation de la régulation et dans la démarche d'État-plateforme. L’Arcep affirme que pour exercer sa mission, elle doit être à l'écoute des utilisateurs des réseaux internet fixes, mobiles et postaux, savoir détecter les signaux faibles, et informer de la manière la plus fine et la plus transparente possible pour faire de chaque citoyen un micro-régulateur.
Pour en savoir plus : https://jalerte.arcep.fr/
28
.Justdelete.me . Tags : actions sur les comportements - initiative militante visant à supprimer les comptes utilisateurs
« Un répertoire de liens directs pour supprimer votre compte des services Web. »
De nombreuses compagnies utilisent des techniques appelées dark patterns rendant fastidieux voire impossible la possibilité de supprimer un compte utilisateur. Justdelete.me est une initiative - menée par l’association de défense des droits des utilisateurs BackgroundChecks - dont l’objectif est de devenir un annuaire de liens qui permet de supprimer facilement les comptes de différents sites webs. JustDelete.me, également disponible sous la forme d’une extension, utilise un code-couleur pour indiquer le niveau de difficulté de suppression d’un compte :
● Facile - Processus simple ; ● Moyen - Étapes supplémentaires requises ; ● Difficile - Ne peut être totalement supprimé sans contacter le support ; ● Impossible - Ne peut être supprimé.
Pour en savoir plus : http://backgroundchecks.org/justdeleteme/ Voir aussi : le Fake Identity Generator de BackgroundCheck qui permet de générer une fausse identité avec un nom, une adresse, une date de naissance, un nom d'utilisateur, un mot de passe et une biographie fictifs.
Pour en savoir plus : http://backgroundchecks.org/justdeleteme/fake-identity-generator/
29
.L’oracle du net . Tags : actions sur les comportements - tracking - cookies
« Installez et laissez l’Oracle vous montrer ce que fait Facebook de vos likes, Twitter de vos retweets et Google de vos requêtes. »
L'oracle du Net est un plugin de “prédiction” basé sur les données de navigation de l’utilisateur momentanément recueillies. L'objectif est d’inviter les internautes à s'interroger sur la manière dont les algorithmes les calculent lorsqu’ils naviguent sur le web. L’oracle du net s’incarne dans un personnage, Hally, qui va accompagner les internautes dans leur navigation sur les réseaux sociaux et moteurs de recherche, afin de révéler le fonctionnement des algorithmes et enjeux qui y sont associés. Il s’agit d’un projet open-source disponible sur Github développé par Victoria Duchatelle, Clément Isaïa (artiste et développeur logiciel) en collaboration avec ‘Linc”, le laboratoire d’innovation de la Commission Nationale de l'Informatique et des Libertés.
En mobilisant une interface d’utilisation originale et ludique permettant de « gratter » et de découvrir d’autres couches du web, l’oracle du net vise à faire prendre conscience des mécanismes sous-jacents qui conditionnent la manière dont les internautes accèdent, interagissent et réagissent à l’information ou dont leurs opinions sont confrontées à d’autres. In fine, l’oracle encourage l’utilisateur à réfléchir au fonctionnement de ces services afin qu'il ne se laisse pas enfermer ou formater dans des calculs algorithmiques et qu'il conserve son libre arbitre.
Pour en savoir plus : https://oracledu.net/
Compte Twitter : @Oracledunet
30
.Legal Design Toolbox. Tags : Transparence et actions sur les comportements - lisibilité et compréhensibilité des GGU
« Amener le design centré sur l'humain dans les systèmes juridiques. » Le Legal Design Toolbox est un ensemble de ressources pour les aspirants designers qui abordent les défis juridiques avec une approche créative, générative et centrée sur l'utilisateur. Il s’agit d’une boîte à outils comprenant des guides, des outils et des exemples pour aider à étendre et relever des défis juridiques avec le design. La boîte à outils est structurée par le type de défi à résoudre :
- transmettre de l'information de manière plus significative ; - développer des idées en produits et services d'information ; - créer une culture de l'innovation dans une organisation.
La directrice du Legal Design Lab est Margaret Hagan, chercheuse au sein de l’École de droit de Stanford. Son article “How Lawyers Can Benefit From Visual Content ?” (https://visual.ly/blog/lawyers-visual-content/) résume comment utiliser des contenus visuels pour expliquer le droit.
Pour en savoir plus : http://www.legaltechdesign.com/LegalDesignToolbox/
Contacts Twitter : @LegalDesignLab et @margarethagan
31
.Les CGU d’Instagram.
.pour les . nuls .
Tags : Transparence et actions sur les comportements - lisibilité et compréhensibilité des GGU
« Les règles d’Instagram expliquées à des mineurs. » Selon une étude britannique du Children Commissioner, plus de la moitié des 12-15 ans ont un compte Instagram, 43% des 8-11 ans, mais combien ont pris le temps de lire les 17 pages de conditions d'utilisation avant d'ouvrir leur compte ? On sait par ailleurs que seulement 10% des plus de 15 ans déclarent l'intégralité des politiques de confidentialité (Baromètre 2016 CNIL-Médiamétrie, p. 44). Partant de ce constat, Jenny Afia, juriste experte en protection des données personnelles a réécrit les conditions d'utilisation du réseau Instagram dans un langage accessible pour les enfants, et plus compréhensible pour leurs parents. En voici des exemples (traduits de l'anglais) :
- "Bien que tu restes responsable des informations que tu postes sur Instagram, nous pouvons garder, utiliser et partager tes informations personnelles avec des entreprises connectées à Instagram [...] nous ne sommes pas responsables de ce que feront ces autres entreprises de tes informations...
- "Officiellement, tu es propriétaire des photos et vidéos que tu postes, mais nous sommes autorisés à les utiliser, nous pouvons aussi laisser d'autres personnes les utiliser, partout dans le monde. D'autres peuvent nous payer pour l'utilisation de celles-ci, mais n'auront pas à te payer en échange".
- "Nous pouvons t'obliger à abandonner ton nom d'utilisateur, sans raison particulière".
L'étude repérée a fait l'objet d'un long article dans le média étasunien Quartz, également citée (en français) dans un article de Business Insider France.
Pour en savoir plus : https://linc.cnil.fr/fr/une-juriste-traduit-les-cgu-dinstagram-pour-les-enfants-et-les-adultes
Contacts Twitter : @JennyAfia
À voir : les CGU d’Itunes en format comics - l’artiste Robert Sikoryak a adapté les CGU d’Itunes en reprenant les codes des plus célèbres BD. Pour en savoir plus :
http://www.ladn.eu/mondes-creatifs/crea-pop/les-conditions-dutilisation-ditunes-revues-a-la-sauce-comics/
32
.Little Brother. Tags : vie privée et données personnelles - sensibilisation au numérique - roman pour les adolescents
« Les ordinateurs peuvent vous contrôler ou vous faciliter la vie - si vous voulez dominer la machine, il faut que vous appreniez à
programmer. »
Little Brother est un roman de Cory Doctorow, publié par Tor Books en 2008. Le roman raconte l'histoire de quatre adolescents à San Francisco qui, à la suite d'une attaque terroriste contre le système BART de San Francisco-Oakland Bay, se sont défendus contre les attaques du Department of Homeland Security à l’encontre du Bill of Rights.
Le roman est disponible gratuitement sur le site de l'auteur sous une licence Creative Commons (CC BY-NC-SA). Le roman qui comprend de nombreuses explications sur le chiffrement ou encore les outils de navigation anonymes a été traduit dans de nombreuses langues et a fait l’objet d'adaptations au théâtre et au cinéma.
Pour en savoir plus : http://craphound.com/category/littlebrother/ Compte twitter : @doctorow
À voir aussi : la BD “Dans l’ombre de la peur, le Big Data et nous” du dessinateur Josh Neufeld et du journaliste Michael Keller, spécialiste des nouveaux médias. Les auteurs ont interviewé des experts du numérique — politiques, universitaires et chercheurs — pour un tour d'horizon des pratiques des plateformes qui soulèvent de nombreuses questions et notamment celle des risques liés à l'exploitation des données personnelles.
33
.Mozilla Information .
.Trust Initiative - MITI. Tags : curation - algorithmes - projet académique - extension pour navigateur - percer sa bulle filtrante
« Pour qu’Internet reste crédible et sain, Mozilla développe des produits, des recherches et des communautés pour combattre la pollution de l’information
ainsi que les fameuses “Fake News”.»
La Fondation Mozilla a lancé en août 2017 une initiative pour combattre la désinformation sur Internet intitulée “Mozilla Information Trust Initiative” (MITI). En luttant contre la pollution de l’information et la propagation des fake news dans l’espace virtuel, l’objectif affiché est de rendre le Net plus “sain” afin de le mettre "en capacité de soutenir une société démocratique". En effet, la propagation de la désinformation viole les
principes du Manifeste Mozilla.
Considérant que la désinformation est un problème complexe trouvant sa source dans la technologie, mais également la science cognitive, l’économie et l’éducation, le projet s'articule autour de quatre domaines que sont : l’éducation, la recherche, le produit et les interventions créatives. - Le produit - L’équipe Open Innovation de Mozilla va travailler avec des
spécialistes technologiques et artistes pour développer une technologie combattant la désinformation. Mozilla s’alliera avec des organisations médiatiques globales et renforcera ses efforts dans sa partie produits, notamment avec Coral, Pocket et Focus
- L’éducation - Afin d’éduquer et responsabiliser les internautes, ainsi que ceux à la tête d’initiatives éducatives innovantes, Mozilla compte développer un programme d’éducation en ligne qui traitera de la désinformation, et continuera à investir dans des projets existants tels que Mission : Information
- La recherche - Mozilla dévoilera prochainement un rapport sur l’impact de la désinformation sur l’expérience en ligne des utilisateurs qui se basera sur l’analyse de données de navigation pendant les élections américaines de 2016
- Interventions créatives - Mozilla financera les propositions utiles pour combattre la désinformation via la réalité virtuelle et augmentée. Mozilla soutiendra également des événements clés dans ce domaine, tels que Media Party Argentina, le Computation+Journalism Symposium, l'Online News Association …
Pour en savoir plus : https://blog.mozilla.org/press-fr/2017/08/09/mozilla-information-trust-initiative-creer-un-mouvement-p
our-combattre-la-desinformation-en-ligne/ Compte twitter : @mozilla
34
.My Data Can . Tags : projet de recherche - PIMS - empouvoirement des utilisateurs
« MyDataCan™ met vos données sous votre contrôle pour améliorer votre vie. »
MyDataCan est l’un des premiers services publics gratuits de PIMS (système de gestion des informations personnelles). Offert par le Data Privacy Lab de l’université de Harvard, le projet de recherche a opéré comme laboratoire vivant pour la recherche relative à l'engagement du consommateur numérique et à la responsabilisation de l’usager vis-à-vis des données personnelles. MyDataCan propose de renfermer toutes données relatives à une personne dans une “boîte” dont la personne a librement et exclusivement accès. L’usager pourra décider à qui donner accès à ses données en échange de services personnalisés. Les données de l’utilisateur pourront être utilisées par les chercheurs pour poursuivre leurs recherches. L’outil s'adresse en particulier aux données médicales.
Pour en savoir plus : https://mydatacan.org/
35
Pop your bubble . Tags : visibilisation d’opinions différentes - pluralisme des contenus
« Seulement 5% d'entre nous voient des messages de médias sociaux qui diffèrent grandement de notre vision du monde. »
Partant du constat que la majorité des internautes consultent l'actualité sur les réseaux sociaux et compte-tenu des effets nuisibles des bulles filtrantes des algorithmes des Facebook notamment en période électorale, Daniel Lubetzky, à l'origine de la fondation KIND a mis en place le projet américain Pop you bubble (littéralement “éclate ta bulle filtrante”). L’outil propose de suivre dix internautes extérieurs à sa propre bulle pour ouvrir aux opinions contraires après une analyse sociodémographique de chaque internaute intéressé. Les personnes suivantes sont volontaires et l’application incite les utilisateurs ayant brisé leurs bulles à suivre dix nouvelles personnes en ouvrant à leur tour leur profil au public. Pop Your Bubble recourt pour ce faire à une fonctionnalité existante sur Facebook, qui permet de suivre certains utilisateurs — comme sur Twitter — sans devenir leur ami ni les obliger à nous suivre en retour.
Pour en savoir plus : https://www.popyourbubble.com/ Voir aussi : l’application Read across the aisle, qui se base sur vos sources d’actualité préférées pour vous suggérer des médias jugés à l’opposé de ce sceptre politique.
36
.Predictive World. Tags : projet de recherche international - outil de prédiction basé sur les données personnelles
« Predictive World est une expérience interactive en ligne, dans laquelle les
utilisateurs découvrent à quel point un cyber-système peut prédire leur avenir en se basant sur les traces numériques de leur comportement. »
Predictive world est un outil de prédiction dont l'objectif est de dresser un portrait complet de l’utilisateur et de prédire son avenir. Il a été créé par les psychologues du Psychometrics Centre de l’université de Cambridge en collaboration avec Sid Lee Paris et Ubisoft! pour la sortie du jeu Watch Dogs 2. En s’appuyant sur les données personnelles collectées sur le profil Facebook (âge, sexe, goûts…), l’outil élabore plusieurs prédictions sur la personnalité et le développement de la vie de l’utilisateur en les résumant sur un graphique à plusieurs variables. Les données sont présentées sous la forme d’un cercle divisé en plusieurs catégories : santé, profil, environnement, famille, travail, préférences et psychologie. L’objectif de l’outil est donc à la fois ludique et éducatif. Predictive World a été utilisé par un million de personnes dès les trois premières semaines de son lancement.
Pour en savoir plus : https://predictiveworld.watchdogs.com/fr/
La présentation de l’outil par l’Université de Cambridge : https://www.psychometrics.cam.ac.uk/news/predictive-world-cyber-system-launches-to-global-audience
37
.Price by ZIP Challenge . Tags : projet de recherche - pratiques tarifaires discriminatoires
« Dans ce défi, nous demandons au public de nous aider à identifier les sites Web
qui demandent spécifiquement un code postal (ville ou autre désignation géographique) avant de révéler le prix d'un service ou d'un produit. »
Le défi Price by Zip est un projet de recherche américain mené en 2015 qui vise à recenser les sites internet qui opèrent une discrimination entre les usagers à partir de leur code postal pour leur imposer différents prix. L’objectif de ce projet est d’informer l’usager sur la pratique tarifaire opérée sur le site. Les chercheurs précisent que les ressources et les coûts d'exploitation peuvent différer d'un endroit à l'autre et qu’il existe de nombreuses raisons de faire varier le prix selon l'emplacement géographique. Ce n'est pas parce que les prix diffèrent que cela est illégal, discriminatoire ou préoccupant. Cependant, ils expliquent qu’il est dans l'intérêt de la recherche publique de mieux comprendre quels sites Web font varier les prix par emplacement, de documenter comment ces prix peuvent différer, et d'étudier les raisons et les corrélations.
Pour en savoir plus : https://techscience.org/a/2015090101/
Voir aussi deux études complémentaires publiés dans la même période :
- Price Discrimination in The Princeton Review's Online SAT Tutoring Service : https://techscience.org/a/2015090102/
- Who's Paying More to Tour These United States? Price Differences in International Travel Bookings : https://techscience.org/a/2015081105/
38
.Privacy Patterns .
Tags : projet de recherche international et pluridisciplinaire sur le privacy by design
« La protection de la vie privée représente une grande variété de préoccupations - subjectives, contextuelles, difficiles à définir - que les
personnes réelles ont à propos des flux de renseignements personnels. »
L’initiative Privacy Patterns a été lancée pour permettre aux développeurs web de mieux comprendre le concept de privacy et les implications qui en découlent d’un point de vue technique. Elle a pour finalité de traduire les obligations juridiques liées à la privacy en artefacts techniques et conseils pratiques afin de s’assurer que les outils développés respectent bien le principe de “privacy-by-design”. Ces bonnes pratiques sont élaborées par la communauté d’ingénieurs, de designers, de juristes et de régulateurs autour de trois axes :
- standardiser le langage pour les technologies préservant la vie privée ; - documenter des solutions communes aux problèmes de confidentialité ; - aider les concepteurs à identifier et à résoudre les problèmes de
confidentialité.
Ce projet est une collaboration de : Michael Colesky et Jaap-Henk Hoepman, Université Radboud ; Christoph Boesch, Frank Kargl, Henning Kopp et Patrick Mosby, Université d'Ulm ; Daniel Le Métayer, Inria ; Olha Drozd, Université d'économie et des affaires de Vienne ; José M. del Álamo et Yod Samuel Martín, Université Politécnica de Madrid ; Mohit Gupta, Clever et Nick Doty, UC Berkeley School of Information.
Jeff Zych et Rowyn McDonald ont aidé à concevoir ce site. Ce projet est basé en partie sur des travaux soutenus par le Département américain de la sécurité intérieure et l'Institut national des normes et de la technologie, sous les auspices de l'Institute for Information Programme de recherche Protection des infrastructures (I3P). L'I3P est géré par le Dartmouth College. Le Centre de droit et de technologie de Berkeley a soutenu cette recherche en partie grâce à un don de recherche de Nokia. Ce travail a été soutenu par le septième programme-cadre (7e PC) de l'Union européenne, via le projet PRIPARE.
Pour en savoir plus : https://privacypatterns.org
39
.Respect my net . Tags : neutralité du Net - plateforme activiste de signalement
« Sur Internet, vous décidez de ce que vous faites, n'est-ce pas ? Ou pas. »
Respect my net est une plateforme en ligne mise en place par La Quadrature du Net permettant aux citoyens de signaler des violations au principe de la Neutralité du Net. Tous les citoyens sont invités à signaler des blocages ou bridages de leur accès à Internet, ou des discriminations entre différents services en ligne. Cette initiative vise à remonter les mauvaises pratiques et à collecter des preuves à montrer aux régulateurs européens, afin de les inciter à faire leur devoir : défendre un Internet ouvert et innovant en Europe. Un guide détaillé des cas les plus reportés (zéros-rating, blocage, bridage ou priorisation de services en ligne, …) est également disponible.
Pour en savoir plus : https://respectmynet.eu Compte Twitter : @laquadrature
40
.Ranking Digital Rights . Tags : évaluation d’entreprises - liberté d’expression - respect de la vie privée
« Nous classons les grandes entreprises sur leurs efforts
pour préserver les intérêts des utilisateurs. » Ranking Digital Rights (RDR) est une initiative transnationale de recherche à but non lucratif logée au New America's Open Technology Institute, en collaboration avec un réseau international de partenaires. Il s’agit d’un classement mondial qui évalue les entreprises du numériques et des télécommunications les plus importantes au monde et leur attribue une note, exprimée en pourcentage, en matière de liberté d’expression et de droit au respect de la vie privée. L’objectif est de parvenir à fixer des normes mondiales sur la manière dont ces entreprises devraient respecter la liberté d'expression et la vie privée des utilisateurs. En 2015, le RDR a lancé son premier indice de responsabilité de l'entreprise (Corporate Accountability Index) qui a évalué 16 entreprises sur la base de 31 indicateurs axés sur la divulgation des politiques et des pratiques qui affectent la liberté d'expression et la vie privée des utilisateurs. Les notes des entreprises et les analyses qui l'accompagnent sont générées grâce à un processus rigoureux comprenant des examens par les pairs, des commentaires de l'entreprise et des contrôles de la qualité. En 2017, le RDR a publié la deuxième édition de son Corporate Accountability Index, qui a classé 22 entreprises selon une liste élargie de 35 indicateurs dans trois catégories principales - la gouvernance, la liberté d'expression et la confidentialité :
Les données produites par l'Index sont destinées à informer le travail des défenseurs des droits de l'homme, des décideurs et des investisseurs responsables. L’index peut également aider les entreprises à améliorer leurs propres politiques et pratiques. À cette fin, le RDR a publié un guide des recommandations pour respecter la liberté d’expression et la vie privée des internautes, à destination des entreprises et des gouvernements.
Pour en savoir plus : https://rankingdigitalrights.org Compte Twitter : @rankingright
41
.SecNum Académie . Tags : plateformes et sécurité numérique - chiffrement - MOOC
« La sensibilisation des Français à la sécurité du numérique est un enjeu majeur. Pour y répondre, l’ANSSI lance son premier cours en ligne, le MOOC
SecNumacadémie, qui rend la cybersécurité accessible à tous. » Etudiants, salariés, dirigeants d’entreprise ou particuliers… plus que jamais, la sécurité du numérique est l’affaire de tous. Pour mieux informer et sensibiliser, l’Agence nationale de la sécurité des systèmes d’information (ANSSI) a lancé en mai 2017 les modules de sensibilisation en ligne SecNumacadémie qui proposent des contenus pédagogiques, adaptés à des publics variés, afin qu’ils deviennent à leur tour acteurs de la sécurité du numérique dans un environnement professionnel. Ces bonnes pratiques et réflexes indispensables s’appliquent et s’adaptent également aux particuliers, dans un usage plus personnel du numérique.
L’objectif de SecNumacadémie est de permettre à tous d’être initiés à la cybersécurité ou d’approfondir leurs connaissances, afin de pouvoir agir efficacement sur la sécurité de leurs systèmes d’information (SSI) au quotidien. La sensibilisation des Français à la sécurité du numérique est un enjeu majeur. Pour y répondre, l’ANSSI propose SecNumacadémie, qui rend la cybersécurité accessible à tous. Grâce à ce Mooc*, les utilisateurs peuvent apprendre et assimiler des notions de base de la sécurité des systèmes d’information (SSI) utiles au travail comme à la maison. Inauguré en mai 2017, SecNumacadémie rassemble aujourd’hui une communauté très active, avec près de 32 000 apprenants sur les MOOCS de la SecNumacadémie
Pour en savoir plus :
https://www.ssi.gouv.fr/actualite/secnumacademie-le-nouvelle-formation-en-ligne-met-la-cybersecurite-a-la-portee-de-tous et vidéo de présentaton : https://www.dailymotion.com/video/x5lxqwz
42
Compte Twitter : @ANSSI_FR #SecNumAcadémie
.$heriff. Tags : viabilité des relations entre acteurs économiques - discriminations tarifaires
« $heriff est une expérience qui vise à détecter les
discriminations tarifaires sur Internet. »
$heriff est un service qui cherche à détecter des traces de discrimination tarifaire sur Internet.
Cette expérience, développée dans le cadre du Data Transparency Lab, vise à fournir un outil qui permet de déterminer si un commerçant en ligne fait varier ses prix de manière dynamique en fonction des informations qu'il collecte en ligne sur le client potentiel (tels que son emplacement, navigateur / OS, lien entrant, historique de la navigation, etc.). Le plug-in développé par les équipes du Data Transparency Lab fonctionne sur la base du traitement des cookies du site Web visité par l'utilisateur et des domaines tiers.
Pour en savoir plus : https://addons.mozilla.org/en-US/firefox/addon/sheriff_v2/
https://www.youtube.com/watch?v=Ssp-3afglMo http://datatransparencylab.org/ Compte twitter : @DTL_info
43
.Sleeping giants. Tags : modération des contenus - contenus mensongers - activisme - signalement - publicité
« Prévenons les annonceurs français dont les publicités financent à leur insu des sites haineux. »
Sleeping Giants a été lancé aux États-Unis à la suite de l'élection présidentielle de 2016. Les fondateurs de Sleeping Giants souhaitent lutter contre la prolifération de fausses informations et de contenus à caractère raciste, sexiste, xénophobe, homophobe ou antisémite.
Sleeping Giants retrace l'origine du financement des contenus en question. À travers l’analyse des encarts publicitaires, le projet identifie les annonceurs et les interroge sur leur stratégie de placement d’annonce. Il permet d’appeler à la responsabilité des annonceurs et de mettre en évidence la complexité des systèmes de publicité ciblée, qui visent les profils des utilisateurs plutôt que des sites spécifiques.
Pour en savoir plus : https://sites.google.com/view/slpng-giants-fr/accueil Compte Twitter : @slpng_giants_fr
44
.Terms of Service;
.Didn’t Read . Tags : activisme évaluation - CGU - vie privée - transparence
« J'ai lu et j'accepte les conditions générales d’utilisation est le plus grand mensonge du Web. Nous voulons y mettre fin. »
Terms of Service; Didn’t Read (ToS;DR) se donne pour mission de pallier la longueur excessive des CGU que l’on trouve dans les services du Web. ToS;DR simplifie ainsi les différents contrats d’utilisation des grands services web, et leur attribue une classe couleur, de bon à très mauvais selon leur respect des obligations en matière de vie privée. Il existe également un plug-in pour navigateur Internet.
Terms of Service; Didn't Read est un projet inspiré des Privacy Icons du designer Aza Raskin et de ToSBack, de l’association de protection des libertés sur Internet - Electronic Frontier Foundation. ToS;DR est financé par des organisations à but non lucratif et des dons individuels, il est publié sous forme de logiciels libres et d'informations ouvertes. L'idée originelle derrière ToS;DR a émergé lors du Chaos Communication Camp de 2011 près de Berlin, avec des personnes d’Unhosted un mouvement pour créer des applications Web qui donnent aux utilisateurs le contrôle sur leurs données et leurs vies privées. Au cours de l'été 2012, Hugo Roy (@hugoroyd) a débuté l'analyse juridique et a mis en place le projet. Depuis, de nombreuses personnes se sont jointes à l'équipe et ont contribué à la communauté des réviseurs. L’ensemble du travail de ToS;DR est transparent et les discussions se déroulent publiquement.
Pour en savoir plus : https://tosdr.org/index.html Compte Twitter : @ToSDR
45
.Time Well Spent . Tags : action sur les comportements - économie de l’attention - pédagogie
« Un mouvement à but non lucratif pour aligner la technologie avec notre humanité.
Se déconnecter de la course pour capter l'attention et se reconnecter avec ce qui nous importe. »
Le mouvement Time Well Spent est un mouvement à but non lucratif - mené par l’ancien Tristan Harris (ancien Google Design Ethicist) - visant à sensibiliser le grand public sur les impacts des algorithmes basées les algorithmes typiques de l’économie de l’attention (et plus particulièrement le click through rate et le watch time) sur les individus et la société.
Les porteurs du projet mettent en évidence les conséquences négatives du design “pour capturer l’attention” des utilisateurs sur la qualité de vie et proposent ainsi actions et conseils pour changer l'état actuel des choses. Ils plaident pour une sensibilisation des consommateurs, une meilleure conception et de nouveaux modèles commerciaux pour que l'industrie de la technologie fasse passer les meilleurs intérêts des utilisateurs avant tout. Le site contient de nombreuses vidéos explicatives et une section dédiée au “get involved”.
Pour en savoir plus : http://www.timewellspent.io/
Compte Twitter : @TimeWellSpentio et @tristanharris
46
.Track Me Not.
Tags : vie privée - plug-in - anti tracking - obfuscation « Faire intervenir le législateur pourrait être efficace mais
nécessiterait un effort conjoint de plusieurs parties. Nous avons développé TrackMeNot comme une solution
immédiate, configurée et contrôlée par les utilisateurs eux même. »
Track Me Not est une extension pour navigateurs qui permet de brouiller ses recherches sur Internet en produisant du "bruit", c'est-à-dire créer de fausses requêtes de manière aléatoire et massive. Ce plug-in a été développé sur la base des travaux d’Helen Nissenbaum par Vincent Toubiana, dans le cadre d’un projet académique.
Il compte 50 000 utilisateurs sur le navigateur Firefox, 25 000 sur Chrome. Plusieurs projets similaires de brouillage des traces numériques existent, tels que DataCorrupter, qui empêche le profilage et la formation de bulles filtrantes sur Facebook ou AdNauseam, qui vise plus largement le contournement de la publicité ciblée.
Pour en savoir plus : https://cs.nyu.edu/trackmenot/
Compte Twitter : @trackmenot
47
.Turkopticon .
Tags : plateformes de travail à la demande - projet académique
« Turkopticon est un lieu où les travailleurs peuvent s'entraider en partageant des informations et leurs expériences sur les employeurs. »
Turkopticon est un site web destiné à faciliter l’entraide des travailleurs de la plateforme Mechanical Turk d’Amazon. Développé par Lilly Irani et M. Six Silberman, tous deux chercheurs à l’Université de Californie à San Diego, il permet aux “turkers” (nom des travailleurs de la plateforme) de signaler les potentiels abus dont ils sont victimes par les employeurs qui proposent les offres. Il faut savoir que ces travailleurs précaires sont payés à la tâche, à la livraison de leur travail. Si l'employeur n’est pas satisfait, il peut tout simplement refuser de les payer. La plateforme offre très peu d’informations sur les offreurs et aucun moyen de dénoncer leurs abus. Le site Turkopticon, avec ses extensions disponibles sur Firefox et Chrome, permet donc aux turkers de s’organiser collectivement pour dénoncer ces mauvaises pratiques et s’orienter vers les employeurs les plus fiables et justes.
En mars 2017, près d’une décennie après sa mise en application, les créateurs ont annoncé la version beta de Turkopticon 2, réalisée grâce aux retours de leur communauté. Les améliorations apportées permettent désormais d’examiner les HIT et non pas les demandeurs ou encore d’indiquer de décrire leurs expériences professionnelles au-delà des notes qu’ils reçoivent des employeurs.
Pour en savoir plus : https://turkopticon.info/ Compte Twitter : @turkopticon
48
Recommended