Egalité Numérique

📢 Nous devons tous comprendre
les enjeux du numérique

car nous sommes tous concernés individuellement et comme citoyen,
même si nous ne sommes pas à l'aise avec Internet.

contact@egalitenumerique.fr

12 rue du Moulin de Coudret
16140 Oradour

Par e-mail

Par courrier

IA (intelligence artificielle) : concerné comme particulier ? comme citoyen ?

13/11/2024

IA (intelligence artificielle) : concerné comme particulier ? comme citoyen ?

Pour quoi cet article pour non spécialiste ?
Ce document a pour objectif, en introduction, de décrire très rapidement ce qu’est l’IA, et de présenter succinctement quels débats récents sur ce thème, débats qui nous concernent tous comme particulier ou comme citoyen. Il n’a pas vocation à être un document de réflexion sur le sujet, mais plutôt une incitation à approfondir ce thème, en particulier avec une liste de références « pour aller plus loin ». Autrement dit, il est un essai de vulgarisation, pour des personnes peu à l’aise avec le numérique, de cette notion d’IA et de quelques débats actuels liés à cette technologie. «… l’IA présente des risques. Le MIT en a d’ailleurs identifié plus de 700, répartis en 7 domaines et 23 sous-domaines. » (Irénée Régnauld, Mais où va le Web ?, 7 octobre 2024).
Rappelons nous les mots de Marie Curie : « Rien dans la vie n’est à craindre, tout doit être compris. C’est maintenant le moment de comprendre davantage, afin de craindre moins ».
Quelques éléments de contexte de l’utilisation de l’IA 
En préalable, rappelons l’état en France de la maîtrise du numérique. Certes, nous avons un contexte de croissance du l’usage du numérique (en 2009, 65% de la population se connectait au moins une fois par trimestre, et en 2022, le pourcentage est passé à près de 85% : voir le site de INSEE ci-dessous : https://www.insee.fr/fr/statistiques/2385835 ). 
Cependant, beaucoup d’entre nous ne sont pas confortables avec Internet. 9 millions de français sont en situation d’illectronisme, sans compétences numériques essentielles. 1/3 des adultes renonce à réaliser des démarches administratives dématérialisées. 24% de la population ne sait pas obtenir de l’information sur internet. Mais ces millions parmi nous doivent, comme tout citoyen, être informés et sollicités en terme compréhensible lors de notre vie démocratique.
Evoquons aussi 3 conditions actuelles de fonctionnement de ces systèmes IA : 
•    Besoin de « data » (i.e. des données) stockées dans des systèmes nommés « big data »  problématique de la protection des « données personnelles » de chacun d’entre nous, comme souligné dans de nombreux articles et sur le site www.cybermalvellance.gouv
•    Besoin de puissance informatique (« data center »)  problématique environnementale 
« le numérique représente aujourd’hui 3 à 4 % des émissions de gaz à effet de serre (GES) dans le monde et 2,5 % de l’empreinte carbone nationale… » (ARCEP : « L'empreinte environnementale du numérique »), et la croissance du secteur numérique ne peut qu’aggraver cette situation.
•    Vulnérabilité des réseaux, dans un contexte géopolitique instable, pour transporter les informations fiables et vérifiées vulnérabilité de l’Europe 
Ces 3 points ne sont pas abordés dans ce document. 
Il semble que nous rentrons dans un contexte d’extension des usages, après ChatGPT (chatbot doté d’une intelligence artificielle qui peut générer des textes) : « Certains fournisseurs d’IA proposent de l’offrir gratuitement contre le renouvellement de leurs contrats premiums, d’autres la font payer … ». Citons le cas de Microsoft : « très peu des clients de Microsoft 365 semblent avoir opté pour l’option IA. Que le « Github copilot » de Microsoft semble coûter plus cher à l’entreprise que ce qu’il rapporte (alors qu’il est l’un des produits d’IA parmi les plus populaires et presque utile, bien qu’il semble générer beaucoup de bugs). En février 2024, Microsoft annonçait 1,3 million de comptes payants à « Github copilot » et 1,8 million en septembre… ».
L’IA qu’est-ce ?
Existe-t-il une définition de l’IA ? 
Des applications fonctionnant avec une grande fiabilité ne donnent plus lieu à l‘appellation IA. C’est le cas avec les aspirateurs autonomes, l’autopilote des avions, le guidage de missile… Et sur vos outils numériques (smartphone, ordinateur…), vous devez expérimenter les filtres à spam, l’autocomplétion… . Cette fonctionnalité informatique « autocomplétion » permet à l'utilisateur de limiter la quantité d'informations qu'il saisit avec son clavier, en se voyant proposer un complément qui pourrait convenir à la chaîne de caractères qu'il a commencé à taper. De nombreux logiciels possèdent cette fonctionnalité : les éditeurs de texte prévus pour l'édition de code source, les traitements de texte, les interpréteurs de commandes ou encore les navigateurs web, ainsi que certains systèmes de saisie intuitive installés sur les téléphones mobiles. 
L’IA n’a pas vraiment de définition fixe. Les types d’IA les plus citées sont l’IA prédictive, l’IA générative, et plus récemment l’IA agent. 
L’IA Prédictive
Citons le systèmes d’information prédictive donnant des prévisions météo, prévision d’inondation, prévision de pannes de voiture (voir la publicité Renault), mais aussi dans le domaine du social (de l’emploi à la santé), en passant par le crime…. Ces modèles pour beaucoup restent englués dans leurs biais. l’une des raisons d’une si faible performance tient beaucoup au fait que très souvent, la donnée n’est ni disponible ni décisive. L’IA prédictive est très attirante parce qu’elle promet de nous aider à des décisions plus efficaces… Mais l’efficacité est bien plus relative qu’annoncée et surtout bien moins responsable. La prédiction oublie souvent de prendre en compte le comportement stratégique qui risque de la rendre moins efficace dans le temps. 
L’IA Générative : l’intelligence artificielle mise à la portée du grand public ?
L’IA générative est une forme d’intelligence artificielle (IA) à partir de laquelle n’importe qui peut créer des contenus inédits de façon autonome. En réponse à des prompts (requêtes), les IA génératives sont capables de générer du texte, des images, des vidéos ou de la musique. Le succès d’applications telles que ChatGPT ou Midjourney a marqué l’ère de cette intelligence artificielle en libre service…
Cette IA présente le danger de l’hypertrucage (« Deepfake ») : L'« hypertrucage » est la contrefaçon numérique sophistiquée d'une image, d'un son ou d'une vidéo. L’OCDE et de nombreux organismes ont souligné le risque de désinformation et de manipulation de l’opinion. Nous revenons ci-dessous sur ce risque d’« hypertrucage » avec l’IA Agent.
L’ IA « Agent » : Logiciels qui peuvent agir, mener des tâches de façon autonome.
Après les robots conversationnels comme ChatGPT, et  après les systèmes capables de « raisonner » , les hypothétiques futures IA capables d’« innover » ou de « faire le travail d’une organisation » sont annoncées.

Rappelons le match AlphaGo (un programme de go développé par Google DeepMind) et Lee Sedol (considéré comme le meilleur joueur du monde au milieu des années 2000) s'est tenu entre le 9 et le 15 mars 2016 à Séoul. AlphaGo a gagné toutes les parties sauf la quatrième. Ce match voit la victoire d'un programme face à un professionnel du plus haut niveau. Elon Musk est un des premiers investisseurs de DeepMind (Google DeepMind est une entreprise spécialisée dans l'intelligence artificielle), société qui essaie de combiner « les meilleures techniques de l'apprentissage automatique et des neurosciences des systèmes pour construire de puissants algorithmes d'apprentissage généraliste ». 

Citons l’avis d’expert pour essayer de comprendre ce concept :
•    Sam Altman, le fondateur d’OpenAI, qui a créé ChatGPT :  « Nous y arriverons dans un futur pas trop distant », octobre 2024, 
•    le PDG de Google, Sundar Pichai : « Ce sont des « systèmes intelligents capables de raisonner, de planifier et de mémoriser, de “penser” plusieurs étapes à l’avance et de travailler dans plusieurs logiciels ou environnements, tout cela pour accomplir une tâche à votre place »,
•    Le patron d’Anthropic, Dario Amodei, espère créer des IA capables de « mener des tâches de façon autonome, comme un employé intelligent le ferait, en demandant des clarifications si nécessaire ».
•    Yann Le Cun, de Meta, imagine un futur où « toutes nos interactions avec le monde numérique passeraient par ce genre d’assistants IA ».
•    Mais aussi des avis divergents comme celui de Hubert Guillaud «  Les mythes de l’IA » (https://danslesalgorithmes.net/2024/10/02/les-mythes-de-lia/)   

 

« Les mythes de l’IA


•    Le mythe du contrôle : croire que les systèmes sont plus fiables qu’ils ne sont 
o    Le mythe de la productivité : croire que ce sur quoi nous passons du temps peut être automatisé
o    Le mythe du prompt : croire que l’utilisateur contrôle le système
•    Le mythe de l’intelligence : croire que ces systèmes sont intelligents
o    Le mythe de l’apprentissage : croire que ces systèmes apprennent comme nous
o    Le mythe de la créativité : croire que les processus créatifs et les résultats créatifs sont la même chose
•    Le mythe futuriste : faire croire que les problèmes sont résolus
o    Le mythe de passage à l’échelle : faire croire qu’il suffit plus de données
o    Le mythe du comportement émergent : faire croire que les IA peuvent devenir des machines agissantes dans de chaines de décisions défaillantes »

 

 

 

Yuval Noah Harari (voir son dernier essai « Nexus: Une brève histoire des réseaux d'information, de l’âge de pierre à l’IA ») évoque l'IA … "agent", dans la mesure où elle est capable de prendre des décisions par elle-même. A la différence d'un ordinateur qui ne fait qu'exécuter les demandes d'un être humain, l'IA "créée, invente de nouvelles idées, apprend par elle-même". C'est donc une faculté d'autonomie et de prise d'initiative qui la distingue de toutes les technologies du passé. Harari mobilise l'exemple des médias : "ceux-ci forment la politique, le débat humain. La décision de ce dont on va parler dépend d'un rédacteur en chef. Sur les plateformes, l'IA décide désormais quelle sera la prochaine vidéo en haut de votre fil d'actualité. Elle a même trouvé comment les gens pouvaient passer plus de temps sur les réseaux : c'est en attisant la haine que l'on fidélise un être humain car, de cette manière, il est plus engagé sur un thème".

 

Ces différents types d’IA peuvent nous apporter des éléments positifs dans notre vie, mais aussi des dangers comme soulignés en introduction. De nombreux experts insistent donc sur la nécessité d’encadrer les usages de l’IA pour la rendre « responsable ».


Pour une IA Responsable
Exemples et mécanismes explicitant la notion de « responsabilité » de l’IA
Donnons quelques exemples d’IA posant problème.  L’IA est utilisée dans la Technopolice, avec la mise en place de caméras qui signalent aux policiers municipaux en temps réel les rassemblements « suspects » ou caméras qui permettent la « filature automatisée d’individus » …Actuellement, les pouvoirs publics donnent la main au secteur privé pour promouvoir, tester des dispositifs dérogatoires à la loi actuelle en vertu d’un double principe : La nécessité d’une urgence ponctuelle et le souhait de ne pas entraver les industriels de la surveillance par des « carcans procéduraux ». Mais il faudra s’assurer que cette surveillance utile pour les délinquants ne vienne pas empêcher le droit de se réunir pour un citoyen. Un cadre réglementaire de ces usages doit être défini par la loi.
La reconnaissance faciale a aujourd’hui un taux d’erreur minuscule (0,08% selon le Nist). Mais les erreurs sont problématiques, notamment quand elles conduisent à des arrestations sans cause justifiable.
Mais, il existe des exemples ou l’IA a conduit à des résultats erronés. Un exemple très connu, comme souligné dans plusieurs articles de 2014, l’outil de prédiction de la grippe de Google le Google Flu Trend a surestimé l’épidémie de plus de 50% par rapport à la réalité. « Comme le note Time magazine qui relaie l'information, il s’agit ici d’un cas typique de “big data hubris (exemple d'arrogance du big data, NDLR). Ce n’est pas parce que des entreprises comme Google peuvent amasser un nombre incroyable d’informations autour du monde qu’elles sont capables de les analyser correctement afin de produire une image nette de ce qui se passe (dans le monde).”  Nous devons donc rester vigilants et critiques le cas échéant sur l’IA. 
La responsabilité du programmeur-concepteur et du choix des données
Larousse donne la définition du mot algorithme : « Ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur. ». Les algorithmes sont constitués de 2 éléments 
•    Un choix des données extraites de la vie et des réalités humaines, organisées et sélectionnées par le programmeur-concepteur de l’outil IA 
•    un choix de séquence d’opération 
Ces choix (données et séquences d’opération) peuvent refléter des valeurs morales des professionnels de la programmation comme les principaux acteurs de leur construction. 
 Toutes ces étapes constituent en réalité des choix éthiques
Contexte de discours autour de l’IA produisant des mythes 
« Les discours autour de l’IA produisent des mythes qui influencent notre compréhension de ce qu’elle est, produisant une perception confuse de leur réalité » (Hubert Guillaud 02/10/2024 https://danslesalgorithmes.net/2024/10/02/les-mythes-de-lia/) Hubert Guillaud résume son point de vue dans un tableau fort explicite : 
 
Pour une IA Responsable, besoin d’une réglementation 
Il faut renforcer la lutte contre la désinformation (en particulier grâce au « hypertrucage »), et la protection des droits de propriété intellectuelle et plus généralement l’encadrement de l’IA générative et l’IA Agent. Cette réglementation devrait se faire, au niveau mondial, et au niveau Européen. Nous avons besoin d’une réglementation exante solide, adaptée à un marché en évolution et à ses produits

Une IA réglementée? Par qui ? 
Un rappel de l’action de l’Europe dans le numérique
•    1995 : Adoption de la directive sur les données personnelles
•    2000 : Adoption de la directive sur le commerce électronique 
            qui règlement les transactions en ligne et l’e-commerce dans l’Europe
•    2004-13 : Régulation du numérique par la concurrence. 
            2004 : 1ère amende de Microsoft (497 millions €) pour 
            « abus de position dominante » 
            2009 : Amende d’INTEL de 1,06 milliards € pour 
            « abus de position dominante »  sur le marché des microprocesseurs
            2013 : 2ème amende de Microsoft (561millions €) pour 
             avoir imposé son navigateur internet Explorer
•    2016 : Adoption du règlement RGPD …
•    2014-2024 : Législation comme les réglements « DMA » et  DSA »
•    Le 6 septembre 2023 :  Identification par l’Europe de « plateformes contrôleurs  d’accès »
•    2025 ? : « AI ACT (Articila Intelligence Act) ?
Récapitulatif de principaux textes européens réglementant le numérique
RGPD    2016    Règlement général sur le protection des données personnelles
DSA    2022    Digital Service Act qui encadre les contenus
DMA    2024    Digital Market Act qui encadre la concurrence
AI Act (en cours)    2025 ?    Artificial Intelligence Act qui encadrera les applications de l’IA
 
Soulignons les délais longs de mise en application des textes de l’Union Européenne ! Comme citoyen, nous devons exiger de nos politiques d’avancer rapidement sur la nécessaire réglementation de l’IA. 

Gouvernance de l’IA partagée par de nombreux acteurs
De nombreux acteurs sont impliqués :  l’industrie, les  Etats et organismes internationaux, associations, universités…
Industries : Un petit nombre de sociétés, liées en trés grande partie aux plateformes évoquées ci-dessus, exercent un contrôle sur les ressources clefs comme les données, la puissance de calcul, l’expertise.  Ces sociétés pèsent lourd dans la gouvernance de l’IA par le sponsoring de la recherche dans les outils hyper-techniques, et la création de consensus autour de concepts alignés avec leurs intérêts “business”.
Etats et organismes internationaux : Citons l’OECD, l’UNESCO, le G20, l’ONU.. 
•    OECD Recommendation on AI, https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449 
•    UNESCO's Recommendation onthe Ethics of AI, 2021 : « Recommandation sur l’éthique de l’intelligence artificielle » qui est sensée aider chaque gouvernement à mettre en œuvre une politique conforme à cet objectif https://unesdoc.unesco.org/ark:/48223/pf0000381137_fre  
•    the G20 AI Principles https://wp.oecd.ai/app/uploads/2021/06/G20-AI-Principles.pdf 
•    Citons aussi l’action de l’ONU pour favoriser la réflexivité et notre capacité à prendre des décisions conformes aux objectifs que nous nous fixons, par exemple le programme #marquonsunepause de l’ONU. Dans le cadre de l’initiative « Vérifié », l’ONU a lancé la campagne #MarquonsUnePause qui encourage les citoyens à réfléchir avant de partager une information sur les réseaux sociaux. « Vérifié »( Verified), une initiative des Nations Unies lancée en mai 2020 pour communiquer des informations sanitaires accessibles et scientifiquement fondées dans des formats convaincants et partager des histoires de solidarité mondiale autour de la COVID-19.
Citons aussi les universités, les organismes de normes comme l’AFNOR ou « International Organization for Standardization (ISO) »…
Le paysage de la gouvernance de l’IA est complexe, et l’inclusion de la société civile varie considérablement d’un pays à l’autre. Les obstacles à la participation de la société civile comprennent un accès limité à certains lieux de décision, à des contraintes d’information et de compréhension de ce domaine complexe accompagnées de contraintes financières (le numérique représente un budget important pour beaucoup de ménages), et la nécessité de bâtir des organismes qui doivent être des courroies de transmission (comme des associations), dotés de sites internet facilement accessibles…) pour faire entendre leur voix auprés des décideurs. Malgré ces défis, la société civile demeure un intermédiaire clé, pour défendre l’intérêt public dans la gouvernance de l’IA. 

Les principes d’une politique publique française ou/et européenne
Quatre principes semblent nécessaires 

  • Des actions de formation pour expliquer simplement et démystifier l’IA, et rétablir la confiance entre cette technologie et ses utilisateurs. A la base de cette formation, une obligation de transparence aux fournisseurs (programmeur-concepteur d’IA) en est une des clés !
  • Des actions de formation et de prévention des risques liès à l’IA : Identifier les risques inhérents à l'IA et mettre en place des stratégies d’adoption de comportements et usages adaptés pour garantir une résilience face aux menaces émergentes. En particulier, évoquons des formations sur le management de l’attention, les techniques d’accroissement de notre réflexivité, le paramétrage des plateformes, la cyber malveillance...  
  • Un système juridique basé sur le respect des droits des individus et de l’éthique, accompagné d’organismes chargés de contrôles : L’IA doit impérativement respecter les droits fondamentaux, tels que la vie privée et la non-discrimination, afin de créer un climat de confiance pérenne, donner des outils pour la lutte contre la désinformation, et la protection des droits de propriété intellectuelle. 
  • Des mécanismes d’adaptation rapide de la réglementation pour la rendre proactive et pragmatique, dès que nécessaire, en collaborant étroitement avec les régulateurs permettant de coconstruire un cadre à la fois sécurisé et favorable à l'innovation, à la recherche et au développement. 

 

Certains tirent la sonnette d’alarme sur la nécessité, non pas de produire de nouveaux textes « directives » ou « réglementation », mais de « se concentrer sur la mise en œuvre de textes de procédure et d'interprétation, afin de garantir une articulation efficace entre les grands textes adoptés ces dernières années, plutôt que sur l'ouverture de nouveaux chantiers législatifs. Cette recherche de cohérence devient une urgence : les conflits de compétences et les défis d’articulation risquent non seulement d'engendrer de l'inefficacité, mais aussi et surtout de l'injustice et de l’insécurité. » (communiqué de presse de l’association Renaissance Numérique du 12 novembre 2024 : Renaissance Numérique est un think tank indépendant dédié à la transformation numérique de la société. Il œuvre à éclairer les évolutions que cette transformation entraîne et à donner à chacun les clés de sa maîtrise. ). 

 


Zoom sur les risques sur le monde du travail et notre agentivité


Risques pour le monde du travail


L’IA peut aider à acquérir des savoirs,  et des savoir-faires dans certains domaines,  mais pas des savoir-êtres que seule la vie collective,  en particulier celle au travail, apporte. Nombreuses études (OIT, Roland Berger, McKinsey, Forbes…) abordent le problème…. 
Il existerait aujourd’hui un courant de pensée selon lequel 
    l’IA ne remplacera pas les emplois, mais 
    les personnes qui peuvent utiliser l’IA remplaceront celles qui ne le peuvent pas. 
    Les outils d’IA générative … peuvent accroître l’efficacité dans pratiquement toutes les tâches ou tous les secteurs d’activité. »

 

Dans une enquête qualitative menée en 2023 analysant 96 cas d’application d’implémentation de l’IA au sein de différents métiers dans huit pays de l’OCDE, l’économiste Anna Milanez montre que ses effets sur le travail sont nuancés. Les effets sur les travailleurs sont positifs ou négatifs selon les situations (gain de temps ou de confort, accroissement de la surveillance des salariés, solitude, surcharge cognitive, etc.).

 

Mais certains sont plus pessimistes. « Quelque 800 000 emplois pourraient être détruits par l’IA générative, en France, au tournant de la décennie », selon une étude du cabinet Roland Berger..


Risque sur notre capacité individuelle à agir sur le monde, notre agentivité


Le livre « Pour une nouvelle culture de l’attention » (Odile Jacob avril 2024) détaille précisément les éléments conduisant à cette situation de risque, et propose dans une 2ème partie de « reprendre le contrôle de notre attention » un plan d’actions. 
L’agentivité correspond à la capacité à agir sur le monde, donc à produire des effets causaux sur lui par nos propres actions…Les interfaces Internet pilotées par l‘IA interviennent sur ces 2 points


1.    Le « contrôle exécutif » de nos actions et notre attention au monde (numérique) qui incluent diverses fonctions et capacités de : 
-    création et de maintien de l’information la plus pertinente pour arriver à l’objectif, 
-    maintien de l’attention sur ce qu’on veut atteindre »
-    mise en œuvre des processus d’inhibition des autres comportements plus familiers, mais inappropriés pour le contexte actuel … ».


2.    Le manque de connaissance de ce que font réellement les algorithmes qui sont censés nous apporter de l’aide à la décision
L’IA utilisée dans les interfaces des réseaux sociaux, des sites marchands, des sites ou blogs à vue politique… agit en grande partie sur notre agentivité par la fatigue de l’attention générée sur internet. 

  • La multiplication des stimuli suscite de l’effort pour résister aux distracteurs… Les sollicitations incessantes des interfaces numériques (messages, vidéos, notifications, etc.), sans pause de « restauration de notre attention », aggravent le phénomène de fatigue intentionnelle
  • Plusieurs impacts de la fatigue de l’attention ont été démontrés : 
  • Une baisse de l’efficacité de notre mémoire à long terme, 
  • la multiplication des fautes d’inattention, d’erreurs humaines
  • L’augmentation de la probabilité de repartager de fausses informations sur les réseaux sociaux sans en vérifier la véracité ni les sources. En effet, cette démarche de vérifier la véracité et les sources d’information est prenante (« time consuming ») et exigeante, pas dans l’esprit d’une interaction rapide avec Internet. 

 


Le poison de l'IA utilisée dans les interfaces des réseaux sociaux, sites marchands, sites ou blogs à vue politique… agit sur notre agentivité par exacerbation des techniques de  capture et d’exploitation de notre attention par l’hyperpersonnalisation des messages et l’optimisation des mécanismes émotionnels. Les marketeurs parlent « de nous informer et former », nous les usagers d’internet, comprenez de nous « mettre en condition d’acheter » leurs produits par internet et/ou former nos opinions, et souvent, pour atteindre leur objectif, de nous abrutir ou nous rendre « accrochés ». Nir Eyal, un des anciens étudiants de Fogg [Brian Jeffrey Fogg, directeur du Laboratoire des technologies persuasives de Standford], qui a ensuite conçu pendant plusieurs années des publicités placées sur Facebook, est l’auteur de ‘Hooked : How to build habit-forming products’ (‘Accroché : comment construire des produits addictifs’) ». 


« La façon dont les réseaux sociaux et les applications numériques capturent notre attention, consiste à assimiler celle-ci aux stratégies des casinos, de l’industrie du tabac, et encore de l’industrie alimentaire avec les aliments sucrés » . « Serge Tisseron résume les enjeux de ces nouvelles formes de « conversations personnalisées avec chacun d’entre nous » : « l’attention morcelée suscités aujourd’hui chez les utilisateurs du Net, va […] se substituer une relation nouvelle de l’homme à ces technologies numériques : de longue conversation suscitant un éventail d’émotions large et varié, nourri par l’illusion d’une présence réelle, attentive et chaleureuse…. Différents risques ont d’ores et déjà pu être identifiés et analysées, notamment par la CNIL (Avis sur les assistant vocaux 2021 » (Extrait livre « Pour une nouvelle culture de l’attention » Odile Jacob avril 2024). 


Conclusion
Au niveau national, européen et mondial, nous devons avoir conscience qu’Il faut impérativement renforcer la lutte contre la désinformation, et la protection des droits de propriété intellectuelle et plus généralement l’encadrement de l’IA générative et l’IA Agent. Et que ce monde numérique est un enjeu important de géopolitique dans les circonstances actuelles des relations internationales fragiles. 


Pour ceux d’entre nous qui ne sont pas à l’aise avec le numérique, et pour ceux qui vont avoir leur emploi détruit pas cette nouvelle technologie IA, l’Etat doit renforcer son action pour ne pas laisser une part importante de nos concitoyens sur le bord du chemin de cette technologie en pleine croissance. 
A notre niveau individuel, nous devons reprendre le contrôle de notre attention, et notre capacité à agir devant ce monde numérique envahissant et souvent abrutissant, pour assurer entre autres notre rôle de citoyen éclairé.


Et à ce niveau de citoyen, nous devons tous exiger de nos politiques, en s’appuyant sur des courroies de transmission comme des associations ou partis politiques, qu’ils s’engagent à agir rapidement sur une gouvernance du Numérique qui défend l’intérêt général. Certains discours ont mis en avant des « promesses, prophéties, mythes, prédictions » qui se sédimentent en idées politiques, en particulier la destruction de la régulation, dans une représentation d’un futur si lointain qu’il permet de ne plus être fixé dans un cadre politique normé. Il me semble au contraire, comme beaucoup, qu’il y a un impératif absolu d’assurer une gouvernance forte et la mise en place d’une réglementation de l’IA pour son utilisation au bénéfice de l’intérêt général. 

Pour aller plus loin
•    Quelques sites et livres qui nous ont paru intéressant : 
•    Le livre « Pour une nouvelle culture de l’attention » (Stefana Broadbent, Florian Forestier, Mehdi Khamassi, Célia Zolynski) Odile Jacob
•    www.Dansleslagorythmes.net 
•    https://www.renaissancenumerique.org/ 
•    https://maisouvaleweb.fr/
•    https://medialab.sciencespo.fr/activites/shaping-ai
•    https://lesbases.anct.gouv.fr/
ressources/initiation-intelligence-artificielle-ia 
•    https://www.arcep.fr/la-regulation/grands-dossiers-thematiques-transverses/lempreinte-environnementale-du-numerique.html 
•    https://www.radiofrance.fr/societe/tech-web/intelligence-artificielle
•     https://www.forbes.fr/management/les-huit-plus-grandes-tendances-de-lavenir-du-travail-en-2024/ 
•    Le livre du journaliste Thibault Prévost, Les prophètes de l’IA (Lux éditeur, 2024) 

•    le livre roman MANIAC du Chilien Benjamin Labatut se déploie de 1933 à 2019 autour de trois personnages historiques : le physicien autrichien Paul Ehrenfest, le mathématicien américain John von Neumann et le champion de go sud-coréen Lee Sedol. S'il s'agit d'un triptyque, c'est parce que le livre relate l'avènement d'un nouveau Dieu: l'Intelligence Artificielle.
•    …

Information numérique : Une nouvelle guerre ?

26/10/2024

Information numérique : Une nouvelle guerre ?

Mutation de ce monde numérique

De nombreux livres sont sortis récemment pour mettre en exergue la situation actuelle du monde numérique. Comme souligné par plusieurs auteurs, l’accélération des découvertes et des progrès dans les nanotechnologies, biotechnologies, technologies de l’information et sciences cognitives (NBIC), nous interpellent tous. La partie du système global concernant l’information et les sciences cognitives, attachée aux mots : Internet , Intelligence artificielle , réseaux sociaux, plateformes numériques (Instagram, X (E-twitter), Tiktok…et les entreprises regroupées sous l'acronyme GAFAM (Alphabet (ex-Google), Apple, Meta (Ex-Facebook), Amazon et Microsoft), et sous l'acronyme BATX (Baidu, Alibaba, Tencent (créateur de WeChat) et Xiaomi) ….est en pleine mutation impactant en même temps nos comportements et ceux des États. L’utopie du web ouvert, libre et gratuit que nous avions au début des années 2000 a été balayée. Certains voyaient ce monde « numérique » comme « un orchestre sans chef d’orchestre », un grand magma de positions indéfinies, indifférenciées, et donc sans danger réel. La vision des médias électroniques diffusés par satellite et par le web nous a laissé croire que nous pouvions contourner les barrières physique, législative et politique qui avaient pour vocation de nous protéger des ingérences informationnelle étrangère et extrémiste.

Aujourd’hui, un nouvel environnement numérique informationnel et transnational est mis en place. De très nombreux auteurs ou politiciens utilisent les mots « guerre » ou « combats » en parlant de ce monde numérique. D’autres utilisent les expressions du type « Il faut le contenir (dans le sens d’endiguer) ». Pour comprendre ces cris d’alerte, nous devons comprendre globalement l‘organisation générale de ce monde numérique, les infrastructures, les acteurs … et être attentifs aux préconisations d’usage évoquées par les chercheurs, pour les adopter ou non, et faire sienne une position réfléchie.

Infrastructures et acteurs du numérique

les États et les liens avec les acteurs économiques « privés »

Les infrastructures de ce monde technologique sont majoritairement privées, mais installées en grande partie dans le domaine public (ondes, câbles, satellites…). Les grandes entreprises technologiques de ce secteur ne sont peut-être pas le produit de l’État stricto sensu, mais leur développement s’est fait avec le concours décisif des États. Ces entreprises comme les GAFAM n’ont peut-être pas reçu de subventions à leurs débuts, mais, … elles ont surfé sur la vague des investissements massifs de l’État dans ces technologies, comme cités dans le document de Charles Thibout :  « Les GAFAM et l’État : réflexion sur la place des grandes entreprises technologiques dans le champ du pouvoir. La revue internationale et stratégique, 2022».

« Internet, issu d’Arpanet, un programme financé à partir de la fin des années 1960 par l’Advanced Research Projects Agency, ancêtre de la DARPA ; le GPS, à l’origine un programme de l’armée dénommé Navstar, remontant aux années 1970 ; l’écran tactile, créé par une entreprise (FingerWorks) fondée par un professeur de l’Université (publique) du Delaware et par l’un de ses doctorants, dont la thèse était financée par la National Science Foundation (NSF) et la Central Intelligence Agency (CIA) – tout comme celle de Sergey Brin, cofondateur de Google ; et, enfin, toute une gamme de technologies de communication, à l’instar de l’assistant vocal Siri, produit dérivé d’un projet d’intelligence artificielle de la DARPA. »

Par ailleurs, les États ont la nécessité d’utiliser ces canaux de communication et de récupération de données pour des traitement de masse (« Big Data ») dans le cadre d’une guerre informationnelle que nous explicitons ci-après. Ils sont donc des utilisateurs (« clients ») de ces infrastructures auxquelles ils participent. Un politicien (président, ministre, député, maire…) souhaite avoir un compte Facebook, un compte X (ex_twitter), un site internet type blog ou vitrine…pour communiquer. Aujourd’hui donc, il apparaît nécessaire de prendre conscience des rapports qu’entretiennent ces entreprises avec leur État respectif, plus généralement avec la politique et la diffusion d’idéologies sur le web. Les relations internationales dans ce contexte d’infrastructures transnationales, et la perte de contrôle des États dans ce monde numérique posent un problème de souveraineté nationale ou européenne.

L’objectif de ces systèmes privés est double : d’une part l’obtention de revenus (profit), et d’autre part, dans beaucoup de cas, la captation cognitive des utilisateurs du net, ceci par des techniques de communication hyper-ciblée et des messages sélectifs, voir des « fake news » afin de les faire adhérer ou agir dans le sens voulu par ces donneurs d’ordre (clients de ces infrastructures).

Notre participation comme individu à ce monde numérique »

Chaque individu participe, parfois sans le savoir, à l’élaboration de ce monde numérique. Nos « données personnelles » et nos centres d’intérêt, et nos réactions (nos « like » et autres clics) sont captés lors de notre vie de tous les jours au profit des compagnies « BigData ». Citons en particulier le rôle de nos interactions avec des médias sociaux (applications et site web) qui permettent la création et la publication hyper-ciblée de contenus hyper-personnalisés, et le développement de réseaux connectant les utilisateurs entre eux. Les données collectées par les organisations commerciales, gouvernementales et industrielles, et leurs services « Communication », alimentent aussi ces systèmes complexes qui permettent, en particulier, de créer un « profil internet » pour chacun d’entre-nous. En s’appuyant sur notre « profil », ces systèmes, lors de nos interactions avec le web, peuvent attaquer les failles de notre raisonnement et de notre psychologie. Les messages très ciblés grâce à l’exploitation de ces systèmes utilisant les outils de « big data » et d’algorithmes alimentés par nos données peuvent être intrusifs, et parfois même trompeurs pour le consommateur et citoyen, et promouvoir des produits, des services, et une perception du monde qui nous éloignent de nos valeurs. Le temps que nous passons à être agressés par ce monde numérique est du temps en moins pour bien vivre.

Confinés dans nos bulles numériques, et submergés par un flux continu d’information, nous risquons de perdre nos capacités de raisonnement et de cognition. Nous devons donc, à notre niveau, nous éduquer pour utiliser ses technologies et nous garder en bonne santé mentale et cognitive. En 2023, la Chine a interdit l’accès aux mineurs à Internet de 22 heures à 6 heures du matin. En occident, de nouvelles règles apparaissent, comme par exemple la limitation des portables dans les écoles… « Les 'pontes' de la Silicon Valley protègent leurs enfants de leurs propres produits… Chez Bill Gates, pas de smartphones avant 14 ans… Pas d'iPad pour les enfants de Steve Jobs… ». (France Info Publié le 14/12/2017 ). Mais cela ne concerne pas que les mineurs. Comme individu adulte, nous devons apprendre à naviguer dans ce monde réel complexe, dangereux et perturbant.

Qui contrôle ce monde numérique ?

Les clefs de répartition de la gouvernance de ce monde numérique sont réparties entre les géants technologiques et les États . Cette répartition entre « public » (États, Europe, ONU…) et « privé » (les multinationales du secteur « numérique »), est difficile à appréhender, et on peut s’interroger sur la « légitimité » (au sens de ce qui est juste, équitable…) de ce pouvoir éclaté. Il me semble que nous devons demander à nos politiques, en particulier lors des élections européennes, de nous éclairer sur leur programme pour améliorer cette gouvernance, et en particulier pour renforcer notre souveraineté. Ce point complexe de souveraineté numérique est évoqué ci-après.

Caractéristiques de ce monde

L’action sur les processus psychologiques liés à la connaissance.

Pour agir raisonnablement et en citoyen, il nous faut une information fiable, complète et vérifiée, suivie d’un temps de réflexion. Quand vous lisez un journal, vous savez qui le possède et qui est le rédacteur en chef. Dans le monde Internet, nous devons sans cesse vérifier qui nous envoie le message que nous sommes en train de lire, et nous faire une opinion sur la qualité de l’information. En effet, les messages que nous recevons (informations présentées sur les réseaux sociaux, celles affichées lors de nos requêtes sur internet, ou dans des mails et messages diffusés nominativement) sont formatés, édulcorés, ciblés suivant notre « profil » (social, niveau d’étude, environnement, psychologique, centre d’intérêt …). Par ces messages et informations sélectives, nos opinions sont construites en partie, et nos émotions déclenchées.

La guerre informationnelle

Dans le monde « militaire », dans la fin du XXème siècle et au début du XXI siècle, en particulier lors de la guerre du Golf, est apparu un nouveau type de conflit qui comprend les champs de bataille sur les infrastructures électroniques de communication (champs magnétiques, réseaux (filaire ou onde), plateformes et serveur, satellite…), mais aussi sur les informations pour mener des opérations psychologiques de découragement, ou de perturbation de l’adversaire et de son opinion publique. Dés les années 1990, les militaires ont compris les enjeux stratégiques de l’information. « Un des attributs de la guerre future, écrit en 1998 Vladimir Slipchenki, théoricien de la transformation des forces armées russes, sera la confrontation de l’information, car l’information est en train de devenir une arme du même type que les missiles, les bombes, les torpilles… ».

Dans le monde « politique », fin 1990 début 2000, Internet est apparu comme un territoire vierge dans lequel l’indignation, la peur, l’insulte, la polémique, les fake news génèrent plus d’attention et d’engagement sur le net ou lors de la reprise de ses informations à la télévision ou dans la presse que les débats soporifiques de la politique traditionnelle. Partis de ce constat aujourd’hui bien partagé, des professionnels de la communication (professionnels nommés « les ingénieurs du chaos » dans le livre de Giuliano da Empoli) ont élaboré des outils numériques pour remporter des élections comme celle de Trump aux USA, en Italie avec le mouvement M5, en Angleterre avec le Brexit, et dans de nombreux autres pays…. Des trolls (personne à l’origine de message posté sur Internet afin de susciter une provocation, une polémique ou simplement de perturber une discussion) ont été recrutés par des partis politiques ou des États pour inonder le net. Les électeurs potentiels que nous sommes, via les médias et aujourd’hui principalement le net, sont la cible d’opérations visant à influencer notre prise de décision.

De même, dans les relations internationales, nous assistons à une guerre informationnelle. Comme expliqué dans le livre paru en 2023 « la guerre de l’information » de David Colon :  « En l’espace de quelques années à peine, la puissance des États en est venue à dépendre comme jamais auparavant de leur capacité à recourir à l’information comme une arme, à des fins militaires, politiques ou diplomatiques. Sans que les opinions publiques en prennent conscience, les démocraties et les régimes autoritaires se sont engagés dans une guerre de l’information à l’échelle planétaire… ». « L’une des causes majeures de l’affaiblissement de nos démocraties tient au profond changement de nos façons de communiquer et de nous informer » (Barack Obama à Standford en avril 2022 cité par Le Monde avec AFP le 22 avril 2022).

La cybermalveillance : mettant en péril nos infrastructures et l’accès à internet

La cybercriminalité est une menace croissante sur Internet, et nous risquons d'y être exposés en n’adoptant pas des comportements appropriés dans nos usages d’internet (voir https://www.cybermalveillance.gouv.fr/). Nos gouvernants doivent mettre en place les dispositifs de sécurité pour lutter contre elle, informer et former la population à la gestion de ces risques de cybermalveillance.

Les armes de la guerre informationnelle

Il faut rappeler le poids des entreprises américaines BigTech et leurs liens avec le Pentagone pour comprendre la capacité de leurs dirigeants à ouvrir ou fermer le « robinet » de flux d’informations circulant et stockées sur leur réseaux (comme par exemple fermer un compte X (Ex Twitter). D’autres entreprises moins connues du grand public ont été impliquées dans la mise en place d’armes de guerre informationnelle.  Citons par exemple les fermes de « troll » ou les « bot » pour lancer des millions de messages, ou l’installation d’implants dans les réseaux informatiques du monde entier, ou dans les téléphones portables. En plus des États Unis, de nombreux États comme la Russie, l’Iran, la Corée du Nord, la Chine, Israël…, sont aujourd’hui reconnus comme d’une efficacité redoutable dans la maîtrise de l’information. Le livre « La guerre de l’ information - Les États à la conquête de nos esprits » de David Colon développe une description approfondie de la situation. Notons que contrairement à l’arme nucléaire, les attaques cyber n’ont pas de caractère dissuasif et sont difficilement attribuables. Mais elles font bien partie de cette guerre informationnelle qui complète les guerres médiatique et juridique auxquelles se livrent les nations.

Contrôles des États européens et français sur ce monde numérique

Le sénateur Mickaël Vallet souligne, dans Marianne le 26/02/2024 que « la lutte structurelle contre les débordements des Gafam et des nouveaux acteurs … doit dans toute la mesure du possible s'organiser au niveau européen… Cette domestication de l’usage est une nécessité et il faut accélérer le combat qui est mondial. Il en va de notre santé démocratique, de notre santé tout court et de nos libertés publiques. ». Pour contrôler les activités de ce secteur, l’Europe a dû et doit encore émettre des règles pour la protection des données, pour la vérification réelle de l’âge de l’abonné aux plateformes,et ce par la mise en place de moyens adaptés de lutte contre les contenus illicites, par la désignation juridique de plateforme comme éditeur de contenus et non en simple hébergeur … Les organismes français de contrôle (Cnil, Arcom, Anssi …) et de renseignement ont un rôle important et doivent être renforcés dans cette guerre informationnelle. L'Europe développe depuis plusieurs années des règlements et directives (RGPD, DMA, DSA, IA Act) sur le numérique.

Les politiques doivent veiller à notre souveraineté numérique. La France a confié, il y a plusieurs années, l’hébergement exclusif de ses précieuses données de santé au géant américain Microsoft. Celles-ci sont une richesse convoitée en raison de leur quantité et de leur cohérence. La solution Microsoft Azure a été choisie par le gouvernement pour héberger l’application HDH (Health Data Hub). Les autorités américaines peuvent exiger des entreprises immatriculées dans le pays qu’elles leur remettent des datas qu’elles hébergent. Deux textes, le "Cloud Act", adopté en 2018, et la loi dite "Fisa" (Foreign Intelligence Surveillance Act), rendent possibles ces brèches. Beaucoup s’interrogent : Pourquoi le gouvernement n’a pas retenu une proposition française ou européenne ! ET pourquoi des lois symétriques ne sont pas mises en place en France et en Europe ?

Conclusion

L’information est un terrain de guerre. « Nos cerveaux seront les champs de bataille du XXI siècle » (citation de James Giodano, neuroscientifique, Georgetown University).  Les États, par leurs entreprises « technopolitiques » cherchent à capter notre attention, à susciter notre engagement ou désengagement, à influencer nos opinions en diffusant des informations trompeuses envahissantes ciblées et accrocheuses en attaquant les failles de notre raisonnement et de notre psychologie. Nous devons exiger de nos dirigeants français et européens de mettre en place des dispositifs de défense informationnelle pour nous mettre à l’abri des attaques de pays étrangers, de préserver notre capacité à choisir nos dépendances et défendre nos intérêts vitaux dans ce domaine numérique, et en parallèle de diffuser des messages sur la scène internationale comme complément de nos actions diplomatiques, comme par exemple par France Média Monde (FMM).

A notre niveau de citoyen, nous devons comprendre que ne pas prendre le temps, d’une part, de comprendre le monde numérique qui nous entoure et de nous interroger sur nos sources d’information, et d’autre part, de protéger nos données personnelles et plus généralement adapter nos usages du numérique, c’est accepter d’être agressés par cette guerre informationnelle en fragilisant nos capacités de réflexion, et en nous positionnant en cible potentielle pour la cybercriminalité.  « Prendre le temps », c’est accepter d’aller moins vite en surfant sur internet. Nous n’avons pas à vouloir être des super-experts ou des fact-checkers, ou rechercher contre vent et marée « le vrai », mais nous nous devons, sur les « informations » fournies par internet poser les questions basiques suivantes : « qui me parle ? », « Quelle intention a le diffuseur de cette information ou message ? ». En d’autres termes, il faut rester vigilant, et accepter de donner sa confiance à des sources qui nous semblent fiables, mais très souvent sans certitude absolue. Nous devons (ré-) apprendre à maîtriser notre cognition, c’est-à-dire l'ensemble de nos processus mentaux qui se rapportent à la fonction de connaissance . « Connaître et penser, ce n’est pas arriver à une vérité certaine, c’est dialoguer avec l’incertitude » (Edgar Morin, livre « La tête bien faite » édition du Seuil). Etant donné l’utilité incontestable de ce monde numérique, il faut accepter l’utilisation de ces technologies dangereuses qui néanmoins, délivrent de nombreux services utiles dans notre vie. Et en même temps, nous devons adapter nos comportements dans les usages de ces technologies. Nous avons, nous Français, des progrès à faire (voir étude sur le siteIpsos sur notre vulnérabilité aux fausses informations).

Rappelons-nous les mots de Marie Curie : « Rien dans la vie n’est à craindre, tout doit être compris. C’est maintenant le moment de comprendre davantage, afin de craindre moins ». Dans notre bulle informationnelle, comprenons donc que nous sommes des cibles, et donc que nous devons apprendre à être des « soldats », comme le dit remarquablement bien Asma Mhalla dans son dernier livre « Technopolitique – Comment la technologie fait de nous des soldats ».

"Ce qui est arrivé, avec les régimes totalitaires du XXème siècle, et qui se déchaîne aujourd'hui, s'est le déploiement inédit de moyens techniques pour tout détruire par la force et de moyens numériques pour tout refabriquer, se redonner un passé et une réalité à la mesure d'un message total, prétendant remplacer la réalité.... Hannah Arendt écrivait (en 1967) 'La liberté d'opinion est une farce si l'information sur les faits n'est pas garantie et si ce ne sont pas les faits eux-mêmes qui font l'objet du débat' " (Olivier Abel, Réforme du 18 avril 2024).

Michel Jannet le 18 avril 2024

Pour aller plus loin :

Note de lecture du livre « Pour une nouvelle culture de l’attention »

02/04/2024

Note de lecture du livre « Pour une nouvelle culture de l’attention »

Introduction
Objectif de ce document
Cet article a pour objectif de résumer en quelques pages un livre récent  trés dense (250 pages): « Pour une nouvelle culture de l’attention » (Stefana Broadbent, Florian Forestier, Mehdi Khamassi, Célia Zolynski) aux éditions Odile Jacob. 
Les phrase en « .. » sont des extraits de ce livre. Nous avons rajouté des éléments résumant le contexte. 
Présentation générale du livre  : « Notre temps de cerveau se monnaye sur Internet : à l’ère des contenus personnalisés, de la publicité ciblée et des agents conversationnels, sommes-nous devenus des biens consommables dans le marché de l’attention ?
Les plateformes peuvent-elles nous manipuler pour orienter nos décisions ? La captation de notre attention n’est pas seulement un risque personnel pour notre temps, nos enfants ou notre argent. C’est aussi une menace démocratique : les libertés et le vivre-ensemble sont compromis par des logiques sournoises qui nous épuisent, polarisent les points de vue et appauvrissent notre expérience du monde.
Ce livre décrit en détail les ressorts cognitifs et psychosociaux utilisés par les algorithmes et le marketing digital pour nous cerner, nous orienter, nous soustraire des données contre notre gré… avec un cadre légal à repenser.
Quatre chercheurs croisent les apports des sciences cognitives, du design, de la philosophie et du droit pour proposer une véritable régulation de la question attentionnelle. »

Contexte actuel du numérique

En préambule rappelons 3 éléments de contexte : 


« Big data » et  « les données personnelles »


En préalable, soulignons l’existence des processus d’élaboration de « profil internet » pour chacun d’entre-nous par des systèmes complexes qui conditionnent l’action d’internet sur notre vie.  Il faut impérativement souligner que nos « données personnelles » alimentent ces systèmes complexes (utilisant les concepts de « big data » et d’algorithmes), systèmes dont l’objectif est l’obtention de revenus pour certains, et la captation de votre temps et capacité de réflexion sur le monde, pour vous faire adhérer ou agir dans le sens voulu par les bénéficiaires de ces systèmes.
Ces publicités et messages hyper ciblées peuvent être intrusives, et parfois même trompeuses pour le consommateur, et promouvoir des produits, des services, des idées qui nous éloignent de nos valeurs. Le temps que nous passons à être agressé par la publicité et divers messages ayant pour but de nous faire (ré)agir est du temps en moins pour bien vivre.  


Fonctionnement des Plateformes

 

Par plateforme, nous utilisons le concept analogue à celui de l'Europe de "plateforme contrôleur d'accès" à internet:


« Comme l’a montré le scandale des Facebook papers révélés par la lanceuse d’alerte France Haugen, les plateformes connaissent parfaitement les effets délétères de leurs pratiques : Les études internes de Facbook montraient parfaitement le mal-être induit par Instagram chez les adolescents, en lien avec une mauvais image de leur propre corps » (page 12). 
Soulignons l’environnement immersifs de ces plateformes avec des interfaces à travers lesquelles j’accède aux autres, et à toutes sortes d’interactions, et d’informations. Les caractéristiques de ces interfaces sont étudiées pour activer certaines fonctions spécifiques de notre cerveau : l’écran qui défile sans fin, les notifications, les récompenses sociales, dans certains cas la lumière bleue qui étourdit un peu… 
Deux points du contexte de l’usage des plateformes peuvent soulignés : 
1.    Côté incitatif de l’usage intensifs des plateformes car toujours à portée de main (smartphone…) et accessible 24h sur 24, apportant des services utiles très performants comme rencontrer vos amis, faire vos courses….
2.    Méconnaissance du fonctionnement réel d’un réseau par l’utilisateur : Seule la société à qui appartient le réseau sait comment il fonctionne réellement, le contenu des algorithmes qui nous proposent du contenu, qui fabrique notre profilage individuel…


L’inévitabilité de la « vague » technologique qui arrive ?


Nous faisons référence dans ce paragraphe en particulier à l’ouvrage de Mustafa Suleyman ‘The coming wave, Technology, power and the 21st century’s greatest dilemma’ (Crown, 2023), et au concept de NBIC (L’acronyme NBIC signifie : Nanotechnologie, Biotechnologie, Informatique et Cognition). 
Plusieurs spécialistes discutent du constat suivant aujourd’hui :
-    un « ensemble de technologies … surgissent au même moment, propulsé par une ou plusieurs nouvelles technologies à usage général, avec des implications sociales fortes. » (p. 26 de l’ouvrage cité ci-dessus) 
-    et souligne « l’aveuglement des élites politiques et, à certains égards, entrepreneuriales, incapables de percevoir les risques considérables que cette déferlante implique, toutes coincées qu’elles sont dans leur aversion au pessimisme ».
-    et aussi, les raisons qui poussent à tout automatiser, et cette « convergence NBIC » peut être interprétée comme une représentation matérielle d’un système économique qui exploite les ressources et les corps, jusqu’à plus soif pour la recherche du profit, moteur du système économique libéral.


Première partie : Problématique et enjeux de l’économie de l’attention


Théories de l’attention, fonctionnement du cerveau, et exemples de moyens pour capter notre attention
Pour bien comprendre la nature des actions des réseaux sociaux et diverses plateformes internet et reprendre le contrôle de notre attention, ci-dessous un rappel de quelques éléments théoriques sur les processus de l’attention et de fonctionnement du cerveau. (Voir les chapitres 1, 2 et 3 du livre pour approfondir et compléter les points cités ci-dessous, points qui ne sont pas exhaustifs)
Quelques éléments théoriques sur les processus de l’attention et de fonctionnement du cerveau
« Malebranche (Philosophe du 16ème siècle) qualifie l’attention de « prière naturelle par laquelle nous obtenons que la raison nous éclaire »…. « L’attention est un effort » écrit Simone Weil.

 

Le détournement de notre "attention"

L’attention produite par notre volonté (endogène), et celle suscitée par l’extérieur (exogène)
L’attention, « d’un point de vue de la psychologie, … consiste à sélectionner le ou les éléments de notre environnement sur lesquels focaliser les traitements d’information opérés par notre cerveau… ». On fait aujourd’hui plutôt la distinction entre l’attention endogène (qui vient de l’intérieur ; produite par notre volonté), et l’attention exogène (suscité par l’extérieur, comme un élément saillant comme un pop-up à l’écran attire soudain notre attention). 
« l’attention conjointe » et la dimension sociale de l’attention
Porter à deux une même attention sur un même objet est un exercice d’attention, mais aussi d’apprentissage de la vie collective. Le chapitre 2 (page 41-47) développe ce thème.
« La capacité de se coordonner à l’attention d’autrui a été identifiée comme un constituant important de l’intersubjectivité. Cette faculté, nommée « attention conjointe », est en particulier un élément précurseur … au développement de la coopération. ».    
Citons aussi des extraits des pages 28 à 29 du livre cité en introduction.
« En effet, on apprend d’autrui à focaliser notre attention sur les bons éléments, ce qui en retour, renforce nos capacités à collaborer en affûtant notre aptitude à ce qu’on appelle l’attention conjointe. Or celle-ci permet de mieux appréhender les intentions de l’autre, de mieux comprendre lorsqu’on échange : bref, elle est un constituant majeur de la socialisation, de la transmission culturelle, donc ultimement aussi, des processus démocratiques ».

 

Les attaques de notre agentivité
L’attention, en particulier perceptive ou motrice, est intégré aux processus du « contrôle exécutif », et  au maintien de notre « agentivité »
« La focalisation de l’attention est tributaire de tout un réseau d’aires cérébrales. Celui-ci régule tout aussi bien l’attention perceptive (qui sélectionne les stimuli à traiter) que l’attention motrice (qui sélectionne un geste en préparation) …  Ces résultats … montrent que l’attention n’est pas un processus indépendant, mais bien un processus intégré, impliquant des processus de contrôle exécutif et de planification de l’action, dont le rôle s’étend bien au-delà du seul mécanisme de sélection de l’information. »
Le « contrôle exécutif » (évoqué page 36, 37 et 38) incluent diverses fonctions et capacités rassemblées sous cette appellation. Celles-ci incluent :
-    « La capacité de hiérarchiser les priorités et de mettre en séquence une série d’action… [à travers les processus] « de création et de maintien de l’information la plus pertinente pour arriver à l’objectif, de maintien de l’attention sur ce qu’on veut atteindre ».
-    « les processus d’inhibition des autres comportements plus familiers, mais inappropriés pour le contexte actuel … ».
« L’agentivité correspond à la capacité à agir sur le monde, donc à produire des effets causaux sur lui par nos propres actions… Pour que l’action volontaire puisse se produire, il faut que l’agent se sente en contrôle de ses actions et qu’il connaisse les effets probables de ses actions… 
Tout l’enjeu est donc de retrouver un sentiment d’agentivité dans nos interactions avec les interfaces numériques ».
Remarque : Par exemple, lors de recherche sur internet, nous n’avons pas beaucoup de connaissance des effets probables de nos requêtes… en particulier par la méconnaissance des algorithmes qui pilotent les moteurs de recherches, et les réseaux sociaux. Pas facile de retrouver un sentiment d’agentivité dans nos interactions avec ces interfaces numériques ! 


Fatigue de l’attention, perte de l’attention
« … nous avons besoin de réduire la quantité d’informations que notre cerveau peut traiter à chaque instant, pour être efficace dans les tâches que nous réalisons…. « L’attention […] est nécessaire à la plupart de nos activités quotidiennes » et qu’elle est « un ingrédient clef de l’efficacité humaine. La fatigue de l’attention [volontaire] est similairement un ingrédient de l’inefficacité et des erreurs humaines »  
(Extraits des pages 24 à 27 du livre cité en introduction).
« Le monde du numérique offre en effet des possibilités démultipliées de capter notre attention, de l’interrompre, de la capter. La multiplication des stimuli suscite alors de l’effort pour résister aux distracteurs… Les sollicitations incessantes des interfaces numériques (messages, vidéos, notifications, etc.), sans pause de ‘restauration de notre attention’, aggravent le phénomène de fatigue intentionnelle. Or la fatigue de notre attention dans le monde numérique a des incidences sur notre façon d’agir. ». Plusieurs impacts de la fatigue de l’attention ont été démontrés : 
•    Une baisse de l’efficacité de notre mémoire à long terme, 
•    la multiplication des fautes d’inattention, d’erreurs humaines
•    L’augmentation de la probabilité de repartager de fausses informations sur les réseaux sociaux sans en vérifier la véracité ni les sources. En effet, cette démarche de vérifier la véracité et les sources d’information est prenante (« time consuming ») et exigeante, pas dans l’esprit d’une interaction rapide avec Internet. 


Captation attentionnelle et addiction 
« Une approche qui est en train d’émerger pour appréhender la façon dont les réseaux sociaux et les applications numériques capturent notre attention, consiste à assimiler celle-ci aux stratégies des casinos, de l’industrie du tabac, en encore de l’industrie alimentaire avec les aliments sucrés ».

« Nir Eyal, un des anciens étudiants de Fogg [Brian Jeffrey Fogg, directeur du Laboratoire des technologies persuasives de Standford], qui a ensuite conçu pendant plusieurs années des publicités placées sur Facebook, est l’auteur de ‘Hooked : How to build habit-forming products’ (‘Accroché : comment construire des produits addictifs’) »
Mais attention de ne pas exagérer. Le design des interfaces avec leur façon d’influencer nos comportements et nos habitudes peut ne pas susciter automatiquement d’addiction à proprement parler. Mais il faut cependant, lors de l’analyse des réactions d’addiction et de compulsion, souligner ce rôle du design des interfaces et des systèmes dans la captation de l’attention. »


Exemples de moyens-techniques, pour capter notre attention, utilisés par les plateformes numériques

Interfaces trompeuses (« dark pattern »)

Ce paragraphe cite quelques exemples issus du livre objet de cet article, et n’est pas exhaustif.
Interfaces trompeuses (« dark pattern »)
Cette pratique « interfaces trompeuses » (procédés manipulatoires) est interdite depuis la mi-février par le règlement européen DSA : prix barrés mensongers, incitations répétitives, message mentionnant une stock limité (piège de l’urgence)… dont la pertinence est invérifiable.
Pour aller plus loin sur ce sujet d’interfaces trompeuses, voir le rapport de Que Choisir « DARK  PATTERNS DANS L’E-COMMERCE /  LES INTERFACES TROMPEUSES SUR LES PLACE DE MARCHE EN LIGNE» de juin 2024.

 Nudge et boost 

« Le nudge (« coup de coude » 1,2 ou « coup de pouce »3 en français), vise à inciter des individus ou l'ensemble d'un groupe humain à changer tels comportements ou à faire certains choix sans les mettre sous contrainte, obligation ni menace de sanction. Cette méthode d’influence est qualifiée de « paternalisme libertarien » car elle permet aux individus de faire leurs choix sans coercition. Elle a été mise en lumière, en 2008, par Richard Thaler et Cass Sunstein dans leur livre Nudge : Améliorer les décisions concernant la santé, la richesse et le bonheur. » extrait wikipédia  lien : https://fr.wikipedia.org/wiki/Theorie_du_nudge  Des critiques à cette approche « nudge » dans le numérique sont apparus : 
•    « De nombreux nudges sont mis en place pour influencer de façon inconsciente et automatique nos comportements » sans apporter vraiment une aide à comprendre, « permettant à l’usager de délibérer consciemment avant de décider »,
•    « Des variantes des nudges, appelés des sludges, sont utiliser pour décourager, même dissuader les utilisateurs d’obtenir un service ou même un remboursement auquel ils ont droit »

La méthode appelé "boost" consiste en des interventions et outils cognitifs qui visent « à préserver l’autonomie décisionnelle des utilisateurs en les rendant plus réflexifs et conscients à l’égard des choix qu’ils font ». Il apparaît donc souhaitable de « favoriser les capacités réflexives et délibératives de l’usager en privilégiant le principe du boost à celui du nudge ».

 "Friction" : disposition qui freine les actions automatiques de l'utilisateur, élément d'interfaces qui permett une reconnaissance facile des actions à accomplir 

« La facilité d’usage, l’ergonomie des interfaces peut avoir un effet manipulateur, car « le manque de ‘friction’ de certaines interactions, c’est-à-dire qu’il n’est rien qui freine les actions automatiques comme l’ajout en un clic d’un élément à un panier en ligne, le scrolling sur les réseaux sociaux, le défilement de vidéos, etc., permettent d’effectuer des tâches sans avoir à se focaliser sur elles… diminuent le contrôle volontaire et engendre une certaine perte de conscience sur nos actions qui peut se transformer en augmentation du temps passé sur ces activités ou même en exécution d’activités non réfléchies. »
L’élimination de toute ‘friction’ peut donc être considérée comme un risque majeur de perte d’agentivité.

Intelligence artificielle(IA) :

L’IA peur exacerber les techniques de capture et d’exploitation de notre attention par l’hyperpersonnalisation des messages et l’optimisation des mécanismes émotionnelles annulant notre agentivité. 
« Serge Tisseron résume les enjeux de ces nouvelles formes de « conversations personnalisées avec chacun d’entre nous » : « l’attention morcelée suscités aujourd’hui chez les utilisateurs du Net, va […] se substituer une relation nouvelle de l’homme à ces technologies numériques : de longue conversation suscitant un éventail d’émotions large et varié, nourri par l’illusion d’une présence réelle, attentive et chaleureuse…. Différents risques ont d’ores et déjà pu être identifiés et analysées, notamment par la CNIL (Avis sur les assistant vocaux 2021 »)


     Le marketing s’intéresse à notre attention : « emotion-driven advertising »

« …contextes dans lesquels les décisions humaines semblent « irrationnelles » (selon le paradigme dominant en économie) au sens où elles ne sont pas mues par un souci d’optimiser son utilité monétaire ». « La captation de l’attention pose donc des questions concernant notre liberté de choix, non seulement via son influence sur les automatismes et les émotions, mais sur la manière de biaiser directement nos choix… ». « Le marketing numérique est aujourd’hui un enjeu majeur dont les risques ne sont pas encore bien mesurés ». 
« En ligne, que les gens accèdent à l’information par les moteurs de recherche ou les médias sociaux, leur accès est régulé par des algorithmes et des choix de conception faits par des entreprises à la recherche du profit et avec peu de transparence ou de contrôle public ». 


L’économie de l’attention 


Le concept d’économie de l’attention (page 9 du livre et Chapitre 6 page 85 et suivantes) « désigne un pan de la théorie économique : la façon dont l’attention -à laquelle les économistes appliquent le modèle de « biens rares » - est monétisée et valorisée par la publicité, les industries culturelles » . « L’attention est le plus grand enjeu économique du XXI siècle » affirme J-P Lachaux (2015)  ans son livre ""Le cerveau funambule. Comprendre et apprivoiser son attention grâce aux neurosciences (édition Odile Jacob).

Les auteurs du livre insiste sur la nécessité d’un politique publique pour « cultiver l’intention, c’est-à-dire de préserver, protéger, soutenir les capacités individuelles et collectives à la mettre en œuvre, à l’instaurer, la maintenir, la développer ». 


Paradigme économique 
On peut rapprocher la logique des réseaux sociaux et ceux de diverses plateformes sur internet à des entreprises de captation de « temps de cerveau humain disponible », en analogie à la phrase célèbre de Patrick LE LAY en 2004 PDG de TF1 : « Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible. » cité dans Philosophie et modernité (2009) d’Alain Finkielkraut.
La captation de l’attention « est constitutive d’un paradigme économique dans lequel le marché, aux prises à des biens trop nombreux, s’appuient sur ces nouveaux intermédiaires mi-entreprises, mi faiseurs de marché, que sont les grandes plateformes, Facebook (Meta) ou Amazon

 
Les conséquences néfastes de l’économie de l’attention
Les conséquences de cette "économie de l'attention" sont principalement de 4 ordres  : 
-    En matière de liberté : Les interfaces de ces systèmes « peuvent masquer nos réelles possibilités d’agir ou orientent nos décisions, et restreignent peu à peu notre autonomie »
-    En matière de santé, citons « les processus compulsifs et addictifs … en jeux »
-    En matière d’écologie, la consommation énergétique de tous les algorithmes, matériels et infrastructures numériques, et l’incitation à la surconsommation ne vont pas dans le sens du respect des principes écologiques.
-    En matière de démocratie, ces systèmes pour certains « sapent l’apprentissage du débat contradictoire au profit du clash et de la violence verbale sur Internet. En effet, ces processus de captation de l’attention… ont tendance à favoriser les contenus choquants et les fausses informations, à polariser les utilisateurs, et à réduire leur capacité à comprendre d’autres points de vue, et même à le vouloir. L’économie de l’attention atrophie notre capacité à partager des idées, des objets d’intérêt, à échanger, bref, appauvrit notre expérience du monde ».


Les concepts de sociologues et d’historiens


Le chapitre 7 aborde des aspects plus conceptuels en sociologie et histoire en abordant « deux grandes théories qui interrogent notre modernité dans son ensemble. La théorie de l’accélération d’une part ; la pensée technique de Bernard Steigler d’autre part »

 

Deuxième partie : Reprendre le contrôle de notre attention 


Cette 2ème partie du livre cité en introduction propose des pistes d’actions : Nous citons ci-dessous quelques recommandations  (sans être exhaustif) :


Favoriser la réflexivité et notre capacité à prendre des décisions conformes aux objectifs que nous nous fixons. 
Citons par exemple le programme #marquonsunepause de l’ONU. Dans le cadre de l’initiative « Vérifié », l’ONU a lancé la campagne #MarquonsUnePause qui encourage les citoyens à réfléchir avant de partager une information sur les réseaux sociaux. « Vérifié »( Verified), une initiative des Nations Unies lancée en mai 2020 pour communiquer des informations sanitaires accessibles et scientifiquement fondées dans des formats convaincants et partager des histoires de solidarité mondiale autour de la COVID-19. 


Favoriser et promouvoir des pratiques d’attention conjointe
Dance ce chapitre 13, les auteurs évoquent l’intérêt pour les pouvoirs publics de soutenir des processus de collaboration, de e-gouvernement et de e-participation, la mise en commun et le développement de connaissance, avec des tentatives de plateforme d’intelligence collective comme Wikipedia et Openstreetmap. 


Promouvoir une politique publique de formation des internautes
Une telle politique publique de formation des internautes sur le management de l’attention, les techniques d’accroissement de notre réflexivité, le paramétrage des plateformes, la cyber malveillance...  est en particulier nécessaire pour « cultiver l’intention, c’est-à-dire de préserver, protéger, soutenir les capacités individuelles et collectives à la mettre en œuvre, à l’instaurer, la maintenir, la développer ». 


Donner la Possibilité de paramétrage des plateformes aux utilisateurs
Possibilité pour laisser le choix aux utilisateurs de défendre leurs intérêts en priorité à celui des plateformes  : 
•    Rendre ce paramétrage simple et ergonomique
•    Proposer un paramétrage par défaut dans l’intérêt de l’internaute 
(pas celui de la plateforme concernée)
•    Et plus généralement redonner du contrôle à l’utlisateur.


Renforcer la régulation des plateformes : 
Laisser aux plateformes la prérogative de la régulation semble illusoire lorsqu’elles ont intérêt à retarder le plus possible les régulations. Rappelons la publication en 2021 de documents internes à Facebook par la lanceuse d’alerte Frances Haugen. Facebook avait ignoré les signaux internes montrant qu’Instagram décuple le mal-être chez de nombreux adolescents qui n’ont pas une bonne image d’eux-mêmes. Il s’agit alors de penser un dispositif ne reposant pas sur la seule volonté des plateformes, mais associant étroitement la société civile, suivant des processus démocratiques, inspiré par exemple des règles régissant l’espace publique (droit d’affichage). Pour aller plus loin, voir le livre de S.Abiteboul et J.Cattan (2022) « Nous sommes les réseaux sociaux » aux édition Odile Jacob. 
Prenons un exemple : Sur le moteur de recherche d’Amazon, en tapant le mot « Covid », vous voyez lister de très nombreux ouvrages complotistes dont le titre accrocheur est de vous les faire acheter, et non pas vous informer. Amazon a pour objectif le profit, pas l’information objective. 
Pour certains états et plateformes, se réfugier derrière un « droit mou » via des chartes et code de conduite permet de défendre leur intérêt économique. 


Développer l’interopérabilité entre les systèmes
« L’interopérabilité est la capacité d’un système informatique à fonctionner avec d’autres produits ou systèmes d’informations existants. ». Dans le chapitre 13 du livre objet de cet article, la recommandation sous-jacente est d’offrir à l’utilisateur la possibilité de sortir d’un environnement d’un opérateur afin de rejoindre un nouvel environnement (par exemple quitter un réseau social pour en rejoindre un autre plus respectueux de se valeurs, en récupérant (téléchargeant) sous un format numérique interopérable des données, par exemple des données médicales, ou données liées à l’énergie…). Le règlement européen RGPD article 20 est une ouverture vers ces possibilités. Cette capacité serait à renforcer dans le cadre de règlement européen ou nationaux. 

 

Pour aller plus loin 
•    Lire le livre « Pour une nouvelle culture de l’attention » (Stefana Broadbent, Florian Forestier, Mehdi Khamassi, Célia Zolynski) aux éditions Odile Jacob.
•    Voir le site "dans les algorithmes" : https://danslesalgorithmes.net/2024/07/02/du-marketing-a-leconomie-numerique-une-boucle-de-predation/ 

Limitation par l’Europe du monopole pour les géants du web

29/03/2024

Limitation par l’Europe du monopole pour les géants du web

Le Digital Market Act (nouvelle règle de l’Union Européenne), qui a pour objectif de favoriser la concurrence des applications sur le web, est rentré en vigueur ce mercredi 6 mars 2024, dans toute l’Union européenne . Les moteurs de recherche ne peuvent plus favoriser les produits de leur groupe. Les boutons « Google maps », « Google shopping » ne s’affichent plus sur la page d’accueil du moteur de recherche Google. Sur les smartphones, vous devriez avoir le choix entre les services préinstallés et télécharger directement les applications que vous voulez sans passer par App Store ou Google Play Store. Sur le délicat problème de protéger nos données personnelles, les plateformes ont l’interdiction de les croiser sans votre consentement… Encore faut-il que l’ergonomie pour dire « non » à l’utilisation de vos données personnelles soit performante…. ce qui ne semble pas le cas actuellement.

Rappelons l’évolution des règlements et directives sur ce domaine numérique :

  • 1995 : Adoption de la directive sur les données personnelles
  • 2000 : Adoption de la directive sur le commerce électronique  qui règlement les transactions en ligne et l’e-commerce
  • 2004-13 : Régulation du numérique par la concurrence.
    • 2004 : 1ère amende de Microsoft (497 millions €) pour  abus de position dominante »
    • 2009 : Amende d’INTEL de 1,06 milliards € pour « abus de position dominante » sur le marché des microprocesseurs
    • 2013 : 2ème amande de Microsoft (561millions €) pour avoir imposé son navigateur internet Explorer
  • 2016 : Adoption du RGPD …
  • 2014-2024 : Législation comme le « DMA » et le « DSA »
  • 2024 : AI ACT (Articial Intelligence Act) en gestation.

 

👉 Principaux textes européens

RGPD

2016

Règlement général sur le protection des données personnelles

DSA

2022

Digital Service Act qui encadre les contenus

DMA

2024

Digital Market Act qui encadre la concurrence

AI Act

2024

Artificial Intelligence Act qui encadrera les applications de l’IA

Enfin soulignons les délais long de mise en application. Le règlement DMA du 14 septembre 2022 est, avec le DSA, progressivement applicable depuis le 2 mai 2023, entré totalement en vigueur le 6 mars 2024.

 

 

Notons aussi l'identification par l'Europe de "plateformes contrôleurs d'accès" à Internet

les plateformes d'accès à Interner (EU)

 

 

🔥 illectronisme et citoyenneté

27/01/2024

🔥   illectronisme et citoyenneté

Dans un contexte de croissance des usages du numérique et de la fracture numérique, quatre associations (ATD Quart Monde, Emmaüs Connect, Emmaüs France et la Fédération des Acteurs de la Solidarité), associées au médialab de Sciences Po, ont créer le collectif Citoyenneté & Numérique pour agir en faveur d’une citoyenneté inclusive à l’heure du numérique.

 

 

Rappelons le contexte de croissance du numérique. D’après l’insee,

  • 9 missions de français sont en situation d’illectronisme
  • 1/3 des adultes renonce à réaliser des démarches administratives dématérialisées
  • 24% de la population ne sait pas obtenir de l’information sur internet

Le croissance de l’usage du numérique est continue.

 

 

 

 

Ces 4 organismes ont lancé une démarche pour créer le collectif Citoyenneté & Numérique. Voir https://citoyennete-et-numerique.org/le-collectif/

« La citoyenneté est le socle sur lequel repose notre contrat social et notre capacité à faire société. Pourtant, à l’heure du tout-numérique, l’égal accès de chacun au plein exercice de sa citoyenneté se voit menacé, fracturé.

Pour de nombreux citoyens, en particulier les plus précaires, le numérique ne tient pas toutes ses promesses. C’est même un facteur d’exclusion supplémentaire. 19% des moins de 25 ans sont ainsi éloignés du numérique, le plus souvent parce qu’ils sont issus de familles modestes et n’avaient pas d’ordinateur à la maison (rapport ANCT 2022). 61% seulement des personnes non-diplômées sont équipées en ordinateur en France, contre 98% des personnes diplômées (Insee, 2021). Plus largement, un tiers des adultes a renoncé à effectuer une démarche administrative en ligne en France en 2021 (Insee).

Parce que cette urgence est encore sous-estimée ou ignorée, parce que le numérique tend à fabriquer des citoyens de « seconde zone », parce que nous constatons, chaque jour, l’invisibilisation des plus démunis, nous tirons la sonnette d’alarme. » 

Espérons que cette démarche apporte des éléments concrets rapidement de réponse à la crise de notre démocratie, et à la représentativité des éloignés du numérique.

 

La promotion de « l’habileté numérique », condition d’une citoyenneté


L' Habileté numérique est la capacité d’accéder à l’information, de la gérer, de la comprendre, de l’intégrer, de la communiquer et de l’évaluer, ainsi que de créer et de diffuser des informations, en toute sécurité et de manière appropriée à l’aide des technologies numériques. L’habileté numérique implique une dimension d’engagement actif et civique dans le monde numérique, et est une condition préalable au développement d’une citoyenneté numérique active et autonome. En particulier, cette capacité « habilité numérique » permet de bien comprendre la distinction entre désinformation, mésinformation et information malveillante.

  • Désinformation: informations dont on peut vérifier qu’elles sont fausses ou trompeuses, qui sont créées, présentées et diffusées dans un but lucratif ou dans l’intention délibérée de tromper le public. Elles peuvent causer un préjudice public
  • Mésinformation: informations dont on peut vérifier qu’elles sont fausses, qui sont diffusées sans intention d’induire en erreur et souvent partagées parce que l’utilisateur pense qu’elles sont vraies.
  • Information malveillante: informations correctes sur le plan factuel qui sont utilisées de manière préjudiciable.

 

Annexe : Quelques mots à faire connaître des éloignés du numérique 

 

  • Troll: personne qui tente délibérément de causer du tort ou d’attaquer directement des personnes en envoyant des remarques désobligeantes. Les fermes à trolls ou usines à trolls sont des groupes institutionnalisés de trolls sur l’internet dont le but est d’intervenir dans les opinions politiques et la prise de décision.
  • Hameçonnage: attaque visant à voler l’argent ou l’identité d’une personne, en amenant celle-ci à révéler des informations à caractère personnel comme des numéros de carte de crédit, des informations bancaires ou des mots de passe sur des sites web qui font semblant d’être légitimes.
  • Bulle de filtres: situation dans laquelle les gens n’entendent ou ne voient que des actualités et des informations qui étayent leurs croyances et préférences existantes. Cet effet peut être amplifié en ligne en fonction des personnes ou des pages que les utilisateurs choisissent de suivre ou auxquelles ils se connectent, ainsi que d’algorithmes affichant du contenu sur la base du comportement, des préférences et des paramètres en ligne antérieurs.
  • Bot: logiciel autonome sur l’internet qui interagit avec les utilisateurs et effectue des tâches prédéfinies.
  • Chatbot : "agent conversationnel" : Un chatbot est un logiciel qui peut dialoguer avec des humains en utilisant en fait, une intelligence artificielle (plus ou moins développée) leur permettant de discuter avec des utilisateurs et de leur proposer des services adaptés à leurs demandes directement depuis une application de messagerie instantanée depuis un site web 

 

Pour aller plus loin, voir le document : lignes directrices pour les enseignants et les éducateurs-FR.pdf (extrait document de l’Union Européenne)