Comment et pourquoi le progrès et l'innovation technologique modifient-ils notre quotidien ? Dominique Desaunay met l’accent sur les initiatives locales, donne la parole à ceux qui imaginent notre avenir, et propose une immersion au cœur même de la civilisation «numérique» mondiale. Diffusions : Dim (Afrique) à 07h23. Sam (Monde) à 05h22, 07h43, 18h19. Dim à 05h22 et 07h48. A suivre sur Twitter: @RFI_Tech Retrouvez les sujets traités par cette émission sur RFI SAVOIRS = http://savoirs.rfi.fr/
Au siège de l’Unesco à Paris s’est tenue la toute première exposition virtuelle de l’IPM, l’« Isis prisons museum », autrement dit le musée des prisons de l’État islamique en Irak et en Syrie, sur la vieille ville de Mossoul en Irak.
Construire cette exposition a nécessité plusieurs années de travail de documentation et de collecte de preuves sur les exactions et les destructions menées par les jihadistes de Daech quand ils ont pris le contrôle de la ville de Mossoul en 2014.
Cette occupation de l’État islamique et le conflit qui en a résulté ont entraîné la destruction de nombreux sites emblématiques. L’exposition reconstitue donc avec l’aide d’images 3D l’architecture de Mossoul en mettant l’accent sur trois bâtiments clés de la vieille ville. On peut voir en immersion la mosquée al-Nouri, la maison Meydan et l’église syriaque, trois monuments qui témoignent de la diversité ethnique et religieuse de Mossoul et qui ont été transformés en prisons par l’organisation État islamique.
Ce travail de longue haleine a commencé en 2017 quand les jihadistes ont été expulsés progressivement du pays. Younes Qays est responsable de l’IPM pour l’Irak, il coordonne sur place le travail de documentation en images et de collecte d’informations sur ce qui s’est passé dans ces prisons. « Ça a été un travail très difficile et c’était très compliqué aussi pour les habitants d’évoquer cette période marquée par les horreurs de l’État islamique, relate-t-il. C’est une période en fait qu’ils veulent oublier, mais il était important aussi pour eux de témoigner. Le but, c’est raconter vraiment l’histoire de ce pays pour qu’elle ne se répète pas. »
L’objectif de cette exposition, c’est aussi de ne pas oublier les événements à Mossoul. Une visite en 3D permet de voir les bâtiments avant et après le passage des jihadistes. Et ce travail de mémoire a été possible grâce à la technologie et l’engagement de bénévoles comme Zaïn Hajahjah, l’architecte irakienne qui a développé les animations 3D pour reconstituer les bâtiments. Elle explique le processus de reconstitution d’une maison familiale traditionnelle transformée en prison : « On a procédé en trois phases. D’abord, en prenant des photographies 3D des bâtiments et des prises de vues aériennes. Ensuite, en exploitant des documents trouvés sur place. Et tout ceci combiné aux nombreux témoignages de prisonniers, de survivants, nous a permis de reconstituer virtuellement le bâtiment tel qu’il était avant l’arrivée des jihadistes et tel qu’il est aujourd’hui. »
Outre les bâtiments, le sort des milliers d’habitants de Mossoul qui ont disparu est aussi au cœur du travail des équipes de l’IPM, qui ont effectué un travail d’enquête minutieux avec l’aide de témoignages qu’ils ont pu recueillir des anciens prisonniers de l’État islamique. En se rendant sur les sites transformés en prison par les jihadistes, les membres de l’IPM ont aussi relevé plusieurs inscriptions sur les murs qui les ont aidés à en savoir plus sur les milliers de personnes disparues. Le but est de rassembler le maximum de preuves et de témoignages sur les violations des droits humains pour qu’elles puissent être utilisées, un jour, devant les tribunaux.
L’exposition Trois Murs est accessible en ligne sur le site de l’Isis Prisons Museum.
À lire aussi«Notre-Dame à l’heure de Mossoul»: après le groupe État islamique, reconstruction et renaissance?
De plus en plus de jeunes américains se filment sur TikTok, indiquant qu’ils votent à l’inverse de leurs parents ou de leur conjoint afin de contrer leur opinion. Cette nouvelle tendance, intitulée « cancel out » (« annuler », en français), se généralise sur tous les réseaux sociaux. Elle révèle l’étendue d’un clivage électoral générationnel qui règne désormais dans la plupart des familles américaines.
De nombreux jeunes électeurs sur la plateforme sociale TikTok publient des vidéos sur leur intention de vote.
Tous expliquent vouloir « annuler » le bulletin de leurs proches, de leurs amis, voire celui de leurs grands-parents, annonce, par exemple, cette jeune internaute : « Je suis désolée pour tous ceux qui doivent annuler les votes de leurs grands-parents toujours en vie. Moi, je n’ai pas la même préoccupation, car ils sont tous décédés et je m’en fiche si mon vote ne leur plaît pas et qu’ils viennent me hanter. Et comme 75 % de mes ancêtres sont des immigrés, je me demande pourquoi vous voteriez pour celui qui nous a toujours détestés. »
Des clips d’à peine vingt secondes qui sont, pour la plupart, réalisés sur un mode humoristique.
L’autre particularité de ces vidéos est qu’elles sont noyées dans des musiques de fond, principalement issues de la K-pop ou des reprises électro de la bannière étoilée, l’hymne national américain.
Généralement, un simple texte explicatif accompagne ces vidéos. C’est le cas de ce clip qui a cumulé plus de 9 millions de vues depuis sa création dans lequel on aperçoit un homme suivi et filmé par sa fille en train de marcher vers le bureau de vote. « Juste un père et sa fille allant annuler le vote de l’un et de l’autre » indique, en filigrane, le texte du message.
Les opinions politiques opposées peuvent coexister, démontre un de ces clips dans lequel un jeune couple s’amuse de leur opposition politique. Dans une interview accordée à la chaîne NBC News, la jeune femme de 19 ans du couple explique avoir mis en scène cette vidéo pour passer un message de tolérance. Deux personnes peuvent vivre sous le même toit, malgré leurs opinions politiques opposées : « la plupart des jeunes femmes de la génération Y ou Z expriment ainsi leur volonté de “voter différemment”, d’un partenaire ou d’un père. Et je pense que cette tendance peut avoir un impact significatif sur les discussions entre les jeunes femmes et leurs conjoints. Avec leurs parents aussi, car les jeunes semblent être le groupe démographique clé dans cette élection selon eux. Mais encore une fois, il s’agit d’un clip anecdotique. Et il est difficile de savoir ce qui se passe réellement au moment du vote, vous savez. »
Un récent sondage indique que six électeurs sur dix de la génération Z, c’est-à-dire, les personnes nées à la fin des années 1990, voteraient pour la candidate démocrate.
Toutefois, cette guerre de Sécession électorale qui fait rage aux États-Unis dans les familles ne va pas cesser, ça, c’est sûr.
Les discussions en ligne s’enveniment en ce jour d’élection de la présidentielle américaine. Les internautes, démocrates ou trumpistes s’estimant plus nombreux que l’autre camp, imaginent qu’ils vont donner la pâtée à leur adversaire.
Une envolée des messages vindicatifs sur les réseaux sociaux, qui corrobore une récente étude de l’université de l’Illinois. Elle révèle que près de 30 % des Américains, quel que soit leur âge, entretiennent une relation compliquée, pour ne pas dire conflictuelle, avec un proche ayant des opinions politiques opposées.
À lire aussi[En direct] États-Unis: Kamala Harris ou Donald Trump, qui sera le 47e président?
Suite à la catastrophe naturelle qui s’est abattue en Espagne le mardi 29 octobre 2024, et qui a provoqué plus de 200 morts et des dizaines de disparus, il n’y a pas eu uniquement un déluge d’eau, mais aussi un torrent d’informations équivoques, fausses, exagérées et de fausses alertes sur les réseaux sociaux, ajoutant du chaos au chaos.
De notre correspondant à Madrid,
Dès le mercredi 30 octobre au matin, lorsque chacun pouvait constater le désastre, les dizaines de morts et de disparus, les édifices détruits, les voitures emportées dans les flots comme des rondins de bois, les polémiques sur les réseaux sociaux enflaient.
Le premier à signaler le terrible danger des informations sur ces réseaux sociaux, c’est José Miguel Basset, le chef provincial des pompiers. « La grande quantité de fake news, dit-il, provoque des problèmes d’ordre public et interrompt le travail des dispositifs de secours. » Pléthore de fausses informations ont circulé, par exemple, qu’une commune entière allait être évacuée, ou que dans des villes comme Sedavi ou Alfafar, il y avait des avenues d’eau provoquant de nouvelles victimes, ou encore que le numéro d’urgence, le 112, avait cessé de fonctionner.
À lire aussiNon, un mystérieux bateau n’a pas provoqué les inondations en Espagne
L’extrême droite, notamment, et d’innombrables internautes qui se laissent séduire avec facilité par les théories du complot, ont colporté une fausse information extrêmement dangereuse : des barrages en amont de Valence auraient cédé.
Tout a commencé par une fausse alerte par WhatsApp, relayée ensuite par plusieurs réseaux sociaux, selon laquelle plusieurs barrages, comme ceux de Manises et de Benagéber, auraient cédé et qu’un autre tsunami d’eau allait se déverser sur Valence et ses environs.
Mais cela ne s’est arrêté là, car plusieurs membres de Vox, le parti d’extrême droite espagnol, ont alimenté l’idée totalement folle que les inondations et les crues étaient dues au fait que le gouvernement espagnol avait sciemment ouvert les portes d’un grand barrage. Le chef de file de Vox, Santiago Abascal, a accusé les socialistes au pouvoir d’en avoir fini avec les retenues d’eau dans le pays, origine de la tragédie.
Toutefois, dans un incroyable élan de solidarité, des milliers de volontaires ont aidé la population locale à déblayer les rues et les garages. Mais dans certains cas, des volontaires ont été stoppés, car ils saturaient les accès pour les équipes de secours.
À lire aussi Inondations en Espagne : la solidarité s’organise pour approvisionner et nettoyer
Les victimes de la catastrophe ont manifesté leur colère à Paiporta, l’épicentre de la catastrophe, contre le roi Felipe VI et la reine Letizia. La foule les a insultés aux cris d’« assassins » et a lancé sur eux de la boue. Le couple royal s'en est sorti indemne, mais il a préféré interrompre son programme de visites dans d’autres zones sinistrées, par prudence.
À écouter François Gemmene : « La population doit identifier qui est responsable de la catastrophe »
Elon Musk, le patron du réseau social X (ex-Twitter), a confirmé qu'il détournait à son avantage l'algorithme de sa plateforme pour mettre en avant ses propres tweets et ceux du candidat Donald Trump. Mais une enquête menée par le Wall Street Journal vient de démontrer que le système de recommandation de X favorisait aussi les messages de tous les internautes pro-Trump, au détriment des publications pro-Harris.
Les journalistes du Wall Street Journal ont cherché à décrypter les comportements des algorithmes du réseau social X, pour déterminer notamment si le dispositif de recommandation de l'onglet intitulé « Pour vous » affichait plutôt des messages favorables à Kamala Harris ou à Donald Trump. Concrètement, les équipes du quotidien new-yorkais ont créé 14 nouveaux comptes qui ciblaient particulièrement les États considérés comme déterminant lors du scrutin de l'élection présidentielle américaine.
Ces comptes étaient programmés pour se montrer actifs sur la plateforme X plusieurs fois par jour et pendant une semaine. Les messages publiés couvraient divers sujets s'intéressant à la culture, la science, à la course à pied, ou encore à des recettes de cuisine. Mais aucun des thèmes abordés sur ses comptes n'indiquait un quelconque intérêt pour les élections américaines.
Premier constat : la majorité des publications recommandées par les algorithmes de X étaient à caractère politique et souvent en rapport avec les élections. Le média américain remarque toutefois que des messages favorables à Kamala Harris sont arrivés en tête des consultations, mais uniquement sur un seul de ces comptes.
En revanche, 10 sur les 14 affichaient des contenus dans l'onglet « Pour vous » en faveur du candidat républicain. Par ailleurs, les messages pro-Trump apparaissaient deux fois plus fréquemment que les publications pro-Harris, indique le Wall Street Journal. Elon Musk est le seul responsable de cette manipulation algorithmique à grande échelle, estime David Chavalarias chercheur au CNRS et directeur de l'Institut des systèmes complexes de Paris :
« Ce qui s'affiche dans l'onglet ''Pour vous'' est entièrement piloté par le dispositif de recommandation du réseau X, l'ex-Twitter. Et ce n'est qu'une toute petite partie évidemment de ce qui est géré par les algorithmes de la plateforme sociale. Les messages des personnes que vous suivez sont mélangés à d'autres types de contenus sur le réseau social selon des critères définis par les algorithmes. Leur premier objectif est de vous faire rester le plus longtemps possible sur le réseau. Mais ils sont aussi capables d'influencer vos décisions, vos jugements, vos opinons politiques.
Ce biais informationnel, qui est particulièrement fort sur la plateforme X, est au service des opinions politiques d'Elon Musk, qui sont très clairement d'extrême droite et pro-Trump. A priori, cette manipulation algorithmique a un impact très important, à la fois sur les messages que les internautes consultent, mais aussi sur l'opinion qu'ils se forment. La plateforme X oriente certains types de contenus, quitte à censurer des messages nuisant à l'idéologie d'Elon Musk, qui préfère amplifier les informations et les infox qui seraient favorables à son candidat préféré. »
C'est le cas de Kamala Harris qui a investi massivement TikTok, pour délivrer ses consignes de vote auprès de ses millions d'abonnés qui la soutiennent.
Toutefois, les républicains, fervents défenseurs de l'interdiction de l'application aux États-Unis, ont préféré bouder la plateforme chinoise au profit de X.
Les deux candidats se retrouvent sur les plateformes sociales de Meta. La firme a décidé récemment de mettre fin aux restrictions imposées à Donald Trump sur Facebook et Instagram, afin que le peuple américain puisse, selon l'entreprise, « entendre les candidats à la présidence sur la même base ». Mais depuis l'attaque du Capitole en janvier 2021, coordonnée par les émeutiers en grande partie sur Facebook, Meta prévient avoir renforcé tous ses systèmes de modération.
Autoriser les casinos en ligne en France pourrait rapporter près d'un milliard d'euros à l'État. Mais cet amendement introduit au projet de loi de finances 2025 a été finalement retiré par le ministre du Budget, Laurent Saint-Martin. Il a depuis lancé une concertation avec des acteurs du secteur et les associations qui considèrent que les jeux d’argent de type casinos en ligne nuisent au portefeuille et à la santé mentale des internautes.
Le gouvernement français a fait machine arrière, lundi 28 octobre, sur légalisation des casinos en ligne dans l'Hexagone. Son amendement introduit au projet de loi de finances 2025 prévoyait de les autoriser par ordonnance.
La mesure avait immédiatement suscité de nombreuses réactions contradictoires, aussi bien de la part des gérants de casinos dits « physiques » que de la part des collectivités territoriales qui hébergent ces établissements. Les associations comme la Fédération Addiction dénonçaient le caractère addictif de ces jeux en ligne.
Les membres de l'Association française des jeux en ligne exigeaient de mettre en place au préalable un dispositif de régulation pour les quatre millions de joueurs exposés aux risques d'un marché illégal. « J'ai entendu les craintes du secteur », annonçait le ministre du Budget, Laurent Saint-Martin, qui a décidé de lancer une concertation sur le sujet réunissant toutes les parties prenantes. La première réunion devrait normalement se tenir « dès la semaine prochaine », indique le ministre.
Mais force est de constater que les pays de l'Union européenne affichent plutôt 27 nuances de législation nationale autorisant la mise en œuvre et la gestion des casinos en ligne. Si leur exploitation et leur création sont pour l'instant prohibées en France, ce n'est pas le cas des jeux en ligne liés au poker, aux paris sportifs et aux paris hippiques.
En revanche, ces casinos en ligne sont parfaitement légaux en Belgique, mais soumis à certaines conditions. Les opérateurs doivent obtenir une licence délivrée par la Commission des jeux de hasard belge et respecter son cahier des charges. Autre exemple : le Royaume-Uni les autorise en suivant un cadre juridique qui date un peu, celui de la Loi sur les jeux de hasard de 2005. La UK Gambling Commission est chargée d'octroyer des licences et d'assurer le respect des régulations exigées par la législation britannique.
L'affaire des jeux d'argent en ligne se complique sérieusement quand un casino internet doté d'une licence d'exploitation obtenue dans un pays de l'UE est accessible depuis un autre État européen. Dans ce cas, la règle est simple : les joueurs doivent scrupuleusement respecter les lois en vigueur dans leur pays de résidence. Les jeux d'argent en ligne constituent, à ce titre, l'un des rares secteurs dérogatoires au droit commun de l'Union européenne.
Cette absence d'harmonisation des textes législatifs entre les États membres est devenue problématique, notamment quand elle pousse les joueurs vers les plateformes illégales. La France est devenue ainsi le premier marché européen des casinos internet frauduleux. Un marché noir des jeux d'argent en ligne florissant, qui est estimé actuellement à près de 2 milliards d'euros.
Strava est une application pour mobile qui permet d’enregistrer et de géolocaliser ses activités sportives pour les partager en ligne. Elle est utilisée par de nombreux amateurs de course à pied, mais aussi par les agents du groupe de sécurité de la présidence de la République. Les parcours du footing des gardes du corps d’Emmanuel Macron ont permis de suivre ses déplacements, en révélant les lieux de séjour présidentiels plusieurs jours avant ses visites officielles.
Les géants des réseaux sociaux ont depuis longtemps décidé de recueillir en temps réel un relevé de nos activités physiques quotidiennes ou de repérer – honte à nous – leur absence totale. Partager ses exploits sportifs en ligne est devenu ainsi une pratique courante pour de nombreux internautes. Mais pas seulement ! Plusieurs présidents américains, ou encore le président russe Vladimir Poutine, ont déjà utilisé ces dispositifs pour afficher aux yeux du monde leur excellente forme… olympique.
Toutefois, cette infinité d'applications développées pour mobiles, montres et autres bracelets connectés ne se contente pas d'enregistrer l'évolution des performances quotidiennes de leurs abonnés. Elles localisent instantanément, en se servant du système GPS des appareils, les lieux préférés, mais aussi les parcours santé occasionnels choisis par les sportifs amateurs.
C'est le cas de l'application Strava. Créée aux États-Unis en 2009, elle est couramment employée par les agents du groupe de sécurité de la présidence de la République. Les journalistes du quotidien Le Monde ont pu ainsi retracer plus de 100 déplacements présidentiels entre 2016 et 2024, incluant certains voyages de François Hollande. Plus inquiétant encore, l'enquête a permis d'identifier à dix reprises les hôtels dans lesquels séjournait Emmanuel Macron, simplement en analysant les points de départ et d'arrivée des footings de ses agents.
La carte numérique en ligne Global Heat Map de Strava, offre une « visualisation en direct » de ses abonnés dans toutes les régions du monde. Cette fonctionnalité posant un problème évident de sécurité a été révélé dès 2018. L'application affichait sur son site web l'emplacement de sites militaires, notamment en Afghanistan, en Irak et en Syrie, ainsi que l'affichage des parcours de jogging préférés des soldats américains et français autour de leur base. Dépités, les concepteurs de Strava avaient alors conseillé aux militaires en mission de désactiver la fonction « partage de lieux » sur leurs appareils, mais cette consigne de prudence est rarement respectée.
Par ailleurs, cette application peut dévoiler l'adresse de ses utilisateurs qui exposent leur vie privée avec une avalanche de selfies. La plupart des abonnés à Strava publie des tonnes de photos avec des membres de leur famille ou leurs amis pendant ou après une séance de sport. Pire, certains d'entre eux indiquent dans leurs messages leur vrai nom au lieu d'employer un pseudonyme, permettant ainsi d'identifier leur position.
C'était déjà le cas des agents du groupe de sécurité de la présidence de la République posant avec Emmanuel Macron au fort de Bréançon durant ses dernières vacances. Cette affaire de cybersécurité démontre, une fois de plus, la banalisation de nos mauvais usages du numérique au quotidien. Une uniformisation des pratiques en ligne de nos parcours santé, qui se propage aujourd'hui jusqu'au plus haut niveau de l'État.
À lire aussiEn Allemagne, tout un quartier chauffé par une pompe à chaleur fonctionnant à l'eau de mer
La petite ville de Neustadt in Holstein, à l’extrémité de l’ancienne Allemagne de l’Ouest, est bordée par la mer Baltique. Et l'hiver, il y fait froid. Très froid. Bientôt, tout un quartier va être chauffé de manière innovante : avec la première pompe à chaleur fonctionnant à l’eau de mer en Allemagne.
De notre correspondante à Berlin,
C’est en utilisant l’une des ressources naturelles les plus abondantes sur Terre que tout un quartier va être chauffé à Neustadt in Holstein, et ce, grâce à une technologie ultramoderne.
En hiver, la mer Baltique est très froide, l’eau peut tomber à 4 degrés. Pourtant, c'est bien son eau qui sera utilisée pour faire fonctionner la pompe à chaleur. L'eau utilisée sera chauffée à 72 degrés, essentiellement à l’aide « d’énergie propre », comme celle dégagée par une usine de traitement de déchets qui se trouve à proximité, mais aussi au gaz. Une fois chauffée, l’eau circulera dans un circuit de conduits dans le sol, qui chaufferont les bâtiments, tout en permettant d’économiser 300 tonnes de CO2 par an.
À écouter dans C’est pas du ventLe potentiel oublié de la micro-hydroélectricité
Le quartier de Neustadt in Holstein où cette technologie va être développée se trouve directement au bord de l’eau. Il s’agit d’anciens entrepôts portuaires en briques, une architecture typique du nord de l’Allemagne, que la ville va transformer en restaurants, commerces, logements, lieux de culture. Il y aura même un poste de police.
Ces travaux, ils ont d'ores et déjà bien avancé. Les éléments de la pompe à chaleur ont été livrés par bateau du Danemark en décembre dernier. Les premiers tests seront réalisés d’ici à la fin de l’année et la mise en service est prévue pour 2026.
Pour l’Allemagne, c’est une première. Mais il existe déjà des sites équipés au Danemark et en Suède. La pompe à chaleur de Neustadt in Holstein intéresse en tout cas au-delà de la région. Le projet a bénéficié d’importantes subventions en raison de son potentiel. Les pompes à chaleur utilisent un tiers de l’énergie d’un système de chauffage conventionnel et peuvent générer trois à huit fois plus d’énergie qu’elles n’en consomment.
Le nombre d'images et de vidéos d'agressions sexuelles d'enfants générées par intelligence artificielle est en progression « glaçante », s’inquiète une organisation britannique chargée de détecter et retirer ces contenus. Ces photos ou vidéos montrant des mineurs agressés et maltraités sont si réalistes qu'il devient presque impossible de les distinguer des véritables scènes d’enfants abusés, alerte dans son communiqué l'Internet Watch Foundation.
Au Royaume-Uni comme en Europe et dans la plupart des pays occidentaux, les textes législatifs interdisant la génération d’images à caractère sexuel réalisées à l’aide d’un programme d'intelligence artificielle (IA) génératif et leur partage en ligne s’accumulent. Mais rien n’y fait. Jusqu’à présent, en vertu de la loi sur la sécurité en ligne de janvier 2024, la création, la détention à titre privé, le partage de ces clichés et clips vidéo ultraréalistes était déjà illégal au Royaume-Uni.
Par exemple, si un internaute les partage après l'avoir créé, il est condamné à une peine de prison systématique. Des lois qui n’ont strictement rien réglé, accuse aujourd’hui l’Internet watch foundation, l’une des principales associations de lutte contre la production et la diffusion d’images pédopornographiques en Europe.
La Fondation alerte sur la progression « glaçante » des clips vidéo pornographiques mettant en scène des enfants, tant par leur nombre que par le réalisme des images générées par IA. L’association britannique qui avait reçu 70 rapports concernant la diffusion de ces hyper-trucages sur l’année écoulée entre avril 2023 et mars 2024, en a déjà reçu 74 en l’espace de six mois, entre avril et fin septembre de cette année.
La quasi-totalité de ces images se trouvait sur des sites ouverts, facilement accessibles au grand public, principalement hébergés en Russie, aux États-Unis et au Japon. Plus des trois quarts d’entre elles ont été directement signalées à l’association par des internautes, après avoir été vues sur des « forums ou des galeries d’images IA », selon un analyste de l’organisation, resté anonyme par sécurité.
Toujours selon cet analyste, l’augmentation de ces signalements « donne l’impression que nous sommes arrivés à un point critique » en insistant sur le risque que les ONG et la police soient submergées par des centaines de nouvelles images. Et sans pouvoir déterminer si un véritable enfant a besoin d’aide quelque part.
Pire, pour atteindre le niveau de sophistication de ces clips nauséabonds, les logiciels IA ont dû apprendre à partir d’images et de vidéos réelles d’agressions sexuelles sur des mineurs. Et c’est peut-être la partie la plus sombre du problème. Comment les grandes firmes de l’IA ont-elles pu donner un accès sans contrôle à leurs programmes d’entrainement à des groupes de cybercriminels qui se sont lancés dans une production quasi industrielle des logiciels d’hyper-trucages pédopornographiques ?
Pour toutes ces raisons, l’Internet watch foundation demande instamment aux députés britanniques de réviser la loi sur la protection des mineurs. Le sujet est aussi à l’ordre du jour de la Commission européenne qui a lancé, ce 15 octobre 2024, un appel d’offres doté de 4 millions d’euros et ouvert jusqu’au 18 novembre prochain pour élaborer dans un premier temps une « solution à court terme » de vérification de l’âge « préservant la vie privée » des internautes de l’UE.
À lire aussiLes diplomates de l'ONU piégés par des deepfakes... pour la bonne cause
La Suisse, le Comité de la Croix-Rouge internationale (CICR) et l'École polytechnique de Lausanne ont imaginé l'exposition Deepfake and You, petit labyrinthe installé en ce moment à l’entrée des Nations unies à New York et dans laquelle les diplomates se font piéger. Le but est de mieux leur faire comprendre l'importance d'encadrer l'intelligence artificielle (IA) qui permet de construire ces deepfakes, sinon, ce sujet reste trop abstrait pour beaucoup. Alors, comment leur fait-on comprendre ?
Le long du labyrinthe, on comprend que la réalité altérée ne date pas d'aujourd'hui. Des peintres de la Renaissance le faisaient déjà, ainsi que des des photographes du début du siècle. Mais on se rend bien compte que tout cela prenait du temps, beaucoup de temps à trafiquer. Alors qu'en quelques minutes seulement, une webcam et l'intelligence artificielle auront capturé votre visage, et à la fin du labyrinthe, vous vous retrouvez face à vous-même… mais c'est une autre voix qui sort de votre bouche !
Une voix qui explique que cette vidéo manipulée peut être alors utilisée pour demander une rançon à votre famille, ou vous faire tenir des propos qui ne sont pas les vôtres sur les réseaux par exemple. Une expérience immersive nécessaire pour bien comprendre le deepfake, comme l'explique Gaël Hürlimann, de l'école polytechnique de Lausanne :
« Ça sert à ce que vous compreniez vraiment ce que sont les deepfakes, Parce que même si vous en avez entendu parler à la radio ou à la télé, là, c'est vous qui êtes victime. L'idée, c'est qu'ils soient conscients de ce qu'on peut faire avec des moyens techniques relativement légers. Ici, nous n'avons que des ordinateurs qui ne sont pas connectés à internet. Imaginez ce que vous faites avec 100 fois cette puissance de calcul, un peu plus de temps, des vidéos prises dans de meilleures conditions... Vous pouvez faire un deepfake quasiment indétectable à l'œil nu. »
À lire aussiDeepfake et faux média, Kamala Harris ciblée par une opération de désinformation
Philippe Stoll, est techplomate au CICR, c'est-à-dire un diplomate spécialisé dans les nouvelles technologies. Il s'agit d'un nouveau métier : on compte une quarantaine d'ambassadeurs « techplomates ». Cela dit bien l'importance que la technologie a sur la géopolitique. Sensibiliser les diplomates classiques est primordial, parce qu'ils ont un pouvoir de décision dans les négociations. Or, il faut qu'ils comprennent bien les enjeux. Pour cela, tous les moyens sont bons, y compris cette exposition immersive, comme l'explique Philippe Stoll :
« Un bombardement, la torture, même si on ne l'a pas vécu, on le ressent. Quand on parle de cybersécurité, de data-protection, même de deepfake, ça reste abstrait. L'idée de cette exposition est de la rendre la plus tangible possible pour qu'il y ait potentiellement une action. »
Pourtant, la technologie évolue plus vite que la loi. Ne serait-il pas trop tard pour sensibiliser ces négociateurs ? Les standards de l'intelligence artificielle ou autres traités sur l'IA sont seulement en discussion. Mais pour Philippe Stoll, il n'est pas trop tard pour faire pression : « Si on ne le fait pas, personne ne le fera. Donc c'est de notre responsabilité d'essayer d'amener les sujets dont on voit les conséquences sur le terrain au niveau multilatéral, c'est important. »
Le chemin sera compliqué, car très politique. Pour rappel, l'ONU a proposé d'établir sous son égide une grande agence pour réguler l'IA, un peu à l'image de ce qu'est l'AIEA pour l'énergie atomique. Pour l'instant, les grandes puissances, Russie, États-Unis et Chine en tête, ne veulent pas en entendre parler.
À lire aussiLe deep fake, outil de désinformation sur les réseaux sociaux
Quinze organisations non gouvernementales ont annoncé ce mercredi 16 octobre avoir saisi le Conseil d’État français concernant un algorithme de notation utilisé par la Caisse nationale des allocations familiales. Selon la CAF, ce programme IA permet de lutter contre les fraudes sociales en attribuant un score de suspicion aux allocataires. Les associations dénoncent un dispositif qui cible principalement les plus précaires, rappelant que le recours à ces systèmes de notation est illégal dans l’UE.
L’affaire de l’algorithme de notation utilisé par la Caisse nationale des allocations familiales en France a eu au moins le mérite de mettre en lumière la présence de ces programmes IA dans de nombreux services sociaux européens.
Plusieurs gouvernements des pays de l’UE invoquent diverses raisons pour les avoir mis en place. Certains justifient leur usage « pour détecter les fraudes », d’autres « pour assurer une meilleure distribution des ressources », ou encore « pour améliorer l’efficacité des systèmes administratifs ». Ces algorithmes de notation ont déjà été et sont toujours utilisés aux Pays-Bas, au Danemark ou encore en Serbie. L’Allemagne cherche aussi à les déployer dans ses administrations, afin de lutter contre la fraude aux prestations sociales.
En janvier 2021, le gouvernement néerlandais avait même été contraint de démissionner après que ces algorithmes de notation ont accusé, à tort, des milliers de parents de fraudes. Au Danemark, le programme IA de l’administration des prestations publiques, qui s’est spécialisé dans le profilage ethnique des allocataires, leur attribue une mauvaise note selon leur nationalité.
« Le fonctionnement de ces dispositifs algorithmiques qui stigmatisent systématiquement des groupes de personnes déjà marginalisés est totalement opaque », dénonce Katia Roux, chargée de plaidoyer Libertés chez Amnesty International France : « De nombreuses ONG comme Amnesty International constatent que les États recourent de plus en plus aux technologies numériques dans le cadre de leur système de protection sociale, et notamment en Europe. Bien souvent, l’objectif affiché par les concepteurs de ces systèmes et les responsables des services publics qui les utilisent est généralement d’aider les gouvernements à mieux cibler les personnes ayant besoin d’aide sociale. Toutefois, il est très difficile d’avoir des informations détaillées sur le fonctionnement de ces algorithmes et le terme de “boîte noire” est tout à fait adapté pour les qualifier. La plupart du temps, ces technologies sont présentées comme étant des outils neutres, impartiaux, objectifs, efficaces, alors même qu’ils sont porteurs de discrimination qui reflètent inévitablement les préjugés et la vision du monde des personnes qui les ont conçus ».
Dans son arrêt de décembre 2023, la Cour de justice de l’Union européenne avait statué que tout type de notation automatisée était interdit en Europe, particulièrement quand un algorithme porte un préjudice de façon spécifique. Par ailleurs, le déploiement des systèmes IA, qui établissent un score de suspicion, contreviendrait à l’article 22 du RGPD. Le règlement de l’UE sur la protection des données proscrit également l’automatisation d’une prise de décision concernant un individu, qui serait basée sur le traitement de ses données personnelles, sans avoir obtenu son consentement explicite.
À lire aussiIntelligence artificielle: de quoi parle-t-on vraiment?
L’Union européenne franchit une nouvelle étape dans sa stratégie de cybersécurité avec l’entrée en vigueur, ce jeudi 17 octobre, d’une directive intitulée NIS 2. Ce texte, qui doit être transposé en droit interne dans chaque État membre, impose aux entreprises privées et aux organismes gouvernementaux de renforcer leur cybersécurité, sous peine de sanctions financières.
Cyberattaque par-ci, rançongiciel par là, l’espace numérique européen est assailli de toutes parts. Les groupes mafieux s’en prennent aux entreprises, aux particuliers, aux collectivités locales et établissements de santé. Et les attaques dites étatiques orchestrées depuis l’étranger, notamment par Moscou en raison de la guerre en Ukraine, se multiplient. L’Union européenne a donc demandé aux 27 pays membres de renforcer le niveau de cybersécurité des systèmes économique et administratif en ligne.
Dans le détail, les pays européens sont invités à adopter une démarche proactive en corrigeant, par exemple, en amont, les failles de sécurité qui permettraient aux pirates informatiques de s’introduire dans leur système d’information. Les particuliers seront indirectement les bénéficiaires de cette directive, nous précise Jérôme Vosgien, expert cybersécurité chez Logpoint. Cet éditeur européen de solutions de sécurité propose aux organismes publics comme privés des dispositifs d’analyses pour détecter les menaces informatiques avant qu’elles ne détruisent l’ensemble des systèmes d’information :
« En étant un acteur de la cyberdéfense, de la cybersécurité, des entreprises et des organisations, même du monde militaire, on constate qu’il y a une augmentation du périmètre du spectre des organisations qui sont concernées par NIS 2. C’est plutôt une bonne nouvelle ! J’ai visité récemment une mairie qui estimait ne pas être concernée par la nouvelle directive. Cette mairie de taille assez importante qui a la charge du traitement des eaux usées entre évidemment dans le cadre des règlementations de NIS 2. Les mesures de cyberdéfense de la directive européenne concernent les secteurs de l’énergie, le traitement des eaux usées et en définitive l’ensemble des structures vitales et stratégiques d’un pays dans l’UE. Toutes les entités publiques ou privées qui sont principalement gérées par informatique entrent dans ce cadre. Car en cas d’attaques réussies par des pirates informatiques, elles peuvent menacer la sûreté physique des citoyens. »
La directive s’applique à 18 secteurs clefs considérés comme stratégiques pour l’UE. Elle s’adresse, par exemple, aux fournisseurs de réseaux numériques, aux administrations publiques, aux collectivités territoriales, aux gestionnaires des systèmes de transports, du traitement des déchets ou de l’eau potable. Mais aussi aux secteurs de l’énergie, aux organismes bancaires ou encore aux établissements de santé qui sont régulièrement et constamment piratés.
Pour s’assurer de l’application effective de ces mesures, NIS 2 prévoit un cortège de sanctions pour les retardataires qui ne mettraient pas en place ces mesures. Notamment, des amendes qui peuvent atteindre jusqu’à 10 millions d’euros ou 2 % du chiffre d’affaires mondial d’une entreprise. Toutefois, pas de panique, pour se conformer à la loi qui entre en vigueur ce jeudi 17 octobre, la date butoir annoncée par Bruxelles ne concerne pour l’instant que le texte règlementaire qui doit être transposé dans le droit national des pays de l’UE. Et non sa mise en œuvre effective qui, elle, est fixée au plus tard à décembre 2027. Par ailleurs, force est de constater que les décideurs politiques dans les pays européens sont à la traîne pour mettre en place la nouvelle directive. Seuls deux États membres sur les 27, nommément, la Belgique et la Croatie, l’ont déjà intégré dans leur législation.
Your feedback is valuable to us. Should you encounter any bugs, glitches, lack of functionality or other problems, please email us on [email protected] or join Moon.FM Telegram Group where you can talk directly to the dev team who are happy to answer any queries.