Découvrir les enjeux de la technologie en moins de 3 minutes. Un podcast à destination des professionnels à la recherche d'informations pratiques et concrètes pour mieux comprendre le marché de l'IT et des telco et son influence sur leurs métiers.
Découvrons aujourd'hui le futur de l'hospitalité avec une étude du BCG qui annonce la fin de l'hôtellerie telle que nous la connaissons.
Oubliez les recherches interminables sur les plateformes de réservation, l'ère de l'hôtel AI-first, ou littéralement piloté par l'intelligence artificielle, est à nos portes.
L'effondrement des agences de voyage en ligne
Le premier pilier de cette révolution, c'est l'effondrement du modèle des agences de voyage en ligne, les fameuses OTA.
Jusqu'ici, ces plateformes régnaient en maîtres, prélevant des commissions allant de 15 à 30 %. Mais le vent tourne.
Selon le BCG, 37 % des voyageurs utilisent déjà des IA pour planifier leurs trajets.
Et demain, ce ne sont plus les humains qui chercheront des chambres, mais leurs assistants numériques personnels.
Pour les hôteliers, l'enjeu business est vital. Il ne s'agit plus de payer pour être en tête de liste sur un site, mais d'être "lisible" et pertinent pour les algorithmes d'IA qui composeront des itinéraires sur mesure en une fraction de seconde.
Ceux qui réussiront cette transition vers la réservation directe pilotée par l'IA pourront capter une part massive des 262 milliards de dollars que représente ce marché.
L'IA transforme radicalement la rentabilité
Ensuite, parlons de l'avantage de coût, car c'est là que l'IA transforme radicalement la rentabilité.
Dans un secteur où la main-d'œuvre pèse pour la moitié des marges brutes, l'automatisation devient une question de survie, surtout face à une hausse des salaires de plus de 11 % en un an.
En synchronisant les plannings des employés et les préférences clients en temps réel, certains établissements ont déjà réduit le temps de préparation des chambres de 20 %.
Plus impressionnant encore, l'IA s'attaque au gaspillage alimentaire, avec des réductions de déchets de 50 % en moins d'un an dans certains complexes de luxe.
C'est un changement de paradigme : l'IA gère le back-office et la maintenance prédictive, permettant au personnel de se concentrer sur l'interaction humaine.
Du mieux sur la conception des plans d'hôtels
Enfin, le troisième point de rupture concerne l'immobilier lui-même.
Traditionnellement, construire un hôtel est un processus lent, rigide et coûteux. Et l'IA générative est en train de faire voler ce modèle en éclats.
Là où il fallait seize semaines pour étudier seulement deux ou trois concepts architecturaux, les outils de conception générative produisent désormais des milliers de plans optimisés en quelques jours.
Couplée à la construction modulaire et à l'impression 3D, cette technologie permet de passer du concept à l'ouverture en quelques mois au lieu de plusieurs années, assure le BCG.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons au cœur du défi numéro un de la cybersécurité moderne : le risque humain.
Car ne vous y trompez pas, si les pare-feu et les algorithmes de détection sont de plus en plus robustes, les attaquants, eux, ont trouvé une parade bien plus efficace : pirater l'utilisateur plutôt que la machine.
L'effondrement du paradigme technocentré
Premier point de rupture, l'effondrement du paradigme technocentré.
Pendant des années, la réponse à toute menace a été l'empilement de solutions logicielles affirme le rapport The State of Human Risk 2026 de la société Mimecast.
Pourtant, aujourd'hui, la majorité des incidents majeurs ne provient pas d'une faille de code, mais d'un abus d'identifiants ou d'une erreur de manipulation de la part des utilisateurs.
Et les cybercriminels exploitent systématiquement ces faiblesses.
On sécurise des forteresses vides
Mais le problème n'est pas que l'humain est faible. En fait nos systèmes de protection n'ont pas été pensés pour la manière dont les employés travaillent réellement en 2026.
En clair, on sécurise des forteresses vides alors que les employés sont déjà dehors, exposés à un hameçonnage ultra-personnalisé par l'IA.
Ensuite, il faut regarder la réalité mathématique de ce risque, et elle est frappante.
Saviez-vous que seulement 8 % des collaborateurs sont à l'origine de 80 % des incidents de sécurité ?
En clair, nous faisons face à une concentration extrême du danger.
Et attention, on ne parle pas ici de sabotage interne ou de malveillance. Il s'agit la plupart du temps d'employés bien intentionnés, mais victimes de la fatigue, de la distraction ou de tactiques d'ingénierie sociale tellement sophistiquées qu'elles deviennent indétectables.
Et l'impact financier, lui, n'a rien de virtuel. Un seul incident lié à une menace interne coûte en moyenne 13 millions de dollars.
La place de la France
Enfin, comment se situe la France dans ce paysage mouvant ?
Le marché français se distingue par une posture de "pragmatique prudent" selon l'étude.
Les décideurs français ne cèdent pas à la panique mais adoptent une approche méthodique. Les DSI français ont compris que l'IA sert avant tout aux attaquants pour créer des leurres parfaits.
Pour y répondre, la France mise sur deux leviers.
D'abord, une gouvernance de fer héritée des secteurs très réglementés comme la banque, qui tire l'ensemble du marché vers le haut.
Ensuite, une conviction profonde que la technologie seule est aveugle sans formation.
En France, l'éducation des utilisateurs est donc perçue comme un investissement de sécurité prioritaire.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on démonte une idée reçue qui a la vie dure dans les couloirs des DSI.
Non, les agents d'IA ne vont pas tuer les bases de données vectorielles. C'est même tout le contraire.
On pensait que l'augmentation massive de la taille des fenêtres de contexte des grands modèles de langage rendrait la recherche vectorielle obsolète, mais la réalité du terrain montre que les agents ont besoin de ces infrastructures plus que jamais.
Du RAG aux agents d'IA
D'abord, il faut comprendre que le passage du RAG classique, la génération augmentée par récupération, vers les agents autonomes change totalement d'échelle.
Là où un humain pose quelques questions par minute, un agent peut générer des centaines, voire des milliers de requêtes par seconde pour collecter les informations nécessaires à une seule prise de décision.
Cette intensité transforme la recherche vectorielle, qui n'est plus un simple accessoire de stockage mais devient une véritable couche d'infrastructure critique.
C'est ce que confirme Andre Zayarni, le patron de Qdrant, qui vient de lever 50 millions de dollars. Pour lui, la mémoire des agents ne remplace pas la recherche, elle s'appuie dessus.
Et si cette couche de récupération n'est pas taillée pour la charge, c'est toute la qualité de la décision de l'IA qui s'effondre.
Vers les moteurs spécialisés
Ensuite, parlons de la spécialisation technique.
Aujourd'hui, presque toutes les bases de données du marché, de Postgres aux solutions des hyperscalers, supportent le format vectoriel.
Mais attention, supporter un format ne signifie pas savoir gérer la performance à grande échelle.
Et pour les entreprises qui manipulent des millions de documents, les solutions généralistes montrent vite leurs limites.
On observe en effet trois signaux d'alerte : une dégradation de la pertinence quand les données changent trop vite, une latence qui explose lors des appels d'outils en parallèle par l'agent, et des coûts d'infrastructure qui s'envolent.
C'est là que des moteurs spécialisés, souvent écrits en Rust, reprennent l'avantage en offrant une précision que les fenêtres de contexte ne peuvent pas garantir seules.
Dès que la qualité vient à manquer, il faut migrer
Enfin, l'enjeu stratégique pour vos équipes est de savoir quand basculer vers une infrastructure dédiée.
Commencez donc avec ce que vous avez déjà dans votre pile technologique. Mais dès que la qualité vient à manquer, il faut migrer.
En clair, l'agent n'est que l'interface. C'est la base vectorielle qui est la "vérité du terrain".
En résumé, les bases vectorielles ne sont pas un artefact de l'ère précédente, elles sont le moteur de l'autonomie des agents de demain.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans les entrailles de l'infrastructure de Netflix. Le géant du streaming vient de lever le voile sur un mystère technique : pourquoi vos conteneurs ralentissent-ils parfois sans raison ?
La réponse ne se trouve pas dans votre code, mais bien plus bas, au croisement du noyau Linux et de l'architecture de vos processeurs.
Le mur invisible du noyau Linux
Et le premier point, c'est le mur invisible du noyau Linux.
Les ingénieurs de Netflix ont en effet remarqué que lors de pics de charge, la création de conteneurs se figeait totalement pendant plusieurs secondes.
En creusant, ils ont découvert un goulot d'étranglement au niveau du "Global Mount Lock" du système de fichiers virtuel de Linux.
Concrètement, chaque conteneur nécessite des dizaines de montages de couches d'images. Et lors d'un déploiement massif, le système peut subir plus de 20 000 appels système simultanés.
Et comme ils doivent tous passer par un seul et même verrou de sécurité dans le noyau, tout le serveur s'arrête net, un peu comme une foule immense essayant de passer par une seule porte battante.
Tous les processeurs ne sont pas égaux
Mais le second pilier, c'est l'impact crucial du matériel.
Car l'étude de Netflix révèle que tous les processeurs ne sont pas égaux face à ce stress.
Sur les anciennes instances, la gestion de la mémoire entre les processeurs, ce qu'on appelle le NUMA, aggrave massivement la latence.
À l'inverse, les puces de nouvelle génération, comme les processeurs AMD et Intel les plus récents sur AWS, s'en sortent bien mieux grâce à leurs architectures de cache distribué.
Et plus surprenant encore, désactiver l'Hyper-Threading a permis d'améliorer la latence de 30 %.
Bref, pour des charges de travail intensives en conteneurs, le choix de l'instance cloud ne se résume pas au nombre de cœurs, mais à la topologie réelle du silicium.
Repenser la structure même des images de conteneurs
Enfin, quelles solutions pour vos équipes ?
La solution la plus efficace a été pour Netflix de repenser la structure même des images de conteneurs. En regroupant les montages de couches sous un parent commun, Netflix a fait passer la charge de travail d'un mode linéaire à un mode constant.
Peu importe le nombre de couches de votre application, l'impact sur le noyau reste donc minimal. En combinant cette optimisation logicielle avec un routage des tâches vers les processeurs les plus robustes, le groupe a retrouvé de la fluidité.
C'est la preuve qu'à grande échelle, la performance ne se gagne plus seulement dans l'application, mais dans une parfaite maîtrise de toute la pile technologique.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Google vient de franchir une étape historique pour sa division Cloud en bouclant le rachat de Wiz pour 32 milliards de dollars.
Ce n'est pas seulement une acquisition de plus, c'est une refonte totale de la stratégie de cybersécurité du géant de Mountain View qui entend désormais s'imposer comme le gardien du temple de l'intelligence artificielle.
Le fameux "security graph" de Wiz
Premier point, Google Cloud et Wiz affichent une ambition claire : passer d'une sécurité réactive à une protection "de bout en bout" pensée pour l'ère de l'IA.
Concrètement, l'idée est de fusionner le renseignement sur les menaces de Google avec le fameux "security graph" de Wiz.
Ce dernier permet de cartographier l'intégralité des ressources cloud, du code source jusqu'à l'exécution en temps réel.
Pour les DSI, la promesse est forte : disposer d'une plateforme unique intégrant les opérations de sécurité, la détection des menaces et la protection spécifique des modèles d'IA.
Une approche strictement multi-cloud et multi-modèles
Deuxième axe stratégique, et c'est sans doute le plus crucial pour le marché, Google et Wiz maintiennent une approche strictement multi-cloud et multi-modèles.
C’était la grande crainte des observateurs, mais la réponse des dirigeants est sans équivoque : Wiz restera agnostique. La plateforme continuera de sécuriser les environnements des clients, qu'ils tournent sur AWS, Azure ou Google Cloud.
De la même manière, si Gemini sera au cœur de l'intégration, la plateforme ne se fermera pas aux autres modèles de langage. Dans un monde hybride où les entreprises refusent de mettre tous leurs œufs dans le même panier, Google joue la carte de l'ouverture, quel que soit l'hébergeur ou l'IA utilisée.
L'arrivée des agents d'IA
Enfin, l'apport de Google doit permettre à Wiz de passer à la vitesse supérieure en matière d'automatisation grâce aux agents d'IA.
Aujourd'hui, le temps entre la découverte d'une vulnérabilité et son exploitation par des acteurs malveillants s'est drastiquement réduit.
Pour contrer cette accélération, l'intégration prévoit de doper les trois agents IA de Wiz dédiés aux tests d'intrusion, à l'investigation et à la remédiation.
L'objectif final est d'aboutir à des flux de travail entièrement "agentiques" où la sécurité s'auto-corrige presque en temps réel.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Le stockage pour les pros vient de vivre un véritable changement de dimension ces derniers mois.
Selon les derniers chiffres de TrendForce pour le quatrième trimestre 2025, les revenus des cinq plus grands fabricants mondiaux de disques SSD pour entreprises ont bondi de plus de 50 %.
On ne parle plus ici d'une simple croissance de marché, mais d'une explosion portée par la maturité de l'intelligence artificielle générative et une mutation profonde des infrastructures de données.
Le basculement massif de l'IA vers la phase d'inférence
Le premier moteur de cette envolée, c'est le basculement massif de l'IA vers la phase d'inférence.
Si 2024 et le début de 2025 étaient consacrés à l'entraînement des modèles d'IA, nous sommes désormais dans l'ère de l'exécution.
Or, l'inférence demande une lecture de données ultra-rapide et constante. Conséquence directe, les clients délaissent les disques durs mécaniques, dont les stocks s'amenuisent, pour passer au tout SSD.
C'est le groupe SK qui tire le mieux son épingle du jeu avec une croissance record de 75 % sur le trimestre. Leur stratégie est claire : miser sur les SSD de très haute capacité basés sur la technologie QLC. Ces disques permettent de stocker des volumes massifs de données tout en offrant la réactivité nécessaire aux serveurs d'IA modernes.
La sécurisation des approvisionnements
Le deuxième point clé de cette mutation réside dans la verticalité et la sécurisation des approvisionnements.
Samsung conserve sa place de leader mondial grâce à un argument de poids en période de tensions logistiques : le contrôle total de sa chaîne de valeur.
En produisant à la fois ses propres puces de mémoire vive DRAM et ses puces de stockage NAND Flash, le géant coréen rassure les DSI qui craignent des ruptures de stock.
Cette intégration verticale devient un avantage concurrentiel critique alors que les infrastructures deviennent de plus en plus complexes.
L'innovation se déplace désormais sur les SSD à haute endurance
Enfin, il faut regarder vers l'avenir proche car le paysage technologique va encore bouger.
Micron et Kioxia l'ont bien compris en délaissant le marché grand public pour se concentrer sur les marges élevées du secteur professionnel.
L'innovation se déplace désormais sur des segments de niche mais stratégiques, comme les SSD à haute endurance capables de supporter des cycles d'écriture intensifs pour les opérations de mise en cache.
Pour les décideurs, l'enjeu de 2026 ne sera pas seulement de trouver du volume de stockage, mais de choisir des solutions spécifiquement optimisées pour les charges de travail de l'IA, capables d'allier vitesse de transfert et stabilité sur le long terme.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Et si le succès planétaire de Pokémon Go n'était pas seulement une affaire de chasse aux monstres, mais le fondement très discret d'une infrastructure pour la robotique autonome ?
C'est le pari de Niantic Spatial, qui transforme des milliards de captures d'images en un système de géolocalisation d'une précision chirurgicale.
Une base de données de 30 milliards d'images de paysages urbains
D'abord, il faut comprendre que Niantic possède un actif unique au monde : une base de données de 30 milliards d'images de paysages urbains, capturées sous tous les angles par des centaines de millions de joueurs depuis 2016.
Contrairement aux voitures Google Street View qui restent sur la chaussée, les joueurs de Pokémon Go ont documenté les trottoirs, les parcs et les recoins piétons.
En exploitant ces données crowdsourcées, Niantic a entraîné un "modèle de monde" capable de situer un objet avec une marge d'erreur de seulement quelques centimètres.
C'est ce qu'on appelle le positionnement visuel, une technologie qui s'affranchit des limites physiques de la cartographie traditionnelle.
Une réponse concrète au "canyon urbain"
Ensuite, ce modèle apporte une réponse concrète au cauchemar des robots de livraison, à savoir le "canyon urbain".
Car en ville, le signal GPS est notoirement instable. Entre les gratte-ciels et les tunnels, les ondes rebondissent, provoquant des erreurs de positionnement de plusieurs dizaines de mètres.
Pour un robot livreur de la startup Coco Robotics, qui vient de signer un partenariat exclusif avec Niantic, une telle dérive signifie finir sur la mauvaise rue ou bloquer le passage des piétons.
En utilisant ses caméras pour comparer ce qu'il voit avec le modèle de Niantic, le robot peut désormais naviguer sans GPS avec une fiabilité totale, garantissant que votre pizza arrive exactement au bon pas de porte.
L'ère des cartes pour humains touche à sa fin
Enfin, cette collaboration marque un tournant stratégique dans la conception même des cartes numériques.
Pour les experts de Niantic, l'ère des cartes pour humains touche à sa fin au profit de cartes pour machines.
On ne parle plus simplement de coordonnées géographiques, mais de "descriptions sémantiques". Le but est de créer un jumeau numérique vivant du monde réel, où chaque objet est étiqueté avec ses propriétés physiques pour aider l'intelligence artificielle à acquérir ce "sens commun" de l'espace qui lui manque encore.
C'est l'étape indispensable pour que les robots s'intègrent de manière fluide et non disruptive dans notre environnement quotidien.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Plongeons dans la sécurité du ciel avec une annonce majeure d'Orange Business.
L'opérateur lance une offre nommée Orange Drone Guardian.
C'est une solution de lutte anti-drones qui change radicalement la donne pour les sites sensibles.
La lutte anti-drones "as a Service"
D’abord, il faut comprendre qu'Orange ne se contente pas de vendre des capteurs de détection des drones, mais propose une véritable rupture de modèle avec la lutte anti-drones "as a Service".
Concrètement, pour les Opérateurs d’Importance Vitale, les ports ou les aéroports, Orange Drone Guardian repose sur un abonnement qui offre une détection, une identification et une classification des drones intrus en temps réel.
Cette agilité permet aux organisations de se concentrer sur l'alerte opérationnelle plutôt que sur la gestion technique des radars ou des caméras. Et de passer en coût Opex un coût Capex souvent très conséquent, puisque la maintenance de ces équipements est très onéreux.
Utilisation inédite du patrimoine d'infrastructure d'Orange
Ensuite, la force de frappe de cette offre réside dans l'utilisation inédite du patrimoine d'infrastructure d'Orange.
L’opérateur s'appuie sur les 19 700 sites de Totem, sa TowerCo, pour transformer ses points hauts en supports pour les capteurs de détection de son système anti drone.
Cette capillarité territoriale est un avantage compétitif immense. Elle permet de surveiller des zones urbaines denses ou des sites industriels, et ce sans que le client n'ait à ériger ses propres pylônes ou son propre système de surveillance.
Toutes ces données sont ensuite acheminées vers Cloud Avenue, la plateforme SecNumCloud de l'opérateur.
L'idée est donc de proposer une chaîne de confiance 100% souveraine, de l'antenne au stockage, ce qui est un argument de poids pour les institutions publiques et les OIV.
Simuler des scénarios d'attaque
Enfin, Orange Drone Guardian se veut une plateforme d'IA ouverte et tournée vers l'avenir.
L'architecture est dite "ouverte" parce quelle peut intégrer des jumeaux numériques pour simuler des scénarios d'attaque, ou encore les futures capacités de radio sensing offertes par la 5G.
Cela signifie qu'à terme, le réseau mobile d'Orange lui-même pourrait devenir un capteur géant capable de repérer des objets volants.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons au cœur d'une révolution pour la santé publique mondiale.
Google vient de dévoiler comment son outil Google Earth AI, dopé aux nouveaux modèles de fondation, transforme la gestion des crises sanitaires en passant d'une logique de réaction à une stratégie de prédiction.
Modéliser la dynamique des populations
Le premier pilier de cette avancée repose sur la capacité de l'IA à modéliser la dynamique des populations à une échelle inédite.
Grâce au Population Dynamics Foundation Model, ou PDFM, Google ne se contente plus de fournir des cartes satellites. L'outil analyse désormais comment les populations interagissent avec leur environnement physique, qu'il s'agisse de la qualité de l'air, de la météo ou des infrastructures de transport.
Concrètement, au Malawi, des chercheurs utilisent ces données pour prédire le taux d'utilisation des hôpitaux.
Pour un décideur en santé, cela signifie pouvoir anticiper les signes avant-coureurs d'une épidémie et allouer les ressources humaines et matérielles là où la pression va monter. Et ce avant même que les patients ne se présentent en nombre.
Maladies aux facteurs climatiques et géographiques
Mais l'impact est encore plus frappant lorsqu'on s'attaque aux maladies dont la propagation dépend de facteurs climatiques et géographiques.
En couplant les modèles de séries temporelles de Google avec les données météo et la dynamique des populations, la précision des prévisions pour des maladies comme le choléra ou la dengue fait un bond de géant.
En Afrique, une collaboration avec l'OMS a permis d'améliorer la précision des prévisions de cas de choléra de 35 % par rapport aux modèles standards.
Et au Brésil, les autorités disposent désormais d'une visibilité à six mois sur les pics de dengue. Cette fenêtre de tir permet de déployer des stocks de médicaments ou des campagnes de prévention de manière proactive.
Estimations de couverture vaccinale à l'échelle du code postal
Enfin, cette nouvelle sorte d'IA s'attaque à un défi de précision chirurgicale.
Aux États-Unis, des chercheurs utilisent Earth AI pour produire des estimations de couverture vaccinale à l'échelle du code postal, et ce avec la promesse de ne pas compromettre la vie privée.
Cette « super-résolution » des données permet d'identifier des poches de sous-vaccination invisibles dans les statistiques globales, mais qui correspondent pourtant aux récents foyers de rougeole.
Pour le secteur de la santé, le message est clair : l'IA géographique n'est plus un outil de visualisation. Il est en passe de devenir un nouveau système nerveux de la prévention mondiale.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Imaginez pouvoir séjourner dans les plus grands palaces madrilènes pour le prix d'un bonbon.
C'est l'exploit, certes illégal, réalisé par un hacker de 20 ans en Espagne.
Mais derrière l'anecdote du séjour à un centime d'euro se cache une faille critique dans les paiements en ligne.
Forcer le système à accepter un montant dérisoire
D'abord, il faut comprendre le mécanisme de cette intrusion. Le hacker ne s'est pas contenté de voler des numéros de carte bancaire, il a directement manipulé le flux de données entre le site de réservation et une plateforme de paiement internationale de premier plan.
Au moment de finaliser sa transaction, il modifiait le processus de validation pour forcer le système à accepter un montant dérisoire tout en renvoyant une confirmation d'achat apparemment légitime.
Concrètement, le système de l'hôtel recevait un feu vert officiel pour une réservation de plusieurs milliers d'euros, alors que le virement effectif n'était que d'un centime. C'est une attaque sophistiquée sur l'intégrité des données en transit qui montre que la simple présence d'un prestataire de paiement reconnu ne suffit pas à garantir la réalité de la somme versée.
Décalage temporel entre la validation du paiement et le règlement financier
Ensuite, cette affaire met en lumière une faille majeure. Il s'agit du décalage temporel entre la validation du paiement et le règlement financier.
Dans ce cas précis, l'escroquerie n'était détectée que plusieurs jours après le départ du client, au moment où la plateforme de paiement virait les fonds réels sur le compte de l'hôtel.
Ce "modus operandi", identifié pour la première fois par la police espagnole, exploite une confiance aveugle dans les notifications de succès transactionnel.
Le préjudice est ici de plus de 20 000 euros. Cela souligne l'urgence pour les DSI de mettre en place des systèmes de réconciliation financière en temps réel, capables de vérifier que le montant autorisé correspond strictement au montant facturé. Et ce avant de fournir la prestation.
La cybersécurité des plateformes de réservation tierces est le maillon faible de l'écosystème
Enfin, cet incident nous rappelle que la cybersécurité des plateformes de réservation tierces est le maillon faible de l'écosystème.
L'enquête a d'ailleurs démarré suite à la plainte d'une agence de voyages, et non de l'hôtel lui-même.
Pour les professionnels, le risque est double : financier, bien sûr, mais aussi réputationnel.
La réponse ne peut plus être uniquement technique, elle doit être procédurale, en intégrant des alertes automatiques sur les écarts de prix flagrants lors de la validation.
Car si le hacker de 20 ans a fini par être arrêté dans un palace de Madrid, il est la preuve même que la technologie ne dispense pas d'une surveillance humaine.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans le palmarès 2025 des véhicules volés. Si le nombre total de vols baisse de 9 %, la technologie a radicalement changé la donne : le vol physique disparaît au profit de méthodes électroniques sophistiquées.
Le chiffre est spectaculaire : en 2010, 80 % des vols de voitures se faisaient avec effraction. En 2025, cette proportion s’est inversée : dans 70 % des cas, le véhicule est dérobé sans aucune trace visible.
"Mouse jacking"
Cette transformation technologique, souvent appelée "mouse jacking", permet aux malfaiteurs de pirater les systèmes de sécurité électroniques en quelques secondes.
Les réseaux criminels investissent désormais entre 4 000 et 5 000 euros dans du matériel spécifique : brouilleurs de fréquence, boîtiers de démarrage modifiés ou même des enceintes connectées trafiquées pour intercepter les signaux des clés.
Le palmarès 2025 montre aussi que les voleurs se professionnalisent et s'internationalisent.
Les voitures électriques sont encore largement épargnées
Les modèles les plus ciblés, comme le Toyota RAV4 ou la Hyundai Tucson IV, sont choisis pour leur forte valeur de revente sur les marchés étrangers. À l'inverse, les voitures électriques sont encore largement épargnées car les infrastructures de recharge manquent dans les pays où sont exportés les véhicules volés. Il s'agit surtout des pays d’Afrique du Nord, d’Afrique de l’Ouest, d’Europe de l’Est ou du Moyen-Orient précise la société Coyote.
Cependant, l'hyper-connectivité des modèles récents crée de nouvelles failles. Les experts alertent sur le détournement d'applications mobiles et l'exploitation de données circulant sur le web pour ouvrir et démarrer des voitures haut de gamme à distance.
Le vol de véhicule devient ainsi une activité de cybercriminalité à part entière.
Des mesures tech de protection
Face à cette "techno-délinquance", la réponse des autorités et des assureurs est elle aussi technologique. Le groupement ARGOS a déployé "ARGOS Tracking", une plateforme qui transmet en temps réel les données de géolocalisation des véhicules volés aux forces de l’ordre.
En 2025, cette collaboration a permis de retrouver près de 40 % des voitures déclarées volées. Un tiers d'entre elles sont récupérées en moins d'une semaine.
Pour les gestionnaires de flotte, l'intégration de traceurs GPS et l'inscription aux fichiers de traçabilité numérique deviennent des piliers indispensables de la gestion des risques.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.