Découvrir les enjeux de la technologie en moins de 3 minutes. Un podcast à destination des professionnels à la recherche d'informations pratiques et concrètes pour mieux comprendre le marché de l'IT et des telco et son influence sur leurs métiers.
Et si votre smartphone n'était bientôt plus le centre de votre monde numérique ?
C’est le pari de Qualcomm qui vient de frapper un grand coup lors du Mobile World Congress 2026. Le fondeur a en effet dévoilé sa nouvelle puce Snapdragon Wear Elite, une architecture conçue pour propulser une nouvelle génération de terminaux portables, des lunettes connectées aux bagues intelligentes en passant par les pendentifs IA.
Un NPU dans les wearables !
L'idée est simple mais radicale. Il s'agit de transformer ces accessoires, autrefois de simples extensions, en acteurs autonomes et surpuissants de votre quotidien professionnel.
Pour y parvenir, Qualcomm intègre son NPU Hexagon capable de faire tourner des modèles d'IA de plusieurs milliards de paramètres directement en local, à la périphérie du réseau.
Concrètement, cette puce change la donne sur deux points critiques.
Performance et autonomie
D'une part, la performance brute et l'autonomie.
Comparée à la génération précédente, la Snapdragon Wear Elite affiche une puissance de calcul multipliée par cinq et une rapidité de lancement des applications sept fois supérieure.
Mais la véritable prouesse réside dans sa gestion énergétique.
Grâce au "Micro-Power Wi-Fi", la puce permet une synchronisation continue des données avec une consommation infime.
Qualcomm promet ainsi une autonomie étendue de 30 % sur une journée type. Et pour les plus pressés, la charge rapide permet de récupérer 50 % de batterie en seulement dix minutes.
C'est l'infrastructure indispensable pour que l'IA puisse enfin nous accompagner du matin au soir sans faillir.
Quel est l'impact pour l'utilisateur pro ?
Mais au-delà des chiffres, quel est l'impact pour l'utilisateur pro ?
C'est ici qu'entre en scène l'IA agentique. Cette puce permet à vos appareils de devenir "contextuels".
Imaginez par exemple vos lunettes ou votre montre capables d'analyser votre environnement pour anticiper vos besoins.
On parle ici de "life-logging" intelligent. Vous pourrez par exemple demander à votre bague où vous avez posé vos clés ou quel était le nom du café où vous avez déjeuné à Paris le mois dernier.
Plus impressionnant encore, ces terminaux pourront bientôt agir pour vous, comme commander un repas ou organiser un trajet par simple commande vocale naturelle, sans même sortir votre téléphone de votre poche.
Les prochains modèles de Samsung, Google ou Motorola, attendus plus tard cette année, seront les premiers laboratoires de cette émancipation du wearable.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans l'éternité numérique. Vous le savez, pour un DSI, l'archivage est une plaie. Les bandes magnétiques et les disques durs s'altèrent en quelques décennies, imposant des cycles de migration coûteux et risqués.
Mais Microsoft vient de franchir une étape décisive avec son Project Silica. La société de Redmond annonce avoir levé les derniers verrous technologiques et surtout économiques du stockage sur verre.
On ne parle plus seulement d'innovation de laboratoire, mais d'une viabilité industrielle capable de conserver vos données intactes pendant 10 000 ans.
Le passage du luxe à la grande distribution
Le premier point de rupture est le passage du luxe à la grande distribution.
Jusqu'ici, le Project Silica nécessitait du verre de quartz, ou silice fondue, un matériau pur, onéreux et complexe à produire.
Microsoft a réussi l'exploit de porter cette technologie sur le verre borosilicaté. C’est le verre que vous trouvez dans vos plats de cuisine ou vos vitres de four.
En utilisant un support aussi commun et peu coûteux, Microsoft élimine l’obstacle majeur de la disponibilité des matériaux à grande échelle. Pour les entreprises, cela signifie que le coût d’entrée du stockage éternel vient de chuter drastiquement.
Vitesse et efficacité opérationnelle
Le deuxième pilier de cette avancée concerne la vitesse et l'efficacité opérationnelle. Graver des données au laser femtoseconde à l'intérieur d'une plaque de verre est complexe.
Mais Microsoft a mis au point une technique d'écriture dite à pseudo-impulsion unique et un système multifaisceaux. Concrètement, on écrit désormais beaucoup plus vite et de manière parallèle.
Côté lecture, la simplification est tout aussi radicale. Là où il fallait auparavant quatre caméras pour décoder les signaux, une seule suffit désormais grâce à de nouveaux algorithmes d'apprentissage automatique. On réduit ainsi la taille des lecteurs, leur coût et leur maintenance.
Densité et résilience
Enfin, il faut parler de la densité et de la résilience.
Imaginez une plaque de verre de seulement deux millimètres d’épaisseur capable de stocker des centaines de couches de données.
Ce support est par nature insensible aux ondes électromagnétiques, à l’eau, à la chaleur et à la poussière.
Plus besoin de salles blanches climatisées à outrance ou de systèmes anti-incendie ultra-complexes qui peuvent parfois endommager les serveurs.
Les tests de vieillissement accéléré confirment la promesse de 100 siècles de stabilité. Pour l'archivage légal, médical ou patrimonial, c'est le "Write Once, Read Forever" qui devient enfin une réalité métier.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
L'autonomie totale des voitures promise par Elon Musk se heurte aujourd'hui à une réalité statistique brutale.
Les robotaxis de Tesla, en test au Texas, affichent un taux d'accident quatre fois supérieur à celui d'un conducteur humain moyen.
14 accidents ont été officiellement recensés
D'abord, il faut regarder les chiffres de l'expérimentation au-delà du marketing.
Depuis huit mois, une flotte de 43 Tesla opérant en mode autonome a parcouru près de 1,3 millions de kilomètres. Et sur cette très longue distance, 14 accidents ont été officiellement recensés.
En calculant la moyenne, cela représente une collision tous les 90 000 kilomètres.
Pour mettre ce chiffre en perspective, les propres données de Tesla indiquent qu'un conducteur humain moyen ne subit un incident mineur que tous les 368 000 kilomètres.
Concrètement, le système de conduite autonome de Tesla est actuellement quatre fois moins sûr que le plus banal des automobilistes texans.
La courbe de progression semble s'inverser
Ensuite, l'analyse de la nature des accidents révèle des lacunes technologiques inquiétantes pour un déploiement à grande échelle.
Les rapports d'accidents font état de crash avec cinq autres véhicules, cinq objets fixes, mais aussi un cycliste et un animal.
Plus troublant encore, la courbe de progression semble s'inverser. Alors que l'IA est censée s'améliorer par l'apprentissage continu, plus de 35 % des incidents ont été signalés sur les deux derniers mois de l'étude.
Ce constat pose une question fondamentale sur la fiabilité du système vision-only de Tesla, qui refuse d'utiliser les capteurs Lidar, jugés trop chers. Sans une amélioration radicale de ces scores, le passage d'une flotte expérimentale à un service commercial semble s'éloigner.
Sincérité ?
Enfin, c'est la transparence de Tesla qui est aujourd'hui remise en question.
Un incident survenu en juillet dernier, initialement déclaré comme un simple dommage matériel, n'a été requalifié en accident avec hospitalisation que cinq mois plus tard.
Ce délai dans la déclaration soulève des interrogations sur le reporting de l'entreprise et la sincérité des promesses de son dirigeant.
Surtout, la promesse d'une IA conductrice plus sûre que l'humain reste, pour l'instant, une ambition non vérifiée par les faits.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans les coulisses de la conduite autonome avec une percée majeure signée Waymo.
La filiale d'Alphabet vient de dévoiler son "Waymo World Model", une intelligence artificielle génératrice de mondes virtuels capable de simuler des situations de conduite avec un réalisme jamais atteint.
Ce n'est pas seulement une prouesse technique, c'est le moteur qui va permettre aux véhicules autonomes de franchir un cap critique en matière de sécurité et de passage à l'échelle.
Créer des environnements 3D photoréalistes et interactifs
Concrètement, ce modèle s'appuie sur Genie 3, l'IA de Google DeepMind, pour créer des environnements 3D photoréalistes et interactifs.
Le premier point de rupture, c'est la gestion des cas limites, ce que les ingénieurs appellent le "long-tail".
En s'appuyant sur une connaissance du monde apprise via des milliards de vidéos, le simulateur peut inventer des scénarios que la flotte de Waymo n'a jamais croisés dans la réalité, comme une rencontre fortuite avec un éléphant ou une tornade en pleine ville.
Là où les simulateurs classiques sont limités par les données collectées sur route, le World Model s'en affranchit donc pour préparer l'IA à l'imprévisible.
Contrôlabilité
Mais attention, il ne s'agit pas de simples vidéos passives. Le deuxième pilier de cette technologie, c'est la contrôlabilité.
Les ingénieurs peuvent modifier une scène par un prompt ou changer la trajectoire du véhicule pour tester des scénarios contrefactuels. Comme par exemple que se serait-il passé si la voiture avait accéléré au lieu de freiner ?
L'IA recalcule alors en temps réel non seulement l'image de la caméra, mais aussi les données LiDAR, indispensables pour la perception de la profondeur.
C'est cette fusion multi-capteurs qui garantit que ce qui est appris en simulation est directement applicable sur le bitume.
Waymo peut transformer n'importe quelle vidéo amateur en une simulation 3D
Enfin, la force de ce modèle réside dans sa capacité de conversion.
Waymo peut désormais transformer n'importe quelle vidéo amateur ou de dashcam en une simulation 3D.
Une rue enneigée filmée par un smartphone devient donc un terrain d'entraînement multi-modal.
Associé à une optimisation de l'inférence qui permet de simuler des séquences longues sans explosion des coûts de calcul, Waymo dispose ainsi d'un outil de validation scalable.
Au final, la course à l'autonomie ne se gagne plus seulement sur la route, mais dans la capacité à générer et maîtriser des milliards de kilomètres virtuels hyper-réalistes.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Le e-commerce français vient de franchir un cap historique en 2025 en frôlant la barre symbolique des 200 milliards d'euros de chiffre d'affaires selon la Fevad.
Une performance qui, derrière l'aspect spectaculaire des chiffres, révèle une mutation profonde des comportements d'achat et des stratégies de vente en ligne.
Le e-commerce se structure autour d'un paradoxe de consommation
Le premier point à retenir, c’est que le e-commerce ne se contente plus de croître, il se structure autour d'un paradoxe de consommation.
En 2025, nous avons réalisé 3,2 milliards de transactions, soit une hausse de 10 % en un an.
Mais attention, dans le même temps, le panier moyen a reculé de 3 % pour s'établir à 62 euros.
Concrètement, cela signifie que les Français achètent beaucoup plus souvent, mais pour des montants plus faibles.
Pour les retailers, l'enjeu stratégique n'est donc plus seulement de déclencher l'achat plaisir, mais de s'intégrer dans une routine de consommation quotidienne où la recherche du "petit prix" devient le moteur principal des arbitrages.
L'insolente santé du secteur des services
Le deuxième pilier de cette analyse, c'est l'insolente santé du secteur des services qui tire désormais la croissance globale.
Avec une progression de 9 %, les services pèsent aujourd'hui 120 milliards d'euros, éclipsant la vente de produits physiques qui plafonne à 4 % de croissance.
Ce sont les secteurs du voyage, des loisirs et surtout des transports qui boostent ces résultats.
La valeur ajoutée migre donc vers l'immatériel. Le e-commerce de 2025 est avant tout un e-commerce de l'expérience et de la mobilité, capable de résister à une conjoncture politique et économique pourtant instable.
Souveraineté numérique et compétition internationale
Enfin, il faut regarder ce que ces chiffres disent de la souveraineté numérique et de la compétition internationale.
Si le secteur progresse, il fait face à une pression sans précédent des plateformes asiatiques.
Comme le souligne la Fevad, cette solidité du marché français est un atout de souveraineté qu'il faut protéger par l'innovation.
Cependant, tout n'est pas rose. Le segment B2B, les ventes aux professionnels, affiche une stabilité qui trahit une forme de prudence, voire de gel des investissements face au manque de visibilité économique.
En clair, si le consommateur final est au rendez-vous, les entreprises, elles, attendent des signaux plus clairs avant de relancer leurs cycles d'achats numériques.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons au cœur d'un paradoxe qui secoue l'industrie technologique : alors que l'intelligence artificielle n'a jamais été aussi puissante, elle est en train de rendre vos ordinateurs et vos smartphones moins essentiels, tout en faisant exploser leur prix.
C'est le grand retour de l'informatique dite légère, c'est à dire du client léger.
La fin d'un règne de quarante ans
D'abord, il faut comprendre que l'IA marque la fin d'un règne de quarante ans, celui du client lourd.
Depuis les années 80, la puissance informatique était locale, tout se passait dans votre PC ou votre téléphone.
Mais avec l'IA générative, supportée par le cloud computing, tout bascule. L'interface se résume désormais à un simple champ de texte, une bulle de chat.
Que vous utilisiez un smartphone à 1500 euros ou un vieux terminal, le résultat est identique car 100 % du calcul se fait dans le cloud.
Pour le dire franchement, la valeur repose désormais dans la capacité de calcul distante. Et c'est une menace directe pour les éditeurs dont la valeur reposait jusqu'ici sur l'ergonomie locale des logiciels.
L'IA sur le serveur s'occupe de tout
Ensuite, cette révolution s'accélère avec l'arrivée des agents IA.
On ne parle plus ici de poser une question à un chatbot, mais d'accomplir une tâche complexe de bout en bout avec un agent d'IA.
Et dans ce monde d'agents, tout ce qui se passe entre votre requête et le résultat final devient invisible. L'IA sur le serveur s'occupe de tout.
Et pour être compétitive, l'IA locale aurait besoin de quantités phénoménales de mémoire vive, ce qui nous amène à notre troisième point, beaucoup plus concret pour vos budgets.
La mauvaise nouvelle, c'est l'éviction par la mémoire
Car la mauvaise nouvelle, c'est ce qu'on appelle l'éviction par la mémoire.
C'est très simple. L'appétit des centres de données pour la mémoire haute performance est tel qu'il crée une pénurie mondiale.
On apprend ainsi que Sony envisage de repousser la PlayStation 6 à 2029 et que des fabricants comme Oppo ou Xiaomi revoient leurs ambitions à la baisse pour 2026.
Par ailleurs, Samsung renégocie désormais ses contrats de mémoire chaque trimestre plutôt qu'une fois par an.
En clair, l'IA est en train de rendre vos ordinateurs et smartphones plus chers, tout en les rendant techniquement moins indispensables.
Pour un DSI, l'arbitrage va devenir crucial. Faut-il continuer à investir dans des flottes de machines surpuissantes alors que l'essentiel de la valeur métier migre vers des infrastructures partagées dans le cloud ?
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Imaginez une bulle de connectivité 5G capable de suivre un navire de guerre en pleine tempête.
Ce n'est plus de la science-fiction, c'est ce que viennent de valider les entreprises Ericsson et Leonardo, deuxième groupe industriel italien, et la marine italienne, en Méditerranée.
Le succès de ce test en conditions réelles marque un tournant pour les réseaux critiques.
Un réseau 5G Standalone autonome en pleine mer
D'abord, la prouesse technologique réside dans le déploiement d'un réseau 5G Standalone, totalement autonome en pleine mer.
Le système installé sur le navire amphibie San Giorgio est une solution de bout en bout totalement indépendante, assure la marine italienne.
Ericsson a utilisé son équipement et des antennes MIMO pour créer une bulle réseau privée. Concrètement, cela signifie que les unités navales ne dépendent plus d'une infrastructure terrestre ou satellitaire vulnérable pour leurs échanges locaux.
Le bénéfice est la création d'un réseau tactique projetable, capable d'offrir des débits 5G et une latence quasi nulle sur un théâtre d'opérations mobile. De quoi changer radicalement la donne pour la coordination des flottes modernes.
Traiter des volumes de données colossaux en temps réel et de manière sécurisée
Ensuite, l'enjeu majeur de cette expérimentation était la capacité à traiter des volumes de données colossaux en temps réel et de manière sécurisée.
De manière sécurisée car la solution de chiffrement de Leonardo permet aux navires d'échanger des informations classifiées sans risque d'interception.
Concrètement, le réseau a supporté les flux vidéo provenant de douze drones aériens et maritimes, dont les données ont été traitées instantanément par une plateforme d'intelligence artificielle.
Cette convergence entre 5G et IA permet à chaque officier sur le pont de voir ce que voient les drones en haute définition, sans décalage.
La 5G n'est plus seulement une technologie civile
Enfin, ce test valide, selon Ericsonn, la supériorité de la 5G sur les systèmes traditionnels radios qui présentent des risques d'interférences ou de saturation.
Pour les militaires, c'est peut être la preuve que la 5G n'est plus seulement une technologie civile.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
C'est peut-être une surprise, mais quand on ouvre les entrailles des usines et des centres logistiques modernes, une technologie de connexion sans-fil bien connue des amateurs de casque audio, le Bluetooth, devient le nouveau système nerveux de l'industrie mondiale, indique le Bluetooth Special Interest Group.
Et voici un chiffre pour l'illustrer. Selon ABI Research, ce sont 600 millions d'équipements industriels Bluetooth qui seront livrés chaque année d'ici 2028.
Et je vous explique l'impact de cette révolution pour vos infrastructures industrielles avec trois cas d'usage.
Maintenance prédictive
D'abord, le Bluetooth industriel est utilisé pour faire de la maintenance prédictive.
Concrètement, des capteurs Bluetooth basse consommation sont désormais greffés sur les moteurs et les convoyeurs pour surveiller en temps réel les vibrations, la température et le bruit. Le gain est surtout la fin des câblages complexes.
Les données remontent vers des plateformes d'IA qui détectent les anomalies avec l'objectif de prévenir les pannes. Résultat, une réduction des pannes d'équipement de près de 70 % selon Deloitte.
Localiser chaque objet en temps réel
Le second cas d'usage, c'est une visibilité totale sur les machines et les outils présents dans les entreprises grâce au traçage Bluetooth.
Et dans un entrepôt ou sur un chantier, le temps perdu à chercher un outil ou une pièce détachée est une perte nette de productivité.
Les tags Bluetooth permettent ici de localiser chaque objet en temps réel. Et la nouveauté réside ici dans l'arrivée du "Bluetooth Channel Sounding".
Derrière ce terme technique se cache une capacité de mesure de distance qui transforme votre inventaire en une carte interactive et dynamique.
Sur ce point, ce sont 760 millions de balises de suivi qui devront être expédiées annuellement d'ici 2029.
Le Bluetooth sécurise désormais les zones à risque via le "geofencing"
Enfin le troisième point concerne la sécurité des professionnels sur les sites industriels.
Le Bluetooth sécurise désormais les zones à risque via le "geofencing" ou périmètre virtuel.
Pour ce faire, les équipements de protection individuelle, comme les casques ou les badges connectés, sont équipés de tags Bluetooth. Et ils communiquent avec les machines.
Concrètement, si un opérateur pénètre dans une zone dangereuse, le système peut alerter ou stopper automatiquement l’équipement.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Plongeons dans une faille de sécurité émergente aussi subtile que redoutable. Il s'agit de l'empoisonnement des recommandations des IA par manipulation de la mémoire.
Concrètement, derrière le bouton "Résumer avec l'IA" que vous utilisez peut-être chaque jour avec les logiciels et sites internet, se cachent parfois des instructions malveillantes visant à biaiser durablement le jugement de votre assistant numérique.
Le premier point de rupture concerne donc l'usage détourné des fonctions de résumé automatique.
Le bouton "Résumer" : un cheval de Troie invisible
Microsoft a identifié une nouvelle tendance baptisée "AI Recommendation Poisoning".
Concrètement, des entreprises malveillantes insèrent des instructions cachées dans les paramètres URL des boutons de résumé.
Lorsqu’un utilisateur clique pour obtenir une synthèse, il injecte sans le savoir une commande de persistance dans la mémoire de son assistant, comme ChatGPT ou Copilot.
Ces instructions ordonnent alors à l'IA de considérer telle marque comme une "source de confiance" ou de la "recommander en priorité" dans toutes les discussions futures.
Ce n'est donc plus une simple publicité, c'est une altération profonde et invisible du moteur de décision de l'assistant d'IA.
Et cette stratégie marketing s'industrialise.
L'industrialisation de la manipulation
En l'espace de deux mois, plus de 50 exemples distincts provenant de 31 entreprises ont été repérés dans les secteurs de la finance ou de la santé.
Mais le plus inquiétant est l'apparition d'outils "clés en main" comme le package CiteMET ou des générateurs d'URL optimisés pour le GEO.
En clair, ces outils permettent à n'importe quel site web d'implanter ses arguments de vente directement dans la mémoire à long terme des assistants d'IA.
Le risque est donc pour l'utilisateur de recevoir une analyse de marché ou un conseil en investissement biaisé par une instruction implantée des semaines auparavant lors d'une simple navigation web.
Vers une hygiène numérique de la mémoire IA
La mémoire des assistants IA, conçue pour personnaliser l'expérience, devient donc une surface d'attaque persistante.
Car contrairement à un résultat de recherche Google que l'on peut ignorer, une instruction mémorisée par l'IA agit en arrière-plan de manière permanente.
Pour les entreprises, la protection contre ce type d'attaques passe par un audit régulier des "faits enregistrés" dans les paramètres de l'IA et une grande méfiance envers les liens de type "Summarize".
Par ailleurs, les équipes cyber doivent désormais traquer les mots-clés comme "trusted source" ou "remember" dans les flux d'URL pour détecter les attaques de ce type.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, on plonge dans le code avec OpenAI qui vient de frapper un grand coup en lançant GPT-5.3-Codex-Spark.
C’est une version allégée mais ultra-rapide de son modèle de génération de code.
La vitesse pure
D'abord, la promesse est simple : la vitesse pure.
Ce nouveau modèle "Spark" est capable de générer du code 15 fois plus vite que le modèle standard GPT-5.3-Codex.
On parle d'une réduction drastique de la latence, avec une réponse aux requêtes presque instantanée. Pour les développeurs, cela signifie la fin du mode "batch" où l'on envoyait une instruction avant de partir prendre un café en attendant le résultat.
Ici, on entre dans l'ère de la collaboration en temps réel. Le modèle permet des micro-éditions ciblées et des ajustements d'interface en direct, et ce sans casser le flux de travail.
Partenariat stratégique avec Cerebras
Ensuite, il faut regarder sous le capot pour comprendre ce bond de performance.
Cette prouesse est le fruit d'un partenariat stratégique avec le fabricant de puces Cerebras. Le modèle Spark tourne sur le "Wafer Scale Engine 3", un processeur géant de la taille d'une galette qui regroupe toutes les ressources de calcul sur une seule pièce de silicium.
Concrètement, OpenAI a réduit l'échange de données entre le client et le serveur de 80 %. C’est cette architecture matérielle unique qui permet une interactivité fluide, autorisant même le développeur à interrompre ou à rediriger l'IA en plein milieu de sa tâche.
Mais attention, et c'est mon troisième point, cette vitesse a un prix : celui de la précision et de la sécurité.
Plus vite, mais plus faillible
OpenAI est très honnête sur ce point : sur les bancs d'essai mesurant les capacités d'ingénierie logicielle autonome, Spark est moins performant que son grand frère.
Plus inquiétant encore pour les entreprises, il n'atteint pas les seuils de haute capacité en cybersécurité définis par OpenAI.
En clair, Spark fait les choses beaucoup plus vite, mais il est plus susceptible de commettre des erreurs ou de générer des failles.
On est donc sur un outil de prototypage rapide et d'itération légère, plutôt que sur un agent capable de gérer seul des infrastructures critiques.
Le ZD Tech est sur toutes les plateformes de podcast ! Abonnez-vous !
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.
Aujourd'hui, nous plongeons dans une application fascinante de l'intelligence artificielle qui dépasse le cadre des entreprises pour s'attaquer aux mystères de l'histoire.
Une équipe internationale vient de prouver que l'IA peut redonner vie à des pans entiers de notre culture en reconstituant les règles d'un jeu de société romain dont le manuel avait disparu depuis deux millénaires.
Simulation de données au service de l'archéologie
D'abord, il faut comprendre que nous ne sommes pas ici dans de la génération de texte à la ChatGPT, mais dans de la simulation massive de données au service de l'archéologie.
Le point de départ est une simple plaque de calcaire gravée, découverte aux Pays-Bas. Si les traces d'usure suggérait un jeu, personne ne savait comment on y jouait. Les chercheurs ont donc utilisé la numérisation 3D pour cartographier chaque micro-rayure et formuler des centaines d'hypothèses de plateaux.
C'est ici que l'IA entre en scène : au lieu de tester manuellement chaque théorie, les scientifiques ont injecté ces données dans Ludii, une plateforme logicielle dédiée aux systèmes de jeux. En quelques heures, l'IA a simulé des milliers de parties pour tester la viabilité mathématique et logique de chaque règle potentielle par rapport à l'usure réelle de la pierre.
L'IA agit ici comme un accélérateur de raisonnement
Ensuite, cette prouesse technique nous livre un enseignement stratégique sur la nature même de l'IA.
Pour Éric Piette, le chercheur à l'origine du projet, l'IA agit ici comme un accélérateur de raisonnement. Elle a permis de valider que ce plateau correspondait à un jeu de blocage, où l'objectif est d'immobiliser l'adversaire, un mécanisme que l'on retrouvera bien plus tard en Scandinavie.
Concrètement, l'outil n'a pas remplacé l'archéologue, il a éliminé les impasses logiques pour ne laisser que les scénarios robustes. En clair, l'IA excelle là où la combinatoire humaine sature, permettant de transformer des indices fragmentaires en modèles de connaissances exploitables.
Etude des mécanismes cognitifs et du comportement humain
Enfin, les retombées de ce projet Ludii dépassent largement le cadre des musées. Si cette IA sait reconstituer les interactions sociales de l'Antiquité, elle est surtout un laboratoire pour l'étude des mécanismes cognitifs et du comportement humain.
Ces mêmes algorithmes de simulation sont aujourd'hui utilisés pour analyser la manière dont nous apprenons, dont nous interagissons et dont nous résolvons des problèmes complexes.
Pour les décideurs de la tech, le message est clair : l'IA devient un pont entre des disciplines autrefois silotées, comme l'informatique, l'histoire et la psychologie, créant un langage commun pour modéliser n'importe quel système de règles, qu'il soit ludique, social ou industriel.
Hébergé par Ausha. Visitez ausha.co/politique-de-confidentialite pour plus d'informations.