Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Comment l'iPhone d'une ado a géré tout seul son accident de voiture

Lindsay Leskovac, 16 ans, a passé en tout et pour tout 22 minutes, inconsciente dans son pickup totalement détruit, pendant que son iPhone 14 discutait tout seul avec les secours. Pas de panique, pas de cris, juste un téléphone qui fait son job pendant que sa propriétaire est dans les vapes. Et apparemment, il l’a fait plutôt bien puisque la jeune fille est toujours vivante pour raconter son histoire.

L’accident s’est produit dans la nuit du 2 août dernier, à Greenville en Pennsylvanie. Lindsay rentrait chez elle après avoir déposé une amie. Vous connaissez la suite, fatigue, route monotone, et la voilà endormie au volant. Le pickup percute alors deux poteaux électriques et quelques arbres avant de s’immobiliser. Bilan : fractures aux deux jambes et à la colonne cervicale. C’est le genre d’accident où on ne peut pas vraiment composer le 911 toi-même.

Et c’est là que la technologie entre en scène car l’iPhone 14 de Lindsay, équipé de la fonction Crash Detection, a détecté l’impact violent et a automatiquement composé le 911. Lindsay a même repris connaissance en entendant une voix sortir de son téléphone. Alors pour comprendre comment un téléphone peut détecter un accident, il faut regarder sous le capot de celui-ci.

Car oui, Apple a équipé l’iPhone 14 d’un accéléromètre capable de mesurer jusqu’à 256 G sachant qu’en général, les accidents graves dépassent généralement les 100 G. Le gyroscope haute dynamique quand à lui est capable de détecter les changements de direction brutaux, échantillonnant les mouvements 4 fois plus vite que les anciens modèles.

De son côté, le baromètre détecte les changements de pression causés par le déploiement des airbags sans oublier le GPS qui vérifie que vous êtes bien en déplacement à haute vitesse. Et le microphone dans tout ça ? Et bien il capte les bruits caractéristiques d’un crash. Et tout ça se passe en temps réel, avec votre consentement bien sûr, c’est à dire quand l’iPhone détecte que vous êtes dans un véhicule via Bluetooth ou CarPlay.

Selon les ingénieurs d’Apple , il n’y a pas de “formule magique” pour détecter un accident… C’est “simplement” un algorithme dynamique qui combine vitesse, force d’impact, changement de pression et niveau sonore. Apple a ainsi analysé un million d’heures de données de conduite réelle et d’accidents pour entraîner son système de machine learning et ils ont même fait des crash tests grandeur nature aussi bien frontaux, arrière, latéraux sans oublier mes préférés, les tonneaux !

D’un côté, on a donc une adolescente qui fait une erreur humaine basique… Et de l’autre, un petit smartphone courageux qui prend le relais avec une efficacité chirurgicale. Pas d’hésitation, pas d’erreur de jugement, juste une réaction immédiate et appropriée.

Laura Leskovac, la mère de Lindsay, ne connaissait même pas l’existence de cette fonction avant l’accident. Elle affirme aujourd’hui que c’est la seule raison pour laquelle sa fille est encore en vie. Craig Federighi, le patron du software chez Apple, a d’ailleurs déclaré être “stupéfait” par le nombre de lettres reçues quelques jours seulement après le lancement de cette fonction, de personnes disant qu’elle leur avait sauvé la vie. Car oui, je vous ai pas dit, mais toutes ces données des capteurs sont traitées localement sur l’appareil et supprimées après détection, sauf si, bien sûr, vous acceptez de les partager pour améliorer le système.

Donc y’a aucune raison de pas laisser cette option activée par défaut… Et y’a la même sur l’Apple Watch pour info.

Bien sûr, ce n’est pas la première fois que cette fonction fait parler d’elle car elle a aussi ses ratés, notamment quand elle confond les montagnes russes avec des accidents. Mais dans le cas de Lindsay, elle a fait exactement ce pour quoi elle était conçue à savoir agir quand l’humain ne peut plus.

Nos smartphones sont devenus au fil du temps bien plus que des outils de communication… Ils sont maintenant capables de prendre des décisions vitales à notre place, ce qui est à la fois rassurant et quand même un peu flippant… mais quand ça vous sauve la vie, chipoter sur les implications philosophiques, c’est plus difficile..

Source

Des scientifiques cachent des codes secrets dans la lumière pour piéger les deepfakes

Ce serait cool non, si on pouvait transformer n’importe quelle lampe de bureau en détecteur de deepfakes, non ?

Car le problème avec les deepfakes aujourd’hui, c’est qu’on court constamment après les faussaires. Ils ont accès aux mêmes vidéos authentiques que nous, aux mêmes outils d’édition ultra-sophistiqués, et l’IA apprend tellement vite qu’elle produit des faux quasi-indétectables. Il leur est donc très facile de reprendre une vraie vidéo et de la trafiquer légèrement pour manipuler les opinions.

Il faudrait donc une sorte de bouclier anti-manipulation-IA pour empêcher toute manip ultérieure d’une captation vidéo. Et bien c’est exactement ce que viennent de réussir des chercheurs de l’université Cornell, et leur technique est brillante… sans mauvais jeu de mots, vous me connaissez ^^.

Abe Davis, à gauche, professeur adjoint d’informatique au Cornell Ann S. Bowers College of Computing and Information Science, et Peter Michael, étudiant diplômé.

Comme l’explique Abe Davis de Cornell : “La vidéo était considérée comme une source de vérité, mais ce n’est plus une hypothèse qu’on peut faire”. Donc, plutôt que de jouer éternellement au chat et à la souris avec la connerie des gens et le talent des faussaires, l’équipe de Cornell a eu une idée géniale : Et si on marquait les vidéos dès leur création, avec un code secret planqué dans la lumière elle-même ?

Leur technologie, baptisée NCI pour “noise-coded illumination”, fonctionne en ajoutant des fluctuations microscopiques à l’éclairage. Ces variations sont totalement invisibles à l’œil nu car votre cerveau les interprète comme du bruit lumineux normal. Mais une caméra, elle pourra tout capter.

Le truc vraiment cool, c’est que chaque source lumineuse peut avoir son propre code secret comme ça vous pouvez programmer votre écran d’ordinateur, vos lampes de bureau, même l’éclairage d’une salle de conférence entière. Et pour les vieilles lampes qui ne sont pas connectées, une simple puce de la taille d’un timbre-poste suffit à les transformer en watermark lumineux.

Mais ensuite, comment ça détecte les fakes ? Et bien c’est là que ça devient vraiment intéressant car le watermark enregistre en permanence une version basse résolution de ce qui se passe sous cet éclairage, avec un horodatage. Les chercheurs appellent ça des “code videos”. Ainsi, quand quelqu’un manipule la vidéo, que ce soit pour insérer un deepfake, changer la vitesse, ou ajouter des éléments, les parties modifiées ne correspondent plus aux code videos. C’est comme si la lumière gardait un registre secret de tout ce qui s’est vraiment passé.

Comme ça, si un petit malin essaie de générer une fausse vidéo avec l’IA à partir d’une vraie vidéo, les code videos ressembleront alors à du charabia aléatoire, ce qui trahira immédiatement la supercherie. Et même si le faussaire connaît la technique et arrive à décoder les codes secrets, il devrait falsifier chaque code video séparément, et s’assurer qu’ils correspondent tous parfaitement entre eux. Autant dire que c’est mission impossible.

Peter Michael, l’étudiant qui a mené les travaux, a présenté cette innovation au SIGGRAPH 2025 à Vancouver et les tests sont vraiment impressionnant car la technique résiste aux compressions vidéo agressives, aux mouvements de caméra, aux flashs, et fonctionne même en extérieur avec différents tons de peau.

Pendant ce temps, la course à l’armement anti-deepfake continue. Le MIT a son projet Detect Fakes actif depuis 2020. Microsoft a son Video Authenticator qui analyse les pixels pour détecter les anomalies. Intel mise sur son FakeCatcher qui atteint 96% de précision en détectant les variations de flux sanguin dans les vidéos (parce que oui, même les meilleurs deepfakes n’arrivent pas encore à reproduire parfaitement les micro-changements de couleur de la peau dus à la circulation sanguine).

Reality Defender, de son côté, utilise une approche multi-modèle qui n’a pas besoin de watermarks préalables. Ils analysent images, vidéos, audio et texte en temps réel pour repérer les manipulations… C’est impressionnant, mais ça reste une approche défensive qui court après les faussaires et n’empêche pas leur “travail”.

Et c’est ça qui rend la solution de Cornell vraiment prometteuse… C’est parce qu’elle est proactive. Plus besoin d’analyser après coup si une vidéo est truquée puisque la preuve d’authenticité est encodée dedans dès le départ. On pourrait sécuriser comme ça des salles de presse équipées de ce système, des interviews officielles protégées par défaut, ou même le siège de l’ONU avec un éclairage anti-deepfake intégré.

Bien sûr, ce n’est pas la solution miracle et Davis lui-même admet que “c’est un problème qui ne va pas disparaître, et qui va même devenir plus difficile” car les faussaires trouveront de nouvelles parades, c’est certain. Mais pour l’instant, cette technologie donne une longueur d’avance cruciale aux défenseurs de la vérité.

Qui aurait cru qu’on combattrait les deepfakes avec une simple lampe de bureau ??

Source

❌