Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 15 janvier 2026Flux principal

L'IA détruit-elle nos institutions démocratiques ?

Par : Korben
15 janvier 2026 à 11:28

L'IA va-t-elle vraiment détruire nos institutions ?

Deux chercheurs de Boston University, Woodrow Hartzog et Jessica Silbey, viennent de publier un papier académique qui affirme que oui, et leur thèse tient en trois mécanismes :

  1. l'intelligence artificielle dégrade l'expertise humaine
  2. elle court-circuite les processus de décision
  3. et elle isole les individus.

Autant dire que ça envoie du lourd !

Mais est-ce vraiment le cas ? Je vous propose de regarder un peu ce qui se passe chez nous, en France et en Europe, depuis quelques mois, sans vous prendre la tête avec la théorie.

Premier exemple, l'algorithme de la CAF.

Depuis 2010, la Caisse nationale d'allocations familiales utilise un système de scoring qui attribue une note de risque entre zéro et un à tous les allocataires pour détecter les fraudes potentielles. On parle quand même de 32 millions de personnes concernées !

C'est pourquoi en octobre 2024, quinze associations dont Amnesty International France, la Quadrature du Net et la Fondation Abbé-Pierre ont attaqué cet algorithme devant le Conseil d'État . Le problème en fait, ce sont les critères qui font monter le score comme avoir de faibles revenus, être au chômage, vivre dans un quartier défavorisé, être parent isolé, ou travailler avec un handicap.

Du coup, l'expertise des agents qui connaissent le terrain se retrouve court-circuitée par un score opaque qui cible systématiquement les plus vulnérables. C'est vraiment dégelasse et Agnès Callamard, secrétaire générale d'Amnesty, n'a pas manqué de rappeler le précédent néerlandais de 2021 où un algorithme similaire avait plongé des milliers de familles dans la dette.

Et ce n'est pas un cas isolé... France Travail applique la même recette avec ce que La Quadrature du Net appelle des "scores de suspicion" et "scores d'employabilité" qui déterminent qui va être contrôlé en priorité. En 2024, l'organisme a effectué 610 780 contrôles, soit une hausse de 16,7% par rapport à l'année précédente et leur objectif pour 2027 c'est de faire 1,5 million de contrôles !!!

La Quadrature du Net dénonce donc un profilage algorithmique qui remplace progressivement l'accompagnement humain par une logique de surveillance automatisée déshumanisée.

Et c'est la même chose avec Parcoursup. En effet, la plateforme d'affectation post-bac traite chaque année des centaines de milliers de dossiers, et les études montrent une discrimination territoriale flagrante. A dossier équivalent, un lycéen parisien a plus de chances d'être accepté qu'un lycéen de banlieue. L'UNEF qualifie le système de "fabrique à élite" , et selon un sondage L'Etudiant/BVA/Orange , seulement 37% des jeunes de 15 à 20 ans estiment que le traitement est équitable.

Les conseillers d'orientation qui connaissaient les élèves individuellement sont peu à peu remplacés par un algorithme dont personne ne comprend vraiment les critères...

Côté court-circuitage des décisions, le ministère de la Culture nous a également offert un moment collector. Quand Rachida Dati a voulu rendre hommage au rappeur Calbo, cofondateur d'Ärsenik décédé à 53 ans, le communiqué de presse contenait une sacrée bourde : "Shalom" au lieu de "Shaolin".

C'est une erreur qui évoque le comportement typique des systèmes génératifs et l'enquête de Next a montré après coup que le texte provenait en fait d'un site dont le nom de domaine avait été racheté après la faillite de son proprio pour y héberger du contenu généré par IA. C'est moche... Le ministère a démenti avoir utilisé l'IA tout en admettant "des coquilles". lol... Comme d'hab, personne n'a vérifié avant la publication, et voilà !

Et les deepfakes ? On en parle ? Car là, c'est Macron lui-même qui brouille les pistes à défaut de brouiller l'écoute ^^. En février 2025, pour promouvoir le Sommet de l'IA, le président a posté sur Instagram une compilation de deepfakes le montrant avec une coupe mullet dansant sur "Voyage, Voyage", donnant un tuto coiffure, ou imitant Jean Dujardin dans OSS 117.

Ça l'a fait marrer (je ne savais pas qu'il pouvait rire, décidément, on en apprend tous les jours) mais les experts en IA ont tiré la sonnette d'alarme car quand le président normalise lui-même les deepfakes, comment ensuite lutter contre la désinformation qui ronge l'espace médiatique ? Un an plus tôt, une fausse vidéo France 24 générée par des propagandistes russes annonçait un complot d'assassinat contre Macron, et l'ex-président Medvedev l'avait relayée comme authentique... Breeeeef....

Ah et il y a aussi le cas Coluche ! Souvenez-vous, en septembre dernier, une vidéo deepfake de l'humoriste appelant à rejoindre le mouvement "Bloquons Tout" a dépassé les 200 000 vues sur TikTok. Des propos qu'il n'a bien sûr jamais tenu de son vivant. France 3 avait fait plus subtil avec "Hôtel du Temps" où Thierry Ardisson "ressuscitait" Coluche, mais en utilisant uniquement ses propos authentiques. La nuance est importante, et ça montre bien que tout dépend de l'intention.

L'Europe a bien sûr tenté de répondre avec l'AI Act , le premier règlement de l'UE sur l'intelligence artificielle avec classification des risques, obligations de transparence, interdiction de certains usages et j'en passe... Sur le papier, c'est ambitieux mais dans les faits, la course est déjà perdue d'avance face à une techno qui évolue plus vite que la régulation.

Du coup, nos deux chercheurs Hartzog et Silbey ont-ils raison ?

Je dirais qu'en partie, oui.

Mais l'IA ne détruit pas les institutions démocratiques par malveillance, mais plutôt par friction car elle s'insère dans des processus existants, remplace des étapes humaines, crée des angles morts et ça c'est le problème. Vous le savez, j'aime beaucoup tout ce qu'on peut faire avec l'IA et j'ai une tendance plutôt pro-IA que anti-IA et une fois encore, de mon point de vue, ici le vrai problème n'est pas l'outil, mais plutôt l'absence de garde-fous et la tentation de faire confiance aveuglément à tout ce qui sort de la machine.

Voilà, donc dire que l'IA "détruit" les institutions, c'est peut-être un poil exagéré mais c'est clair qu'elle les fragilise, qu'elle les contourne et surtout qu'elle les rend paresseuses.

Quand à la destruction, elle viendra surement si on continue de regarder ailleurs...

À partir d’avant-hierFlux principal

Vidéosurveillance algorithmique : l’Assemblée vote sa prolongation jusqu’en 2027 en prévision des JO de 2030

14 janvier 2026 à 16:23

vsa caméra surveillance

De Paris 2024 aux Alpes 2030, la vidéosurveillance algorithmique voit sa durée s'étendre encore. L'Assemblée nationale a voté le 13 janvier 2026 la prolongation de ce dispositif controversé jusqu'à décembre 2027.

Palantir - L'histoire secrète de l'œil numérique qui voit tout

Par : Korben
11 janvier 2026 à 14:20
Cet article fait partie de ma série spéciale hackers . Bonne lecture !

Le 7 août 2019, dans le Mississippi, des centaines d'enfants rentrent de leur premier jour d'école. Cartables sur le dos, ils s'attendent à retrouver leurs parents pour raconter leur journée.

Mais à la place, ils découvrent des maisons vides ou des usines encerclées par des agents fédéraux. Ce jour-là, l'ICE (les services d'immigration américains) mène la plus grande opération de l'histoire du pays en un seul État : 680 personnes sont arrêtées, menottées et embarquées dans des camionnettes blanches.

Source

L'enquête qui a mené à ces rafles n'a pas été montée "à l’ancienne" sur un tableau en liège avec des punaises et de la ficelle rouge. Dans des affidavits et les documents obtenus via des demandes FOIA, on voit apparaître un nom de module qui revient comme un sortilège : FALCON Tipline. Un outil Palantir vendu à la branche Homeland Security Investigations (HSI) et utilisé pour centraliser, recouper et exploiter des signalements, des identités, des liens, des infos de terrain… jusqu’à planifier des actions coordonnées comme celle du Mississippi.

Le plus "magique" (façon Mordor), c'est que tout ça s'appuie sur un contrat très concret, très administratif, qui décrit FALCON comme une plateforme de recherche fédérée et d’analyse, capable de faire parler ensemble des bases de données qui n'étaient pas censées se rencontrer. Voilà. Rien de secret... Juste le genre de PDF qui sent la paperasse… mais qui peut briser des vies.

Mais si cette logistique monstrueuse a pu être déployée avec une telle précision chirurgicale, c'est grâce à une technologie dont vous n'avez peut-être jamais entendu parler, mais qui sait déjà probablement tout de vous.

Son nom ? Palantir.

Pour comprendre comment une startup de la Silicon Valley est devenue l'œil de Sauron qui surveille le monde, il faut remonter au début des années 2000. On est juste après le 11 septembre. L'Amérique est en état de choc et ses agences de renseignement cherchent désespérément un moyen de "connecter les points" (connect the dots comme ils disent...) pour prévenir la prochaine attaque.

Le Pentagone essaie bien de lancer un programme de surveillance totale appelé Total Information Awareness, mais le projet est jugé trop orwellien et se fait descendre par l'opinion publique en 2003. C'est exactement à ce moment-là que Peter Thiel décide de fonder Palantir Technologies avec Stephen Cohen, Joe Lonsdale, Nathan Gettings et Alex Karp.

Ce qui est "marrant", c’est qu’on a enterré le programme (trop visible, trop caricatural), mais pas l’idée. Palantir arrive pile au bon moment : la même promesse, mais emballée dans un joli paquet cadeau d'outil d’analyse, vendue par une boîte privée, et surtout, développée directement avec les gens qui allaient s’en servir.

La surveillance version startup, avec des NDA, des badges et des salles sans fenêtre était née...

Peter Thiel, c'est un personnage à part dans la tech. Co-fondateur de PayPal, premier investisseur de Facebook, libertarien pur jus et fan absolu de J.R.R. Tolkien. Le nom "Palantir" vient d'ailleurs du Seigneur des Anneaux puisque ce sont ces pierres de vision qui permettent de voir à travers le temps et l'espace.

Le truc, c'est que chez PayPal, Thiel et son équipe avaient déjà développé des algorithmes de détection de fraude super performants baptisés "Igor". C'est pour cela que Thiel s'est dit "Hé, et si on appliquait ces mêmes méthodes de traque financière à la lutte antiterroriste ?"

Peter Thiel ( source )

Le problème, c'est qu'en 2004, personne à la Silicon Valley ne veut toucher à la défense. Les investisseurs flippent, du coup, Thiel et son fonds d'investissement posent environ 30 millions de dollars pour couvrir les premiers coûts et vont chercher un allié improbable : In-Q-Tel, le fonds de capital-risque à but non lucratif soutenu par la CIA.

In-Q-Tel injecte environ 2 millions de dollars et au delà de l'argent, c'est une surtout une validation capitale pour la société. Et c'est ainsi que durant trois ans, les ingénieurs de Palantir vont bosser main dans la main avec les analystes du renseignement pour construire leur premier logiciel : Gotham.

Et quand je dis "bosser main dans la main", c’est pas une image. Leur délire, c’était d’envoyer des ingénieurs directement chez les clients, dans les agences, parfois sur site sensible, pour modeler l’outil à la demande. Pas une ESN, hein… plutôt une greffe. Tu poses le logiciel, tu poses les devs, et tu laisses la créature grandir dans l’ombre.

Pour diriger cette boîte de surveillance, Thiel choisit Alex Karp. Un mec encore plus atypique que lui. Karp est un philosophe, titulaire d'un doctorat en théorie sociale de l'université de Francfort, dyslexique, qui ne sait pas conduire et qui passe cinq heures par jour à faire du ski de fond ou du Qigong. Il vit dans une baraque perdue dans le New Hampshire et se décrit comme un "gauchiste fou", alors que Thiel est un "dingue de droite". Ce duo improbable va pourtant créer l'entreprise la plus puissante et la plus secrète de la planète.

Alex Karp ( source )

Le fonctionnement de Gotham est simple sur le papier, mais terrifiant en pratique. Pensez à un aspirateur géant capable d'ingérer n'importe quel type de donnée : Imagerie satellite, rapports d'interrogatoires, conversations sur les réseaux sociaux, fichiers fiscaux, plaques d'immatriculation, relevés bancaires. Le logiciel fusionne tout ça pour créer un "jumeau numérique" du monde réel. Si vous avez un compte chez Ladar Levison (le fondateur de Lavabit qui a hébergé Snowden) ou que vous avez été mentionné dans une écoute de la NSA, Palantir peut recréer tout votre réseau social en quelques clics.

C'est d'ailleurs avec les révélations d'Edward Snowden que le monde a commencé à entrevoir l'ampleur du truc. En 2017, des documents montrent que Palantir proposait des outils comme "XKEYSCORE Helper" pour faciliter l'analyse des données capturées par la NSA. Le logiciel permettait aux agents de naviguer dans des masses de données privées avec une fluidité déconcertante. Même si Alex Karp jure sur tous les tons qu'il protège les libertés civiles, la réalité des contrats raconte une autre histoire.

Et ce n’est pas qu’un délire "NSA / USA". Dans la même veine, des docs évoquent aussi Kite, un système custom pour le GCHQ (les espions britanniques), avec des champs et des imports extensibles pour avaler des formats de données bien tordus. Palantir, évidemment, a tenté de calmer le jeu ensuite en expliquant que "XKEYSCORE helper" n’était qu’un module périphérique et limité, pas un accès à la matrice complète…

Mais l’histoire "secrète" de Palantir a aussi un épisode qui sent la naphtaline et le scandale. En effet, en 2010-2011, des emails fuités (merci Anonymous) ont montré qu'une dream team HBGary / Berico / Palantir avait participé à la préparation d’un plan de riposte contre WikiLeaks et ses soutiens. Dans le package, on parlait de méthodes sales, de pression, et même d’idées de désinformation. Résultat, Palantir a publiquement présenté ses excuses et a coupé les ponts avec HBGary.

Je vous parle quand même d'une boîte qui a récupéré le contrat Maven Smart System (le fameux Project Maven) quand Google l'a lâché suite à la révolte de ses employés. Maven utilise l'IA pour aider les analystes militaires à identifier des cibles au milieu d'un déluge de données de surveillance.

Et aujourd'hui, Palantir est partout.

En Ukraine, Alex Karp a été le premier PDG occidental à rencontrer Zelensky après l'invasion russe de 2022. Leurs logiciels servent à faire de la fusion de données à grande vitesse (drones, satellites, sources ouvertes) pour accélérer la décision militaire. Et ça ne s'arrête pas là puisqu'en juillet 2025, l'armée américaine a signé un accord-cadre monumental jusqu'à 10 milliards de dollars sur 10 ans pour consolider et simplifier l'achat des logiciels Palantir.

Mais Palantir ne s'arrête pas aux zones de guerre. L'entreprise s'infiltre dans nos services publics. Au Royaume-Uni, un consortium mené par Palantir a décroché un contrat de 330 millions de livres pour gérer la Federated Data Platform du NHS (le système de santé national). En septembre 2025, ils ont même remis ça avec un partenariat défense annoncé par le gouvernement britannique, censé débloquer jusqu'à 1,5 milliard de livres d'investissements et faire du Royaume-Uni leur QG européen défense. En France, la DGSI a longtemps utilisé Palantir avant d'essayer de construire sa propre alternative pour retrouver sa souveraineté numérique… sauf que fin 2025, le contrat a encore été prolongé "temporairement", en attendant que l’outil souverain arrive vraiment.

Et ce qui est vraiment inquiétant avec Palantir, c'est ce qu'ils proposent en matière de "police prédictive". Par exemple, à Los Angeles ou à la Nouvelle-Orléans, leurs algorithmes ont été utilisés pour tenter d'identifier des zones ou des individus à risque. En gros, le logiciel décide si vous avez le profil d'un futur délinquant en analysant vos liens sociaux et vos antécédents. À la Nouvelle-Orléans, le programme a même tourné pendant des années dans une discrétion quasi totale, sans que le conseil municipal ne soit vraiment au courant, jusqu'à ce que la presse sorte l'affaire. Des audits ont d'ailleurs montré que ces systèmes pouvaient renforcer les préjugés et cibler injustement certaines communautés. Tu m'étonnes...

Exemple de dashboard de police prédictive ( source )

Aujourd'hui, Palantir est cotée en bourse et sa valorisation explose littéralement (on parle d'environ 430 milliards de dollars début 2026). Alex Karp a réussi son pari à savoir rendre la surveillance de masse extrêmement rentable. L'entreprise vise d'ailleurs un chiffre d'affaires annuel autour de 4,4 milliards de dollars sur 2025, porté par sa nouvelle plateforme d'IA (AIP) et ses "agents" autonomes capables de structurer n'importe quelle base de données en un clin d'œil. Mais comme dans Tolkien, les palantír sont des outils dangereux. Celui qui les utilise peut être lui-même observé et corrompu.

Alors, faut-il avoir peur de Palantir ? Clairement oui !

Quand on voit comment Snowden explique la surveillance aujourd'hui, on comprend que Palantir est l'outil qui rend l'espionnage d'État accessible à n'importe quel analyste, sans qu'il ait besoin d'être un génie du code. C'est la démocratisation d'Orwell à grande échelle.

Bref, la prochaine fois que vous entendrez parler d'une startup qui veut "aider les gouvernements à mieux gérer leurs données", rappelez-vous de l'histoire du Mississippi en 2019 et de Palantir car derrière les beaux discours sur la sécurité, il y a souvent des algorithmes invisibles et des pierres de vision qui ne dorment jamais.

Sources :

UGREEN Reveal New Surveillance Cameras (for NAS)

Par : Rob Andrews
6 janvier 2026 à 16:37

New IP Cameras and AI Surveillance for NAS Coming Soon

UGREEN has outlined a SynCare lineup of IP surveillance devices that focuses on edge processing, on-device multimodal AI detection, and local recording, rather than a cloud-first model with recurring fees. The range, shown publicly around CES 2026, includes indoor cameras, an outdoor camera, and a video doorbell, with a separate Smart Display hub positioned as an optional central screen and Wi-Fi hub. UGREEN’s messaging also points to broader ecosystem ambitions, including compatibility with local storage today and later integration with UGREEN NAS systems in H2 2026 for longer retention, organization, and multi-camera management.

What is the UGREEN SynCare Series

The UGREEN SynCare Series is a planned smart home surveillance lineup built around IP cameras and a video doorbell, introduced as UGREEN’s entry into home security hardware. The set includes 2 indoor camera variants (ID500 Plus and ID500 Pro), an outdoor bullet-PTZ camera (OD600 Pro), and a video doorbell (DB600 Pro). UGREEN has positioned the range for release in H2 2026, with pricing expected to be disclosed later, including around IFA 2026. A defining theme across the range is edge AI, with UGREEN describing on-device multimodal recognition that can classify people, pets, and other events, and then translate those detections into more descriptive alerts. The intent is to reduce reliance on cloud processing and minimize subscription requirements, with an emphasis on local storage and privacy controls. In practical terms, the cameras are presented as doing much of their analysis at the camera level, while still supporting broader system coordination. UGREEN has also described SynCare as an ecosystem rather than isolated devices, including cross-camera awareness and a Smart Display D500 that can act as a central monitoring screen and connectivity hub. The system-level features described include event sharing between devices, multi-zone monitoring outdoors, and “risk-based” escalation behaviors such as warning lights and alarms. While the full surveillance software stack has not been fully detailed yet, UGREEN has repeatedly referenced NASync support and later NAS integration as part of the intended trajectory for the platform.

UGREEN SynCare Indoor 2K Cam ID500 Plus

The SynCare Indoor Cam ID500 Plus is positioned as the lower resolution indoor model in the lineup, pairing a 2K-class image sensor with dual-band Wi-Fi and on-device multimodal AI for identifying common subjects such as people and pets, along with event-based detection. It is described as using local recording rather than mandatory cloud storage, with support for internal SD-based storage and stated compatibility with UGREEN NASync systems for users who want longer-term retention or centralized storage outside the camera itself.

Specification UGREEN SynCare Indoor Cam ID500 Plus
Resolution 2K+
Connectivity 2.4GHz / 5GHz dual-band Wi-Fi
Night Vision UltraColor Night Vision
Storage Local storage (SD), no mandatory cloud fees
NAS Support Compatible with UGREEN NASync systems
AI Features On-device multimodal AI (people, pets, event recognition)

UGREEN SynCare Indoor 4K Cam ID500 Pro

The SynCare Indoor Cam ID500 Pro is the higher tier indoor option and is described with 4K capture plus motorized pan and tilt for coverage beyond a fixed viewpoint. UGREEN also associates this model with an f1.0 aperture and a color-focused low-light mode branded as UltraColor Night Vision, alongside on-device multimodal recognition intended to classify subjects and incidents for more specific notifications. In system descriptions, it is also linked to cross-camera awareness and risk-based alert behavior when used alongside other SynCare devices.

Specification UGREEN SynCare Indoor Cam ID500 Pro
Resolution 4K
Pan and Tilt Yes
Aperture f1.0
Connectivity 2.4GHz / 5GHz dual-band Wi-Fi
Night Vision UltraColor Night Vision
Storage Local storage with no mandatory cloud fees
AI Features On-device multimodal AI (people, pets, incidents)
System Features Cross-camera awareness, smart risk-based alerts

UGREEN SynCare Video Doorbell DB600 Pro.

The SynCare Video Doorbell DB600 Pro is the entry-point camera in the range that is designed specifically for front-door coverage, using a dual-camera setup to capture both a primary view and a lower secondary view for head-to-toe framing. UGREEN positions it for identifying visitors and deliveries, with multimodal AI intended to separate people, pets, and packages into distinct detection types so alerts can be tied to what is actually happening at the doorstep. In the pre-release descriptions, it is presented as a Wi-Fi doorbell solution rather than a PoE device, and availability is expected in H2 2026.

Specification UGREEN SynCare Video Doorbell DB600 Pro
Imaging 4K + 2K dual-camera
Field of View Head-to-toe
Wi-Fi 2.4GHz / 5GHz dual-band
Storage Local storage with no cloud fees
AI Features Multimodal recognition for people, pets, packages
Availability H2 2026

UGREEN SynCare Outdoor PoE Cam OD600 Pro

The SynCare Outdoor Cam OD600 Pro is the exterior-focused model and is described as a triple-lens bullet-PTZ design that combines a fixed wide view with pan-tilt coverage for tracking activity across a larger area. UGREEN has highlighted 18MP imaging, optical zoom, and 24/7 continuous recording, alongside on-device multimodal AI aimed at differentiating people, vehicles, and pets for more targeted alerts. Unlike the indoor models and doorbell, this camera is also presented with Power over Ethernet support in addition to dual-band Wi-Fi, and UGREEN has described multi-zone monitoring behavior that escalates from capture and notification to lights and audible alarms as a subject moves closer.

Specification UGREEN SynCare Outdoor Cam OD600 Pro
Imaging 18MP triple-lens bullet-PTZ
Pan and Tilt Yes (PTZ)
Optical Zoom Yes
Connectivity 2.4GHz / 5GHz dual-band Wi-Fi, PoE
Recording 24/7 continuous recording
Storage Local storage with no cloud fees
AI Features On-device multimodal AI (human, vehicle, pet detection)
Monitoring Multi-zone detection with escalating alerts

UGREEN SynCare Smart Display D500 hub

The SynCare Smart Display D500 is described as a central control screen for the SynCare lineup that can aggregate camera feeds, show events in real time, and act as a connectivity hub within the home. UGREEN’s positioning suggests it can simplify monitoring when multiple cameras are deployed, while still keeping core features available through the mobile app without requiring the display for functionality. In other words, it is presented as an optional hardware dashboard rather than a mandatory controller for the cameras.

Specification UGREEN SynCare Smart Display D500
Role Central monitoring display and home hub
Connectivity 2.4GHz / 5GHz dual-band Wi-Fi
Camera Support Connects with SynCare cameras and doorbell
Monitoring Real-time viewing and event reporting
Control Method App-based control, on-device interface
Required for Features No (positioned as optional)

Included Surveillance Services

SynCare is presented as more than basic video capture, with UGREEN describing a set of edge AI and ecosystem features intended to reduce irrelevant alerts, improve low-light usability, and coordinate behavior across multiple cameras. The emphasis is on on-device recognition and local storage, with additional automation features that depend on having more than 1 SynCare device in the same setup.

  • On-device multimodal AI recognition for people, pets, vehicles, packages, and general events

  • Human-language style alerts that describe what was detected rather than only motion notifications

  • Behavior analysis concepts, with examples such as identifying an approaching stranger by appearance

  • UltraColor Night Vision and low-light color correction for clearer nighttime footage

  • Local recording with no mandatory cloud subscription, including SD-based storage support

  • Cross-camera awareness, where one device can trigger announcements or actions on another

  • Multi-zone outdoor monitoring with escalating responses such as recording triggers, warning lights, phone notifications, and audible alarms

  • Smart risk-based alerts that vary response intensity based on proximity or severity

UGREEN NASync Support?

UGREEN has positioned SynCare around local recording and on-device processing, but has also repeatedly tied the cameras to its NAS ecosystem through references to NASync compatibility and later integration. The implication is that SynCare can operate as standalone devices first, then gain more centralized storage and management options when paired with a UGREEN NAS.

What is directly stated so far is limited but consistent: SynCare devices are described as supporting local storage without mandatory cloud fees, and multiple product descriptions refer to supporting or being compatible with UGREEN NASync. In the broader SynCare overview text, UGREEN also links privacy to encrypted local storage via NASync, which frames the NAS as a destination for retained footage rather than a required cloud account.

What remains undefined is the software side of that relationship. In your video, the open question is whether UGREEN’s eventual surveillance platform will be limited to the newer AI-focused NAS models or will also be delivered to the wider NAS lineup, and there are no concrete details yet on what the camera to NAS workflow looks like in practice. Until UGREEN publishes the surveillance application details, the NAS portion should be treated as planned ecosystem support rather than a fully specified NVR feature set.

UGREEN’s newest AI NAS hardware is relevant mainly because it suggests where the company expects heavier workloads to land, including multi-camera retention, indexing, and any future server-side analytics. The iDX6011 and iDX6011 Pro, as described, combine high-end Intel Core Ultra processors, large LPDDR5/x memory configurations, dual 10GbE networking, and up to 196TB raw capacity across 6 SATA bays plus 2 NVMe slots, which is a plausible foundation for sustained recording and longer retention, even if the cameras themselves handle primary detection at the edge.

Specification NASync iDX6011 NASync iDX6011 Pro
Processor Intel Core Ultra 5 125H Intel Core Ultra 7 255H
Memory 32GB / 64GB LPDDR5/x 64GB LPDDR5/x
Max Storage 196TB (6 SATA + 2 NVMe) 196TB (6 SATA + 2 NVMe)
Networking Dual 10GbE (up to 20Gbps via aggregation) Dual 10GbE (up to 20Gbps via aggregation)
Ideal For Creators, families, prosumers Studios, production teams, AI-intensive workflows

 

 

📧 SUBSCRIBE TO OUR NEWSLETTER 🔔
[contact-form-7]
🔒 Join Inner Circle

Get an alert every time something gets added to this specific article!


Want to follow specific category? 📧 Subscribe

This description contains links to Amazon. These links will take you to some of the products mentioned in today's content. As an Amazon Associate, I earn from qualifying purchases. Visit the NASCompares Deal Finder to find the best place to buy this device in your region, based on Service, Support and Reputation - Just Search for your NAS Drive in the Box Below

Need Advice on Data Storage from an Expert?

Finally, for free advice about your setup, just leave a message in the comments below here at NASCompares.com and we will get back to you. Need Help? Where possible (and where appropriate) please provide as much information about your requirements, as then I can arrange the best answer and solution to your needs. Do not worry about your e-mail address being required, it will NOT be used in a mailing list and will NOT be used in any way other than to respond to your enquiry. [contact-form-7] TRY CHAT Terms and Conditions
If you like this service, please consider supporting us. We use affiliate links on the blog allowing NAScompares information and advice service to be free of charge to you.Anything you purchase on the day you click on our links will generate a small commission which isused to run the website. Here is a link for Amazon and B&H.You can also get me a ☕ Ko-fi or old school Paypal. Thanks!To find out more about how to support this advice service check HEREIf you need to fix or configure a NAS, check Fiver Have you thought about helping others with your knowledge? Find Instructions Here  
 
Or support us by using our affiliate links on Amazon UK and Amazon US
    
 
Alternatively, why not ask me on the ASK NASCompares forum, by clicking the button below. This is a community hub that serves as a place that I can answer your question, chew the fat, share new release information and even get corrections posted. I will always get around to answering ALL queries, but as a one-man operation, I cannot promise speed! So by sharing your query in the ASK NASCompares section below, you can get a better range of solutions and suggestions, alongside my own.

☕ WE LOVE COFFEE ☕

 

Aux Etats-Unis, la police peut maintenant fouiller dans les recherches Google

Par : Korben
1 janvier 2026 à 21:54

La Cour suprême de Pennsylvanie vient de valider une pratique qui va faire polémique : les policiers peuvent désormais demander à Google de leur filer la liste de toutes les personnes ayant recherché un terme spécifique. C'est ce qu'ils appellent un "reverse keyword search warrant".

L'affaire remonte à 2016. Une femme est enlevée chez elle par un inconnu, puis violée. L'enquête piétine pendant plus d'un an, jusqu'à ce que les enquêteurs obtiennent un mandat demandant à Google qui avait recherché le nom ou l'adresse de la victime la semaine précédant l'agression. Un certain John Kurtz avait tapé cette adresse deux fois dans la même journée.

ADN prélevé sur un mégot de cigarette, correspondance confirmée, et le type finit par avouer cinq agressions. Il écope de 59 à 270 ans de prison. Oui moi aussi ça m'a fait bugger cette histoire de fourchette d'années de prison mais c'est comme ça qu'ils font là-bas... 59 ans minimum et jusqu'à 270 ans max.

Alors la première réaction c'est de se dire que le système a fonctionné puisque le violeur en série s'est retrouvé derrière les barreaux grâce à ses propres recherches Google. Sauf que la défense a contesté la légalité de ce mandat de recherche inversé, arguant que ça violait le 4ème amendement sur les perquisitions abusives.

Et la Cour a tranché : non, y'a pas de violation d'amendement. Pourquoi ? À cause de ce qu'on appelle la "third-party doctrine". En gros, dès que vous partagez une info avec un tiers (ici Google), vous perdez toute attente raisonnable de confidentialité dessus. Vos recherches appartiennent à Google, pas à vous. Point barre.

Après petite subtilité, le juge Wecht a aussi suggéré que le résultat aurait pu être différent si l'utilisateur avait pris des mesures de protection, tel qu'utiliser un VPN. Techniquement, si Kurtz avait fait ses recherches via un VPN, le mandat aurait pu ne pas tenir car là il y avait une volonté de conserver une certaine confidentialité... On marche sur la tête.

Mais ce qui chafouine la défense ici, ce sont les effets de bord car comme l'a souligné la juge Christine Donohue, ce type de mandat met en danger la vie privée de toute personne ayant recherché le nom ou l'adresse de la victime durant cette semaine-là. Des voisins curieux, un livreur qui voulait vérifier l'itinéraire, un journaliste local.... Tout le monde se retrouve potentiellement dans le viseur...

Et c'est là que ça devient vraiment préoccupant car qu'est-ce qui empêche d'appliquer la même logique à des recherches plus génériques ? "Avortement clinique" dans un État qui l'interdit ? "Comment traverser la frontière" pour les personnes en situation irrégulière ? Avec ce qui se passe actuellement aux États-Unis concernant les rafles d'immigration par ICE , on voit bien le potentiel de dérive.

Car le problème n'est pas la technique en soi mais l'absence de garde-fous. Rien n'empêche aujourd'hui une administration zélée de demander à Google la liste de tous ceux qui ont recherché tel ou tel terme politiquement sensible et avec cette décision de la Cour de Pennsylvanie, c'est maintenant parfaitement légal.

Google, de son côté, affirme avoir des "protections rigoureuses" en place et s'opposer aux demandes trop larges... On aimerait les croire mais l'entreprise traite des milliers de mandats chaque année, et la tentation de coopérer plutôt que de se battre devant les tribunaux doit être forte.

Alors combien de temps avant que cette jurisprudence fasse tache d'huile dans d'autres États ?

Source

La Chine a maintenant des RoboCops qui règlent la circulation

Par : Korben
23 décembre 2025 à 12:00

En Chine, RoboCop c'est plus vraiment de la science-fiction puisque la ville de Hangzhou vient de déployer un robot humanoïde qui fait la circulation à un carrefour. Et je trouve ça un poil flippant ^^.

Ce robot qui s'appelle Hangxing-1 a commencé son boulot le 1er décembre dernier, à l'intersection de Binsheng Road et Changhe Road dans le district de Binjiang. Le truc mesure 1m80, il est équipé de caméras haute définition et de capteurs qui lui offrent une bonne vision de ce qui se passe autour de lui et il roule sur des petites roues omnidirectionnelles, affublé d'un uniforme haute visibilité avec des bandes de police. Bref, impossible de le louper.

Et son job, c'est de faire des gestes pour diriger les voitures, les scooters et les piétons. Les ingénieurs ont modélisé ses mouvements sur ceux de vrais policiers pour que ce soit bien standardisé et il peut siffler de manière électronique en synchro avec les feux de circulation. Et le truc marrant, c'est qu'il est capable de détecter les infractions en temps réel, comme les motards sans casque, les voitures qui dépassent la ligne d'arrêt ou encore les piétons qui traversent au rouge. Et quand il chope quelqu'un en flagrant délit, il balance un message vocal bien poli.

Bien sûr, on est en Chine, donc toutes les infractions sont logguées et envoyées direct dans la base de données de la police.

Côté autonomie, le robot peut tenir plusieurs heures sur une charge, ce qui couvre largement les heures de pointe et quand la batterie est à plat, il retourne tout seul au bistrot à sa station de recharge. La machine a été développée entièrement à Hangzhou, fruit d'une collab entre la police locale et des boîtes tech du coin.

D'après les premières observations locales, le respect des règles à ce carrefour se serait nettement amélioré depuis que le robot est en poste. Bon, y'a quand même des flics humains pas loin pendant cette phase test, au cas où les avertissements vocaux du robot ne suffiraient pas.

Hangxing-1 fonctionne pour l'instant dans deux modes : gestion du trafic et sensibilisation civique. Mais la ville prévoit de l'upgrader avec des capacités de langage naturel pour qu'il puisse donner des directions et répondre aux questions des passants. Le robot est d'ailleurs connecté au "City Brain" d'Alibaba, le système de gestion urbaine intelligent déployé à Hangzhou.

Et Hangzhou n'est pas la seule ville à jouer avec ces robots puisque Chengdu a déployé 5 robots policiers sur la place Tianfu, Mianyang utilise des chiens robots pour patrouiller dans les quartiers d'affaires, et Shenzhen teste des robots humanoïdes d'Engine AI qui serrent la main aux passants. Le gouvernement chinois veut clairement multiplier ce genre de déploiements.

Perso, je trouve ça plus mignon (et apparemment plus efficace) qu'un policier municipal même s'il ne faut pas oublier que ce robot vous filme, vous identifie, enregistre la moindre de vos infractions et les balance à la vraie police...

Ce monde commence sérieusement à ressembler à un épisode de Black Mirror.

Source

La souveraineté numérique attendra : la DGSI renouvelle son contrat avec Palantir pour « garantir la sécurité des Français ».

16 décembre 2025 à 10:58

Le 12 décembre 2025, la société américaine Palantir a annoncé le renouvellement pour trois ans de son contrat avec la DGSI, le service de renseignement intérieur français. Cette collaboration a débuté au lendemain des attaques terroristes du 13 novembre 2015, dans un contexte de forte pression sécuritaire sur les services de renseignement français.

MAX - L'app russe obligatoire qui transforme votre smartphone en mouchard du FSB

Par : Korben
15 décembre 2025 à 11:59

Vous pensiez que les apps de messagerie alternatives à WhatsApp c'était pour échapper à la surveillance des États ? Hé bien en Russie et dans les territoires ukrainiens occupés, c'est exactement l'inverse ! En ce moment, y'a une app qui s'appelle MAX, qui est présentée comme le "WhatsApp russe", et qui depuis le 1er septembre de cette année, est préinstallée de force sur tous les téléphones vendus.

Cette app c'est le rêve de tout dictateur en culottes courtes et installer MAX sur son téléphone, c'est donner volontairement le contrôle total de son appareil au FSB (les services de sécurité russes). Et quand je dis total, c'est accès à toutes vos données personnelles, vos contacts, vos messages, votre localisation... Selon des experts IT, l'app activerait même la caméra automatiquement toutes les 10 à 15 minutes pour prendre des photos à l'insu de l'utilisateur. Un véritable "espion de poche". Le KGB soviétique aurait tellement kiffé avoir ce truc à leur grande époque.

Et c'est pas fini puisque dans les territoires ukrainiens occupés, notamment dans les oblasts de Zaporizhzhia et Kherson, MAX est devenu un véritable test de loyauté. Aux checkpoints, l'absence de l'app sur un smartphone éveille les soupçons et déclenche des fouilles approfondies. Les autorités d'occupation ont même obligé tous leurs employés à l'utiliser, et les écoles communiquent exclusivement via MAX avec les parents. Histoire de vous faire "rigoler" un bon coup, sachez que même certains fonctionnaires de l'occupation seraient réticents à l'installer, bien conscients des risques...

Et depuis le 1er décembre, ils ont poussé le bouchon encore plus loin en interdisant la vente de cartes SIM non-russes, du coup, pour utiliser MAX, faut un numéro de téléphone russe ou biélorusse. Et comme je vous l'ai dit , WhatsApp, Telegram et compagnie sont progressivement bloqués, donc les possibilités de communiquer librement commencent à fondre comme neige au soleil. L'objectif affiché pour Vladoche et ses copains, c'est de couper complètement les Ukrainiens des territoires occupés du reste du monde et des sources d'information fiables.

Reporters sans Frontières a d'ailleurs dénoncé MAX comme un "outil de contrôle numérique" qui érige un véritable "rideau de fer numérique", isolant les citoyens des territoires occupés de toute information fiable. Et la dictature prévoit d'aller encore plus loin car bientôt, l'app sera obligatoire pour accéder aux services bancaires en ligne et aux services publics. C'est un véritable rideau de fer numérique qui isole les populations.

L'app revendique 50 millions d'utilisateurs, mais bon, quand t'as pas le choix et que c'est préinstallé de force sur ton téléphone, est-ce que ça compte vraiment comme des "utilisateurs" ? Souvenez-vous de TousAntiCovid, loool.

Bref, si vous voulez voir à quoi ressemble la surveillance de masse version 2025, MAX c'est l'exemple parfait et c'est une bonne piqûre de rappel sur pourquoi il faut continuer à se battre pour garder des messageries chiffrées et indépendantes...

Source

Vous voulez aller aux USA ? Préparez-vous à leur donner 5 ans d'historique de vos réseaux sociaux

Par : Korben
11 décembre 2025 à 11:05

Ce matin, je vous parlais de ce mec qui s’est fait arrêter pour avoir effacé son téléphone devant les douaniers américains. Eh ben j’avais pas vu qu’il y avait encore mieux… L’administration Trump vient en effet de publier une proposition qui va vous faire halluciner… !!!!

Pour les ressortissants des 42 pays éligibles au programme ESTA (dont la FRANCE, l’Allemagne, le Royaume-Uni, le Japon…), il faudra bientôt fournir 5 ans d’historique de vos réseaux sociaux pour poser un pied sur le sol américain. Et c’est pas en option, non non non non… C’est une obligation. Le CBP (Customs and Border Protection) l’a annoncé dans le Federal Register hier (le 10 décembre).

Et attendez, c’est pas fini car en plus de vos posts Facebook, tweets et autres stories Instagram de ces 5 dernières années, ils veulent aussi récupérer toutes vos adresses email des 10 dernières années… vos numéros de téléphone (et ceux de votre famille)… les dates de naissance et lieux de résidence de vos proches… ainsi que vos données biométriques quand cela est faisable. Empreintes digitales, scan facial, scan de l’iris, et même votre ADN. On se croirait dans Bienvenue à Gattaca !

Officiellement, tout ça c’est pour “protéger les États-Unis des terroristes étrangers” suite à un décret de janvier 2025 sauf que le problème, comme l’explique un avocat spécialisé en immigration à The Register , c’est que les refus d’entrée ne seront plus basés sur des faits concrets… mais sur l’interprétation de vos opinions. Bref, si vous avez posté un truc qui plaît pas, c’est retour à la case départ. Donc autant vous dire que pour moi, c’est mort !

Et ce qui est marrant, c’est que ces politiques restrictives de connards ont coûté cette année aux États-Unis environ 30 milliards de dollars en perte économique pour le tourisme, et j’imagine que ça va augmenter… Les USA seraient l’un des seuls grand pays à voir ses revenus touristiques baisser. Des winners, j’vous dis !

La proposition est donc ouverte aux commentaires publics jusqu’au 9 février… On verra bien comment ça va se terminer et ce qui sera inscrit dans la loi.

De mon côté, ça fait 22 jours que j’ai décroché des réseaux sociaux et même si c’est dur, j’suis content. Déjà parce que ça fera moins de données à filer aux douaniers, y’aura moins de chiasse mentale qui ira se déverser dans mon cerveau et surtout moins de temps perdu à scroller… Bref, une meilleure santé mentale pour bibi.

Et un grand merci à l’administration américaine qui vient de me donner une raison supplémentaire de pas retourner aux États-Unis de sitôt. Dommage c’est un beau pays quand même.

Source

Effacer son téléphone devant les douaniers peut vous envoyer en prison (logique)

Par : Korben
11 décembre 2025 à 06:56

Vous pensiez que la fonctionnalité “Effacer toutes les données” de votre smartphone était là pour protéger votre vie privée ? Hé bien aux États-Unis, l’utiliser au mauvais moment peut désormais vous valoir des poursuites fédérales.

Bienvenue dans le pays de la liberté ! (lol)

Samuel Tunick, un activiste d’Atlanta, vient d’en faire les frais le 4 janvier dernier. Alors que les agents des douanes américaines (CBP) voulaient fouiller son Google Pixel, il a eu le réflexe de le wiper. Très mauvaise idée puisque le mec a été arrêté ce mois-ci par le FBI et le DHS, et fait maintenant face à des poursuites pour “destruction de preuves” et “obstruction à la saisie légale d’un bien par le gouvernement”.

Certes, il a fait preuve d’un gros manque de bon sens et l’acte d’accusation déclare que Tunick aurait “sciemment détruit le contenu numérique de son téléphone dans le but d’empêcher le gouvernement à prendre ledit bien sous sa garde”. Oui, effacer vos photos de vacances et vos conversations WhatsApp, c’est dorénavant privé l’Etat d’un bien potentiel.

D’ailleurs, on ne sait même pas pourquoi les douaniers voulaient fouiller son téléphone au départ mais la perquisition devait être effectuée par un officier du “Tactical Terrorism Response Team” (TTRT), une unité secrète du CBP que l’ACLU décrit comme des “équipes qui ciblent, détiennent, fouillent et interrogent des voyageurs innocents”.

Ces TTRT, c’est un truc de ouf ! Depuis leur création en 2015, ils opèrent dans des dizaines de points d’entrée américains et cette unité a détenu et interrogé plus de 600 000 voyageurs, dont un tiers de citoyens américains. Et ces agents peuvent cibler des gens sur la base de leurs “instincts”, sans qu’ils figurent sur une quelconque watchlist.

Car oui, le CBP considère que vos droits à la vie privée disparaissent à la frontière et leurs agents peuvent saisir et fouiller n’importe quel appareil électronique sans mandat ni motif raisonnable. Donc si vous refusez de donner votre mot de passe, ils peuvent confisquer votre téléphone pour analyse forensique. Et bien sûr, les citoyens américains ne peuvent pas être refoulés pour ça, mais les détenteurs de visa ou de green card et les touristes peuvent carrément se voir refuser l’entrée.

Comme d’hab, mes conseils pour voyager sont rasoirs mais faut partir avec un téléphone “propre” dédié aux voyages, stocker ses données sensibles dans le cloud (européen de préférence) plutôt que sur l’appareil, et surtout ne jamais, jamais effacer quoi que ce soit pendant une interaction avec les autorités. Ou alors faites comme moi et restez chez vous ^^. En tout cas, soyez pas con comme Tunick.

Ce dernier a d’ailleurs été libéré mais reste assigné à résidence dans le nord de la Géorgie en attendant son procès. Force à lui. M’enfin, sachez-le, le pays qui a inscrit le 4ème et le 5ème amendement dans sa Constitution considère que protéger sa vie privée équivaut à de l’obstruction.

Quelle belle évolution !

Source

SNCF et IDFM veulent légaliser la surveillance algorithmique au nom de la sécurité des femmes

15 décembre 2025 à 15:14

caméra vidéosurveillance

À l'occasion de la journée de mobilisation contre les violences faites aux femmes dans les transports, la SNCF et Île-de-France Mobilités ont présenté la seconde version de leur intelligence artificielle capable d'analyser les flux des caméras en temps réel, développée par un groupe français. Prochaine étape : autoriser son usage en France, alors que l'analyse des flux vidéo est fortement encadrée.

Careless Whisper - La faille WhatsApp qui permet de vous traquer

Par : Korben
8 décembre 2025 à 11:50

Vous pensiez encore que WhatsApp était secure grâce au chiffrement de bout en bout ?

Pauvres fous ^^ !

En fait, des chercheurs de l’Université de Vienne viennent (!!) de démontrer qu’on peut vous espionner à distance via Whatsapp sans que vous receviez la moindre notif.

L’attaque s’appelle “Careless Whisper” (oui, comme la chanson de George Michael) et elle exploite un truc tout bête : les accusés de réception, ces petits checks bleus qui vous indiquent qu’un message a été délivré puis vu…

Ainsi, en envoyant des messages spécialement conçus pour l’occasion, notamment des réactions à des messages qui n’existent pas, un attaquant peut déclencher des accusés de réception 100% silencieux. Vous ne voyez rien, pas de notif, pas de message qui apparaît, mais de l’autre côté, votre stalker psychopathe mesure le temps que met votre téléphone à répondre.

Et en analysant ces temps de réponse, on peut savoir si votre écran est allumé ou éteint, si WhatsApp est ouvert au premier plan, quel système d’exploitation vous utilisez, combien d’appareils sont connectés à votre compte, et même déduire vos horaires de sommeil. Tout sans que vous ayez le moindre indice qu’on vous surveille, évidemment !

La recherche, disponible ici , a d’ailleurs reçu le Best Paper Award à la conférence RAID 2025. Les chercheurs ont testé sur WhatsApp et Signal, et les deux sont vulnérables. Mais sur WhatsApp, c’est le pire, car l’application autorise des payloads de réaction jusqu’à 1 Mo, ce qui permet de générer 13 Go de trafic par heure sur le téléphone de la victime, donc ça permet même de vider tranquillement sa batterie de 15 à 18% par heure sans qu’elle ne s’en rende compte.

Un développeur a même créé un outil open source pour tester la faille de manière responsable et en respectant la loi évidemment. Si vous voulez tester, faites-le uniquement sur votre matériel. L’interface de ce PoC permet de traquer en temps réel l’activité d’un numéro de téléphone. En dessous d’un certain seuil sur le délai de réponse, la personne est active, et au-dessus, elle dort ou son téléphone est en veille.

Les chercheurs ont bien sûr signalé la faille à Meta en septembre 2024, qui a “accusé réception” (lol), mais aucune correction n’a été apportée depuis. Et chez Signal ils n’ont pas répondu du tout.

Alors comment on fait pour se protéger de ça ? Et bien dans Whatsapp, il y’a une option qui se trouve dans Paramètres → Confidentialité et autoriser seulement “Mes Contacts” à voir ce qu’on partage, ce qui permet de limiter les accusés de réception à vos contacts uniquement. Ça ne règle pas tout, mais ça complique la tâche des inconnus qui voudraient vous traquer.

Voilà, une fois encore, même sur les apps avec du chiffrement de bout en bout qui protège le contenu des messages, ça ne fait pas tout, car il y a toujours des métadonnées qui peuvent être exploitées de manière frauduleuse, donc soyez vigilant :)

120 000 caméras IP ont été piratées pour alimenter un site voyeuriste : comment ce hack massif relance le débat sur la sécurité des objets connectés

3 décembre 2025 à 11:43

Le 1ᵉʳ décembre 2025, la Police nationale sud-coréenne a annoncé l’arrestation de quatre individus soupçonnés d’avoir piraté plus de 120 000 caméras IP à travers le pays. Les images volées auraient ensuite été revendues à un site diffusant clandestinement ces contenus à des fins sexuelles. Une affaire qui remet la sécurité des objets connectés au cœur des débats.

Quand l'IA écoute et analyse les appels de millions de détenus américains

Par : Korben
2 décembre 2025 à 10:54

Securus Technologies , le géant des télécoms pénitentiaires (il en faut…), vient de déployer un système d’intelligence artificielle destiné à analyser automatiquement les communications des détenus. Quand je dis communications, on parle des appels téléphoniques, des messages, des emails, voire des appels vidéo et le but c’est de repérer des conversations où des crimes pourraient être envisagés ou planifiés, puis signaler ces passages à des agents humains.

Le modèle a notamment été entraîné sur 7 années d’appels du système pénitentiaire du Texas et comme Securus est l’un des plus gros fournisseurs du pays, son IA s’appuie sur un volume colossal de données captées dans les prisons, et autres centres de détention ICE. Les détenus, qui n’ont généralement aucune alternative pour parler à leurs proches, sont bien sûr prévenus que leurs communications sont enregistrées… mais pas forcément que ces enregistrements servent aussi à entraîner des modèles d’IA…

Pour les associations de défense des droits, c’est donc un problème très grave puisque pour communiquer avec sa famille, il faut forcement passer par ces outils, qu’on le veuille ou non, et souvent en payant. L’ACLU rappelle d’ailleurs que Securus s’est déjà fait épingler par le passé pour avoir enregistré des milliers d’appels entre détenus et avocats alors qu’ils n’en ont pas du tout le droit.

Et Securus n’est pas seul puisque LEO Technologies pousse son propre système d’analyse, Verus , déjà déployé dans des dizaines d’établissements répartis sur une dizaine d’États. Leur argument marketing c’est de détecter plus vite les menaces ou les incidents. Et dans sa grande bonté, la Floride leur a même attribué un contrat de plusieurs millions de dollars, et l’État de New York est aussi client. Bref, c’est un marché bien juteux !

Et du côté de la régulation, il y a une réforme de la FCC sortie en 2024 qui normalement, devait empêcher les entreprises de répercuter les coûts de surveillance sur les détenus et leurs familles. Mais sous la direction de Brendan Carr, nommé à la FCC sous Trump, ces protections ont été suspendues, puis partiellement annulées à la fin de cette année… Du coup, les entreprises peuvent de nouveau facturer aux détenus une partie des coûts liés à l’enregistrement, au stockage et même au développement de systèmes comme cette IA.

Ces décisions ont donc été critiquées par plusieurs organisations de défense des droits, qui estiment que la surveillance devient non seulement plus intrusive, mais aussi plus coûteuse pour des familles déjà fragilisées.

Bref, on se retrouve face à un cocktail bien connu avec d’un côté, une population captive sans alternative, des entreprises privées qui disposent de volumes gigantesques de données, et une surveillance algorithmique qui s’étend, et de l’autre, une régulation qui recule à fond la caisse.

Et tout ça se passe dans l’indifférence générale, parce que ce sont “juste” des prisonniers…

Source

120 000 caméras IP piratées en Corée du Sud

Par : Korben
1 décembre 2025 à 12:13

Si vous avez des caméras connectées chez vous et que vous vous baladez régulièrement, comme moi, en tenue d’Adam (ou d’Ève), j’ai une petite histoire qui va peut-être vous faire réfléchir. La police sud-coréenne vient d’arrêter 4 personnes qui auraient piraté plus de 120 000 caméras IP présentes dans des domiciles et des commerces pour en extraire des vidéos à caractère sexuel. Et oui, les gens filmés n’en savaient évidemment rien du tout.

Les lieux ciblés sont des maisons privées, des salles de karaoké, un studio de pilates et même… un cabinet de gynécologue. Gloups… Vous imaginez le truc ? Vous allez vous faire examiner chez le médecin et paf, y’a un mec de l’autre côté de la planète qui revend la vidéo sur un site louche. C’est moche.

D’après l’Agence nationale de police sud-coréenne, les quatre suspects agissaient indépendamment les uns des autres. L’un d’eux aurait piraté 63 000 caméras à lui seul et produit 545 vidéos qu’il a revendues pour environ 25 000 euros en cryptomonnaies. Un autre a compromis 70 000 caméras, extrayant 648 vidéos vendues une quinzaine de milliers d’euros au total. 3 acheteurs qui ont visionné ces vidéos ont également été arrêtés.

Mais comment ont-ils fait pour pirater autant de caméras ? Hé bien, la technique est d’une banalité affligeante. Ils ont tout simplement déviné les mots de passe trop simples ou par défaut des caméras . Vous savez, le fameux “admin/admin” ou “123456” que personne ne change jamais.

Bon, moi je vous rassure, je peux me balader tranquillement en calbut ou tout nu chez moi sans craindre de finir sur un site coréen douteux. J’ai une astuce toute bête : mes caméras sont branchées sur des prises connectées qui sont reliées à mon système d’alarme. Quand j’active l’alarme en partant, les caméras s’allument automatiquement. Et quand je suis chez moi et que l’alarme est désactivée, les caméras sont physiquement coupées de l’électricité.

Pas de jus, pas de vidéo, pas de risque.

Même le hacker le plus balèze du monde ne peut pas pirater une caméra éteinte. Après, si quelqu’un arrive à hacker mon système d’alarme, là on passe à un autre niveau… mais j’ai de la bonne came côté sécurité, je suis plutôt serein.

Les autorités sud-coréennes ont prévenu individuellement les victimes et leur ont conseillé de changer leurs mots de passe immédiatement. Elles rappellent aussi les bonnes pratiques telles que des mots de passe complexes avec majuscules, minuscules, chiffres et caractères spéciaux, et surtout du WPA2 ou WPA3 pour le WiFi (le vieux WEP c’est open bar pour les hackers).

Voilà, si vous avez des caméras IP chez vous, prenez deux minutes pour vérifier vos mots de passe et si vous êtes du genre pudique, pensez à la solution des prises connectées qui coupent l’alimentation quand vous êtes à la maison. C’est simple, c’est radical, et ça vous évitera de devenir la star involontaire d’un site de “sexploitation” à l’autre bout du monde.

Ban-Rays - Les lunettes qui détectent les smart glasses

Par : Korben
29 novembre 2025 à 07:42

De nos jours, quand un mec chelou avec des lunettes cheloues nous fixe, on ne sait plus si c’est parce qu’il nous trouve irrésistible ou s’il est en train de balancer notre tronche à une IA pour savoir qui on est. Bon, pour vous, la question se pose peut-être moins, mais vous voyez l’idée ^^.

Heureusement, pour lutter contre ça, y’a maintenant un projet open source pour détecter ces petits curieux équipés de Ray-Ban Meta ou d’autres lunettes-caméras. Ce projet s’appelle Ban-Rays (jeu de mots avec “banned”, roh roh roh) et le but c’est de créer des lunettes capables de repérer les smart glasses équipées de caméras.

Et pour arriver à cela, le dev derrière ce projet utilise deux approches complémentaires.

La première, c’est l’approche optique basée sur un principe physique assez marrant. En effet, mes capteurs CMOS des caméras ont la particularité de renvoyer la lumière infrarouge directement vers sa source. C’est ce qu’on appelle l’effet “cat-eye” ou rétro-réflectivité, du coup, en balançant des impulsions IR vers une paire de lunettes suspecte et en analysant le signal réfléchi, on peut théoriquement détecter la présence d’une caméra. Et les capteurs produisent des pics de signal bien nets et rapides, contrairement aux surfaces réfléchissantes classiques qui génèrent des ondes plus longues.

Pour le moment, les tests avec les Ray-Ban Meta montrent des résultats un peu inconsistants à courte distance (genre 10 cm), mais le principe est là et ça s’améliore. Ah oui et le matos utilisé c’est un Arduino Uno, des LEDs infrarouges (940nm et 850nm), une photodiode et un transistor. Rien de bien méchant donc niveau budget.

Et la deuxième approche, c’est côté réseau avec la détection Bluetooth Low Energy. Les Ray-Ban Meta utilisent un identifiant fabricant spécifique (0x01AB pour Meta) et un Service UUID bien particulier (0xFD5F). Le souci c’est que pour le moment, ça ne détecte les lunettes que pendant l’allumage ou le mode appairage. Pour une détection continue pendant l’utilisation normale, faudrait du matos plus costaud genre modules nRF pour sniffer les paquets CONNECT_REQ. Mais bon, ça viendra puisque c’est dans la roadmap du projet.

Alors oui, vous allez me dire que les Ray-Ban Meta ont une petite LED qui s’allume quand elles filment, donc c’est pas discret. En théorie oui auf que cette LED est tellement minuscule que la Data Privacy Commission irlandaise a carrément remis en question son efficacité comme protection de la vie privée. Et surtout, un bidouilleur propose maintenant de désactiver cette LED pour une soixantaine de dollars. Meta a bien prévu une protection qui empêche les lunettes de fonctionner si on couvre la LED avec du scotch, mais le gars a trouvé comment contourner ça et sa liste de clients s’allonge…

Et l’autre truc que j’ai remarqué avec ces lunettes connectées, c’est qu’elles se déclenchent tout le temps pour tout et n’importe quoi. Comme ça écoute en permanence pour répondre aux commandes vocales, impossible d’avoir une conversation normale sans que le machin réagisse à un mot qui ressemble vaguement à “Hey Meta”. C’est encore pire que Siri ou Alexa qui font déjà des déclenchements intempestifs. Perso, c’est pour ça que je ne veux pas de ce genre de lunettes, même si je reconnais que c’est pratique pour photographier ou filmer des choses (dans le cadre de mon boulot hein…)

Et les inquiétudes sont d’autant plus justifiées qu’une étude de 2024 a montré qu’en combinant des Ray-Ban Meta hackées avec de la reconnaissance faciale en temps réel, on pouvait identifier des inconnus dans la rue. Encore plus récemment, l’Université de San Francisco a dû alerter ses étudiants après qu’une personne mystérieuse ait utilisé ces lunettes pour filmer des femmes sur le campus et partager les vidéos en ligne. Sympa l’ambiance de parano.

Bref, si vous êtes inquiet par ça (ou juste soucieux de votre vie privée), le projet Ban-Rays est sur GitHub avec tout le code en C++, Python et un peu de C. C’est encore expérimental mais les deux approches sont prometteuses et si vous voulez contribuer, y’a plein de trucs à améliorer comme les patterns de balayage IR, la fusion des données multi-longueurs d’onde, l’interrogation active BLE…

Source

Chat Control - 3 ans de débats pour accoucher d'un truc qui ne sert à rien

Par : Korben
26 novembre 2025 à 18:44

Vous vous souvenez de Chat Control ? Ce projet de règlement européen qui voulait scanner tous vos messages privés pour détecter des contenus pédocriminels ? J’en avais parlé à l’époque et je m’étais bien énervé dessus. Hé bien après plus de 3 ans de négociations, de votes ratés, de blocages par l’Allemagne , les Pays-Bas et l’Autriche… le Conseil de l’UE a enfin trouvé un accord.

Et devinez quoi ? Bah c’est du vent.

Le grand compromis trouvé ce 26 novembre c’est donc de rendre le scanning… (roulements de tambours)… volontaire ! Oui, oui, volontaire. Ainsi, au lieu d’obliger toutes les messageries à scanner vos conversations, on leur demande gentiment si elles veulent bien le faire et en parallèle, on prolonge indéfiniment l’exemption qui permet déjà aux plateformes de scanner volontairement sans violer les lois européennes sur la vie privée. Je rappelle quand même que exemption devait expirer en avril 2026… Hé bien là, elle devient permanente.

Alors oui, techniquement c’est moins pire que le projet initial, mais quand même 3 ans de réunions à se tripoter la nouille, à payer des salaires, à faire des notes de frais, à bailler aux corneilles et j’en passe, pour nous pondre un magnifique “Bon ben finalement on change rien, les entreprises font ce qu’elles veulent”, je trouve ça magistral !

Et le pire c’est que même ce compromis light fait tiquer les experts en vie privée car quelques jours avant l’accord, un groupe de scientifiques a envoyé une lettre ouverte prévenant que le texte “présente toujours des risques élevés pour la société” sans bénéfices clairs pour les enfants. Les associations de défense des droits numériques dénoncent en fait une ruse politique car le texte mentionne que seront bonnes “toutes les mesures appropriées d’atténuation des risques” ce qui est une formulation suffisamment vague pour permettre aux gouvernements de dire plus tard que le scanning est essentiel pour la sécurité.

D’ailleurs Signal avait prévenu que si le scanning devenait obligatoire, ils quitteraient le marché européen plutôt que de compromettre le chiffrement de leurs utilisateurs. Bon au final c’est pas arrivé, mais ça donne une idée de l’ambiance.

Voilà, maintenant le Conseil va négocier avec le Parlement européen et les trilogues (les négociations finales) sont prévus début 2026, donc on n’a pas fini d’en entendre parler.

Et voilà comment se passent 3 ans de cirque bureaucratique pour revenir au point de départ ^^.

Source

❌
❌