Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Qui peut réellement voir votre bébé ? Un chercheur français révèle une immense faille dans les babyphones du commerce

Un chercheur français en cybersécurité a découvert que plus d'un million de caméras et babyphones connectés étaient totalement exposés sur Internet : sans mot de passe, sans protection, accessibles à tous. Derrière cette faille béante se cache un fabricant chinois peu connu du grand public, Meari Technology, dont la technologie équipe en réalité des centaines de marques vendues partout en France et dans le monde.

Qui peut réellement voir votre bébé ? Un chercheur français révèle une immense faille dans les babyphones du commerce

Un chercheur français en cybersécurité a découvert que plus d'un million de caméras et babyphones connectés étaient totalement exposés sur Internet : sans mot de passe, sans protection, accessibles à tous. Derrière cette faille béante se cache un fabricant chinois peu connu du grand public, Meari Technology, dont la technologie équipe en réalité des centaines de marques vendues partout en France et dans le monde.

« C’est vraiment bizarre d’avoir un micro sur un aspirateur », il bidouille son aspirateur robot et découvre une faille géante

Dans un article publié le 14 février 2026, le média américain The Verge revient sur la découverte involontaire d'une faille de sécurité affectant les appareils de la marque chinoise DJI. En bidouillant son aspirateur connecté pour le piloter avec une manette PlayStation, un utilisateur a pu accéder à des données de milliers d'appareils à travers le monde.

Comment ces caméras de « toilettes intelligentes » ont déclenché un scandale sur les données de santé

La société américaine Kohler est accusée d'avoir présenté de façon trompeuse la sécurité de son nouveau dispositif « santé » pour toilettes, Dekoda, en parlant de « chiffrement de bout en bout » alors que l’entreprise peut accéder aux données et aux photos recueillies et les utiliser pour entraîner des modèles d’IA.

❌