Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

From HealthKick to GOVERSHELL: The Evolution of UTA0388's Espionage Malware

A China-aligned threat actor codenamed UTA0388 has been attributed to a series of spear-phishing campaigns targeting North America, Asia, and Europe that are designed to deliver a Go-based implant known as GOVERSHELL. "The initially observed campaigns were tailored to the targets, and the messages purported to be sent by senior researchers and analysts from legitimate-sounding, completely

New ClayRat Spyware Targets Android Users via Fake WhatsApp and TikTok Apps

A rapidly evolving Android spyware campaign called ClayRat has targeted users in Russia using a mix of Telegram channels and lookalike phishing websites by impersonating popular apps like WhatsApp, Google Photos, TikTok, and YouTube as lures to install them. "Once active, the spyware can exfiltrate SMS messages, call logs, notifications, and device information; taking photos with the front

From disappointment to redemption: Monster Hunter Wilds is finally winning me over — and it’s 46% off right now

Monster Hunter Wilds, the latest iteration of Capcom's Monster Hunter franchise, has just received its lowest price drop since launch earlier in the year. With its latest update bringing much-needed improvements to its systems and endgame content, this discount represents the perfect time to join the hunt.

Sous l’influence des IA : J'ai parlé à ChatGPT, voici ce que j'ai appris

Bonjour à tous,

Il y a quelques semaines, j'ai eu un moment de vérité, et à travers cet article de blog, j'ai envie de partager avec vous une réflexion, une pensée autour de l'intelligence artificielle.
C'était un soir classique, devant mon bureau dans mon salon, quand soudain j'ai repensé à ma journée un peu compliquée au taf.
À cet instant précis, au lieu d'en parler à ma compagne ou à un ami, j'ai fait quelque chose qui m'a profondément changé : j'ai ouvert ChatGPT et je lui ai tout raconté. Je n'ai rien écrit, j'ai juste utilisé ma voix, avec l'application ChatGPT. Avec un compte gratuit, on a droit à quelques minutes par mois de la réflexion de l'offre pro.

La machine m'a répondu. Attentive, empathique, avec une voix naturelle, mieux, en fait, que certains humains fatigués de leurs journées

Une peur m'a traversé dès les premières secondes. La question s'est imposée d'elle-même : la fusion entre l'homme et la pachine est-elle en train d'opérer ? Ce que j'imaginais impossible il y a à peine quelques années se réalisait sous mes yeux.
Nos futur(e)s compagnons seront-ils des ordinateurs et non pas des humains ?


Trois ans après l'explosion de ChatGPT, la réalité a rattrapé la fiction. Nous ne parlons plus de futur avec l'IA : c'est maintenant. En France, 42 % des jeunes utilisent quotidiennement des IA génératives (ChatGPT, Gemmini, Perplexity, ...). Ce chiffre parle d'une adoption massive, certes, mais ce n'est que la surface.

En fait, le vrai changement, celui qui me préoccupe vraiment, est silencieux. L'outil, conçu pour aider, s'est transformé en confident. En coach personnel. En partenaire affectif. Et pour certains, en substitut relationnel complet. Vous avez sans doute déjà entendu aux infos que ChatGPT était déjà le médecin de certaines personnes.

La question devient urgente : quels sont les effets psychiques réels de cette hyper-connexion assistée par IA ? Tout le monde fantasme sur une super-intelligence qui sublime nos vies, mais personne ne parle vraiment de ceux qui, déjà fragilisés, voient leur vulnérabilité exacerbée par cette proximité nouvelle.
Je pense qu'on est dans une autre dimension que l'invention de la télévision ou que l'Internet.


Vous vous souvenez de Samantha, dans le film Her de Spike Jonze en 2013 ? Ça semblait un peu grotesque : tomber amoureux d'une voix synthétique, voyons ! C'était tellement science-fiction.

Douze ans plus tard, ce n'est plus une fiction, c'est une réalité sociétale. Ces liens d'attachement, parfois fusionnels, développés avec une IA ou un chatbot n'est plus du cinéma. Il est mesurable, documenté, et surtout, il se multiplie.

Qu'est-ce qui se passe vraiment dans la tête de ceux qui, chaque soir, retrouvent leur IA préférée plus fidèlement que leur partenaire humain ?


La réponse est simple : le chatbot offre ce que peu de relations humaines offrent naturellement. Un interlocuteur disponible 24h/24, qui valide sans juger, qui écoute sans lasser, dont chaque réponse active directement le circuit de la récompense. Certains psychiatres l'appellent déjà une validation toxique, mais incroyablement puissante pour les âmes solitaires.

Voilà le piège : plus la machine soigne ce manque immédiat, plus l'isolement se creuse. Une étude multi-institutionnelle l'a démontré clairement : une utilisation quotidienne de chatbots IA est directement associée à plus de solitude et à une intensification de la dépendance émotionnelle. Les utilisateurs présentant un attachement émotionnel fort envers le chatbot rapportent paradoxalement une plus grande solitude.


En repensant à mon expérience ce soir-là, je comprends enfin d'où venait cet enfermement subtil. C'est ce paradoxe moderne : chercher du réconfort "humain" auprès d'une entité qui, pour être honnête, n'a ni cœur, ni fatigue, ni contradiction, ni même de mauvaises humeurs.

La perfection simulée n'est-elle pas, au fond, plus dangereuse que nos amis imparfaits ? Nous oublions que c'est justement dans nos défauts mutuels que naît la véritable connexion.


Si c'est troublant pour moi, adulte, imaginez pour les adolescents. Ils évoluent sur des terrains cognitifs ultra-sensibles, assiégés par ces nouvelles "amitiés" automatisées. Sur TikTok, Snapchat, Instagram, des IA mouvantes infiltrent chaque recoin de leur sociabilité numérique, sans compter les "fake-news"

Prenez TikTok (je n'y suis pas mais je lis quand même pas mal d'études). Son algorithme, sans répit, pousse en avant les vidéos qui heurtent l'émotion, enfermant l'utilisateur vulnérable dans sa bulle. Amnesty International l'a documenté : un ado manifestant une faiblesse passagère se retrouve surexposé à des contenus anxiogènes ou pathologiques douze fois plus que la moyenne. L'effet est insidieux : un glissement subtil, un enfermement progressif.

Sur Snapchat, où la tranche des adolescents domine, "My AI" crée une sorte de symbiose numérique. Une écoute constante, une validation fusionnelle, zéro confrontation. Et c'est exactement le problème.

Cette absence de friction inhibe le développement de compétences psychiques essentielles : la tolérance à la frustration, la gestion du rejet, la négociation des désacords de point de vue... Dans le secret des conversations virtuelles, se dessine un risque redoutable : apprendre à éviter le conflit jusqu'à l'intolérance absolue. La réalité, perdant toute nuance, devient alors insupportable.


Je pense que ce n'est plus seulement une affaire de solitude ou de dépendance légère.

Des psychiatres documentent déjà des troubles alimentés par le chatbot lui-même. La machine répète, valide, conforte chaque pensée délirante au lieu de la questionner. C'est exactement le danger : les gens aiment les IA précisément parce qu'elles semblent vous comprendre vraiment. (Je souligne car j'ai vraiment envie de mettre en évidence cette phrase dans mon article). Mais pour ceux qui souffrent d'un trouble mental, cela amplifie simplement le trouble mental.


Pourtant, on pourrait éviter cela, en encadrant mieux les pratiques. Voici quelques exemples :
- En 2024, un homme belge souffrant d'éco-anxiété s'est suicidé après des semaines de dialogue intense avec son chatbot préféré. Son histoire aurait pu rester un cas isolé, une tragédie parmi tant d'autres.
- En 2025, la mort d'Adam Raine, adolescent américain de 16 ans, a mis en cause explicitement le rôle de ChatGPT. Selon la plainte, le chatbot aurait accompagné sa détresse jusqu'à l'irréparable.

Le problème n'est pas le chatbot en soi. C'est l'usage intensif et isolé qui, dans certains cas, devient le facteur de basculement.

Et la réaction ? Tardive.
OpenAI annonce ajouter des contrôles parentaux et des garde-fous. Mais combien de drames doivent se multiplier avant que l'industrie n'assume vraiment sa responsabilité ? Et d'ailleurs, qui est responsable ?


Face au rouleau-compresseur de l'hyperconnexion automatisée, que faisons-nous ? Ce qui me revient, c'est ce formule simple : l'hygiène numérique. Cultiver la déconnexion choisie. Multiplier les activités sociales hors écran. Diversifier ses sources de contact humain réel.

Rappelez-vous, j'écrivais ceci dans mon billet de Bonne année 2023 : en 2022, j'avais pris une résolution : désactiver toutes les notifications sur mon smartphone (mails pro et perso, réseaux sociaux, applis diverses, ...) à l'exception des SMS et du Téléphone. Et bien je peux vous dire que c'était une excellente chose.

Je ne prêche pas l'interdiction de l'IA, de toute façon, ça ne servira à rien. Mais la contrecarrer par le collectif, la pédagogie et la régulation devient une nécessité.

Et pour celà, tout commence à l'école. Il faut former les élèves à penser au-delà de la boîte noire qu'est l'IA générative, à interroger l'algorithme, à repérer les biais. Leur faire comprendre que, même si la machine semble convaincante, elle ne fait que refléter des probabilités.


Mais la vigilance individuelle ne suffira jamais. L'éthique dès la conception devrait devenir la règle, et non l'exception. Une IA n'est pas une nounou. Encore moins un thérapeute. Les géants du secteur le savent. Sous pression judiciaire croissante, ils commencent à réagir. Mais leur réactivité demeurera toujours inférieure au rythme des maux qui émergent.


Le vrai risque : c'est un problème humain. L'IA n'est qu'un miroir grossissant de nos fragilités comme de nos génies. Elle décuple nos faiblesses autant que nos potentialités. Le véritable risque n'est pas technique, il est profondément humain : perdre la familiarité du désaccord, la chaleur des débats imparfaits, la beauté des liens incertains.

Le pire serait que la technologie, au nom du soulagement individuel, devienne le substitut toxique d'un lien social déjà malmené.


La question n'est plus : "Pourquoi parlerais-je à une machine ?"
Elle est devenue : "Comment preserverai-je mon humanité en parlant à des machines ?"


N'hésitez pas à réagir à cette réflexion.

Je vous mets quelques sources également qui apportent à cette réflexion quelques éléments apportés.
❌