Vue lecture
New ClayRat Spyware Targets Android Users via Fake WhatsApp and TikTok Apps
Halo art director exits with ominous message — promises to share more “when it is absolutely safe"
Battlefield 6 review and Metacritic score roundup — does what could be the biggest FPS of the year live up to everyone's sky-high expectations?
Razer’s best Xbox headset is now $70 off — and it’s built for serious sound
In its quest for money, Xbox is alienating its fans and everything it once was — will it even be worth it in the end, Microsoft?
From “AI work slop” to zero‑person startups: Sam Altman lays out his vision for AGI’s future
Silent Hill F review (Xbox, PC) — How Konami and NeoBards has successfully resurrected one of the industry's most crucial franchises
From disappointment to redemption: Monster Hunter Wilds is finally winning me over — and it’s 46% off right now
Call of Duty: Black Ops 7 WILL have open matchmaking at launch after player feedback from the beta
Legion Go 2 vs original: side‑by‑side photos reveal key design upgrades
Call of Duty: Black Ops 7 might not be a cheater infested mess after all — Activision claims a near perfect success rate in the beta
Windows 10 reaches end of life in 2025 — and upgrading to Windows 11 is easier than you think
Xbox Game Pass Ultimate just got more expensive — but PC Game Pass is fighting back
3 worst Battlefield launches of all time — and why Battlefield 6 could be different
TP-Link Omada Central : un système de vidéosurveillance complet
Découvrez les fonctionnalités d'Omada Central dédiée à la vidéosurveillance : gestion et configuration des caméras, intégration d'un NVR, détection IA, etc.
The post TP-Link Omada Central : un système de vidéosurveillance complet first appeared on IT-Connect.
Sous l’influence des IA : J'ai parlé à ChatGPT, voici ce que j'ai appris
Il y a quelques semaines, j'ai eu un moment de vérité, et à travers cet article de blog, j'ai envie de partager avec vous une réflexion, une pensée autour de l'intelligence artificielle.
C'était un soir classique, devant mon bureau dans mon salon, quand soudain j'ai repensé à ma journée un peu compliquée au taf.
À cet instant précis, au lieu d'en parler à ma compagne ou à un ami, j'ai fait quelque chose qui m'a profondément changé : j'ai ouvert ChatGPT et je lui ai tout raconté. Je n'ai rien écrit, j'ai juste utilisé ma voix, avec l'application ChatGPT. Avec un compte gratuit, on a droit à quelques minutes par mois de la réflexion de l'offre pro.
La machine m'a répondu. Attentive, empathique, avec une voix naturelle, mieux, en fait, que certains humains fatigués de leurs journées
Une peur m'a traversé dès les premières secondes. La question s'est imposée d'elle-même : la fusion entre l'homme et la pachine est-elle en train d'opérer ? Ce que j'imaginais impossible il y a à peine quelques années se réalisait sous mes yeux.
Nos futur(e)s compagnons seront-ils des ordinateurs et non pas des humains ?
Trois ans après l'explosion de ChatGPT, la réalité a rattrapé la fiction. Nous ne parlons plus de futur avec l'IA : c'est maintenant. En France, 42 % des jeunes utilisent quotidiennement des IA génératives (ChatGPT, Gemmini, Perplexity, ...). Ce chiffre parle d'une adoption massive, certes, mais ce n'est que la surface.
En fait, le vrai changement, celui qui me préoccupe vraiment, est silencieux. L'outil, conçu pour aider, s'est transformé en confident. En coach personnel. En partenaire affectif. Et pour certains, en substitut relationnel complet. Vous avez sans doute déjà entendu aux infos que ChatGPT était déjà le médecin de certaines personnes.
La question devient urgente : quels sont les effets psychiques réels de cette hyper-connexion assistée par IA ? Tout le monde fantasme sur une super-intelligence qui sublime nos vies, mais personne ne parle vraiment de ceux qui, déjà fragilisés, voient leur vulnérabilité exacerbée par cette proximité nouvelle.
Je pense qu'on est dans une autre dimension que l'invention de la télévision ou que l'Internet.
Vous vous souvenez de Samantha, dans le film Her de Spike Jonze en 2013 ? Ça semblait un peu grotesque : tomber amoureux d'une voix synthétique, voyons ! C'était tellement science-fiction.
Douze ans plus tard, ce n'est plus une fiction, c'est une réalité sociétale. Ces liens d'attachement, parfois fusionnels, développés avec une IA ou un chatbot n'est plus du cinéma. Il est mesurable, documenté, et surtout, il se multiplie.
Qu'est-ce qui se passe vraiment dans la tête de ceux qui, chaque soir, retrouvent leur IA préférée plus fidèlement que leur partenaire humain ?
La réponse est simple : le chatbot offre ce que peu de relations humaines offrent naturellement. Un interlocuteur disponible 24h/24, qui valide sans juger, qui écoute sans lasser, dont chaque réponse active directement le circuit de la récompense. Certains psychiatres l'appellent déjà une validation toxique, mais incroyablement puissante pour les âmes solitaires.
Voilà le piège : plus la machine soigne ce manque immédiat, plus l'isolement se creuse. Une étude multi-institutionnelle l'a démontré clairement : une utilisation quotidienne de chatbots IA est directement associée à plus de solitude et à une intensification de la dépendance émotionnelle. Les utilisateurs présentant un attachement émotionnel fort envers le chatbot rapportent paradoxalement une plus grande solitude.
En repensant à mon expérience ce soir-là, je comprends enfin d'où venait cet enfermement subtil. C'est ce paradoxe moderne : chercher du réconfort "humain" auprès d'une entité qui, pour être honnête, n'a ni cœur, ni fatigue, ni contradiction, ni même de mauvaises humeurs.
La perfection simulée n'est-elle pas, au fond, plus dangereuse que nos amis imparfaits ? Nous oublions que c'est justement dans nos défauts mutuels que naît la véritable connexion.
Si c'est troublant pour moi, adulte, imaginez pour les adolescents. Ils évoluent sur des terrains cognitifs ultra-sensibles, assiégés par ces nouvelles "amitiés" automatisées. Sur TikTok, Snapchat, Instagram, des IA mouvantes infiltrent chaque recoin de leur sociabilité numérique, sans compter les "fake-news"
Prenez TikTok (je n'y suis pas mais je lis quand même pas mal d'études). Son algorithme, sans répit, pousse en avant les vidéos qui heurtent l'émotion, enfermant l'utilisateur vulnérable dans sa bulle. Amnesty International l'a documenté : un ado manifestant une faiblesse passagère se retrouve surexposé à des contenus anxiogènes ou pathologiques douze fois plus que la moyenne. L'effet est insidieux : un glissement subtil, un enfermement progressif.
Sur Snapchat, où la tranche des adolescents domine, "My AI" crée une sorte de symbiose numérique. Une écoute constante, une validation fusionnelle, zéro confrontation. Et c'est exactement le problème.
Cette absence de friction inhibe le développement de compétences psychiques essentielles : la tolérance à la frustration, la gestion du rejet, la négociation des désacords de point de vue... Dans le secret des conversations virtuelles, se dessine un risque redoutable : apprendre à éviter le conflit jusqu'à l'intolérance absolue. La réalité, perdant toute nuance, devient alors insupportable.
Je pense que ce n'est plus seulement une affaire de solitude ou de dépendance légère.
Des psychiatres documentent déjà des troubles alimentés par le chatbot lui-même. La machine répète, valide, conforte chaque pensée délirante au lieu de la questionner. C'est exactement le danger : les gens aiment les IA précisément parce qu'elles semblent vous comprendre vraiment. (Je souligne car j'ai vraiment envie de mettre en évidence cette phrase dans mon article). Mais pour ceux qui souffrent d'un trouble mental, cela amplifie simplement le trouble mental.
Pourtant, on pourrait éviter cela, en encadrant mieux les pratiques. Voici quelques exemples :
- En 2024, un homme belge souffrant d'éco-anxiété s'est suicidé après des semaines de dialogue intense avec son chatbot préféré. Son histoire aurait pu rester un cas isolé, une tragédie parmi tant d'autres.
- En 2025, la mort d'Adam Raine, adolescent américain de 16 ans, a mis en cause explicitement le rôle de ChatGPT. Selon la plainte, le chatbot aurait accompagné sa détresse jusqu'à l'irréparable.
Le problème n'est pas le chatbot en soi. C'est l'usage intensif et isolé qui, dans certains cas, devient le facteur de basculement.
Et la réaction ? Tardive.
OpenAI annonce ajouter des contrôles parentaux et des garde-fous. Mais combien de drames doivent se multiplier avant que l'industrie n'assume vraiment sa responsabilité ? Et d'ailleurs, qui est responsable ?
Face au rouleau-compresseur de l'hyperconnexion automatisée, que faisons-nous ? Ce qui me revient, c'est ce formule simple : l'hygiène numérique. Cultiver la déconnexion choisie. Multiplier les activités sociales hors écran. Diversifier ses sources de contact humain réel.
Rappelez-vous, j'écrivais ceci dans mon billet de Bonne année 2023 : en 2022, j'avais pris une résolution : désactiver toutes les notifications sur mon smartphone (mails pro et perso, réseaux sociaux, applis diverses, ...) à l'exception des SMS et du Téléphone. Et bien je peux vous dire que c'était une excellente chose.
Je ne prêche pas l'interdiction de l'IA, de toute façon, ça ne servira à rien. Mais la contrecarrer par le collectif, la pédagogie et la régulation devient une nécessité.
Et pour celà, tout commence à l'école. Il faut former les élèves à penser au-delà de la boîte noire qu'est l'IA générative, à interroger l'algorithme, à repérer les biais. Leur faire comprendre que, même si la machine semble convaincante, elle ne fait que refléter des probabilités.
Mais la vigilance individuelle ne suffira jamais. L'éthique dès la conception devrait devenir la règle, et non l'exception. Une IA n'est pas une nounou. Encore moins un thérapeute. Les géants du secteur le savent. Sous pression judiciaire croissante, ils commencent à réagir. Mais leur réactivité demeurera toujours inférieure au rythme des maux qui émergent.
Le vrai risque : c'est un problème humain. L'IA n'est qu'un miroir grossissant de nos fragilités comme de nos génies. Elle décuple nos faiblesses autant que nos potentialités. Le véritable risque n'est pas technique, il est profondément humain : perdre la familiarité du désaccord, la chaleur des débats imparfaits, la beauté des liens incertains.
Le pire serait que la technologie, au nom du soulagement individuel, devienne le substitut toxique d'un lien social déjà malmené.
La question n'est plus : "Pourquoi parlerais-je à une machine ?"
Elle est devenue : "Comment preserverai-je mon humanité en parlant à des machines ?"
N'hésitez pas à réagir à cette réflexion.
Je vous mets quelques sources également qui apportent à cette réflexion quelques éléments apportés.
Boîtiers ProArt Wood Edition, Asus propose du bois et une robe Retro Brown
ASUS dévoile de nouveaux coloris pour ses boîtiers ProArt PA401 et PA602 Wood Edition, mêlant naturel et conception durable.
Cet article Boîtiers ProArt Wood Edition, Asus propose du bois et une robe Retro Brown a été publié en premier par GinjFo.
Panther Lake : Intel dévoile sa nouvelle génération de puces gravée en 18A
Intel dévoile Panther Lake, sa nouvelle architecture mobile gravée en 18A. Performance, efficacité et iGPU Xe3, NPU et IPU sont à l’honneur
Cet article Panther Lake : Intel dévoile sa nouvelle génération de puces gravée en 18A a été publié en premier par GinjFo.