Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Apple M6 : pourquoi la future puce pourrait arriver bien plus vite que prévu

Alors que l’année 2026 vient de débuter avec l'annonce récente de l'AirTag 2 et que les déclinaisons Pro et Max de la puce M5 sont attendues pour le premier semestre, de nouvelles informations suggèrent qu'Apple pourrait accélérer le déploiement de sa prochaine génération de processeurs. Selon un rapport récent, la puce M6 pourrait faire son apparition plus tôt que les cycles habituels ne le laisseraient supposer.

L’article Apple M6 : pourquoi la future puce pourrait arriver bien plus vite que prévu est apparu en premier sur Tom’s Hardware.

full

thumbnail

Critical Grist-Core Vulnerability Allows RCE Attacks via Spreadsheet Formulas

A critical security flaw has been disclosed in Grist‑Core, an open-source, self-hosted version of the Grist relational spreadsheet-database, that could result in remote code execution. The vulnerability, tracked as CVE-2026-24002 (CVSS score: 9.1), has been codenamed Cellbreak by Cyera Research Labs. "One malicious formula can turn a spreadsheet into a Remote Code Execution (RCE) beachhead,"

China-Linked Hackers Have Used the PeckBirdy JavaScript C2 Framework Since 2023

Cybersecurity researchers have discovered a JScript-based command-and-control (C2) framework called PeckBirdy that has been put to use by China-aligned APT actors since 2023 to target multiple environments. The flexible framework has been put to use against Chinese gambling industries and malicious activities targeting Asian government entities and private organizations, according to Trend Micro

Proton 10.0-4 est disponible, Valve améliore encore le jeu Windows sur Linux

Proton (Valve)Proton est aujourd’hui l’un des éléments centraux de l’écosystème Linux pour le jeu vidéo. Développée par Valve et basée sur Wine, cette couche intégrée à Steam permet d’exécuter des milliers de jeux conçus à l’origine pour Windows sur Linux et SteamOS. Le plus souvent tout ceci se fait sans intervention de l’utilisateur. En clair grâce …

Cet article Proton 10.0-4 est disponible, Valve améliore encore le jeu Windows sur Linux a été publié en premier par GinjFo.

DroidDock - Vos fichiers Android sans galère sur Mac

Transférer des fichiers entre votre Mac et votre téléphone Android, c'est souvent la galère. L'ancien Android File Transfer de Google était une horreur absolue et depuis qu'ils ont arrêté de le maintenir, y'a pas grand-chose de potable. C'est d'ailleurs pour ça que beaucoup d'utilisateurs de Mac ont également un iPhone.

Alors quand je suis tombé sur DroidDock, forcément ça m'a intrigué. C'est une app macOS qui se branche sur votre téléphone via ADB et qui vous permet de naviguer dans les fichiers comme si c'était un Finder amélioré. Vous branchez votre câble USB, vous activez le débogage USB sur votre Android et c'est parti mon kiki !

Et là où c'est pratique c'est que vous pouvez prévisualiser vos images et vidéos directement dans l'app sans avoir à les télécharger d'abord. Vous avez trois modes de vue (grille, liste ou miniatures) et le drag & drop fonctionne dans les deux sens. Vous glissez un fichier depuis votre Mac vers DroidDock, il atterrit sur votre téléphone. Et l'inverse marche aussi.

Le dev a aussi pensé à pas mal de trucs pratiques du genre si vous avez plusieurs appareils Android branchés en même temps, hé bien vous pouvez switcher de l'un à l'autre sans les déconnecter. Y'a aussi un mode sombre pour ceux qui bossent la nuit et une barre de recherche pour farfouiller dans vos dossiers. D'ailleurs si vous utilisez scrcpy pour contrôler votre Android depuis le Mac , DroidDock fait un bon complément pour la partie fichiers.

Sous le capot, ça utilise Tauri avec du Rust et React et l'app est tellement légère qu'elle fonctionnera parfaitement sur un vieux Mac. Le projet est open source sous licence MIT et vous pouvez le télécharger ici : [DroidDock]( https://rajivm1991.github.io/D

Mieux que Google Traduction : cette application française change tout sur iPhone

Après Locally AI, qui permet d'exécuter de petits modèles de langage directement sur iPhone et iPad grâce à la technologie MLX d'Apple, le développeur français Adrien Grondin lance Locally Translate. Cette app exploite le modèle open source TranslateGemma de Google pour traduire 55 langues sans réseau et avec une compréhension du texte. Un joli aperçu du futur de la traduction sur les appareils performants.

GPT-2 comprend les protéines sans jamais les avoir apprises

Des chercheurs viennent de trouver un truc complètement dingue. Un modèle de langage entraîné UNIQUEMENT sur de l'anglais, du texte humain basique quoi, est capable de comprendre la biologie moléculaire sans jamais avoir vu une seule séquence de protéines durant son entraînement.

En gros, GPT-2 qui fait de la paraphrase d'ordinaire est, sans le savoir, un expert en détection d' homologie protéique . Je vous jure que c'est vrai !!

Liang Wang, chercheur à l'Université de Wuhan (les pangolins, tout ça tout ça, loool), a publié une étude sur bioRxiv qui remet en question pas mal de certitudes. L'idée, c'est que la "grammaire" du langage humain et celle du vivant partagent une structure profonde commune. Du coup, un modèle qui apprend à distinguer des phrases qui ont le même sens mais avec des mots dans un ordre différent... développe aussi la capacité de reconnaitre les protéines qui sont de la même "famille".

Perso, ça me retourne le cerveau parce qu'à la base, on parle "juste" d'un petit GPT-2 de 124 millions de paramètres, entraîné sur le dataset PAWS (des paires de phrases anglaises adverses), qui atteint 84% de précision sur la détection d'homologie protéique. Sans jamais avoir vu d'acides aminés ! C'est comme si votre chat, après avoir appris le français, se mettait soudainement à comprendre le chinois.

Et ça devient encore plus fou quand on scale. Les gros modèles comme Qwen-3 atteignent quasiment 100% de précision sur les benchmarks standards, mais le plus impressionnant, c'est leur performance dans la "zone crépusculaire" de l'évolution, là où les séquences protéiques ont moins de 25% d'identité entre elles. Dans ce régime où même les outils spécialisés comme ESM-2 peinent à maintenir leurs performances, les LLM généralistes maintiennent 75% de précision.

Ils raisonnent là où les autres mémorisent !

D'ailleurs, si vous aimez l'actu IA et biologie, vous avez peut-être déjà lu mes articles sur Evo 2 ou SimpleFold d'Apple . Ces outils-là sont entraînés sur des montagnes de données biologiques alors que dans le cas que je vous expose ici, c'est l'inverse. C'est un LLM tout ce qu'il y a de plus classique qui n'a pas BESOIN de ces données spécifiques pour comprendre la structure du vivant (enfin, ça doit encore être bien validé par d'autres équipes mais on verra bien).

Alors vous vous en doutez, curieux, les chercheurs ont analysé ce qui se passe dans la tête du modèle. Certaines " têtes d'attention " du transformer deviennent des détecteurs universels de différences. La même tête qui repère une inversion sujet-objet dans une phrase anglaise va spontanément repérer les mutations d'acides aminés dans une protéine. Et voilà comment la syntaxe du langage humain et la syntaxe de la vie se retrouvent projetées sur le même "manifold" c'est à dire dans la même "surface" géométrique dans l'espace latent du modèle.

Et quand on demande aux gros modèles d'expliquer leur raisonnement via Chain-of-Thought (enchainement de pensées comme ce que propose ChatGPT 5.2 en mode thinking par exemple), ils font du "mental folding". C'est à dire qu'ils imaginent la structure 3D des protéines à partir de la séquence 1D. Le modèle identifie explicitement des motifs structurels comme " Hélice-Coude-Hélice " versus " Tonneau TIM " pour déterminer si deux protéines sont apparentées. Et tout ça sans jamais avoir reçu de coordonnées 3D en entrée.

Pour formaliser tout ça, l'équipe a donc créé BioPAWS, un benchmark qui évalue la capacité des modèles à transférer leur compréhension syntaxique du langage vers l'ADN, l'ARN et les protéines. Le dataset est dispo sur Hugging Face pour ceux qui veulent jouer avec.

Bref, si la grammaire humaine et la grammaire biologique sont vraiment des manifestations d'une même structure universelle, ça change pas mal de choses sur comment on pourrait faire de la découverte scientifique à moindre coût. Plus besoin de datasets monstrueux pour chaque domaine, les patterns abstraits sont peut-être déjà là, encodés dans le langage qu'on utilise tous les jours.

Source

VoxCSS – Pour faire du rendu 3D façon Minecraft avec du CSS

Y'a un truc qui me rend joyeux avec le web, c'est quand des devs décident de pousser les technos dans leurs retranchements juste pour prouver que c'est possible.

Et VoxCSS , c'est totalement ça : une bibliothèque JavaScript qui permet de faire du rendu voxel complet en utilisant uniquement le DOM et le CSS. Alors attention, quand je dis "uniquement", je veux dire sans WebGL et sans l'élément <canvas>. Juste des éléments HTML empilés intelligemment qui tirent parti de l'accélération matérielle du navigateur pour les transformations 3D.

Pour cela, VoxCSS utilise des grilles CSS superposées sur l'axe Z pour créer un espace volumétrique. Chaque niveau de profondeur est une grille CSS classique, décalée avec des translations 3D. Les voxels eux-mêmes sont des cuboïdes HTML composés de plusieurs faces positionnées avec des rotations CSS.

Par défaut, la scène utilise une perspective de 8000px et le fameux transform-style: preserve-3d pour que la magie opère... Un pur hack de génie qui transforme votre navigateur en moteur 3D sans passer par les API habituelles !

Et le rendu n'est pas dégueu du tout puisque le moteur gère les couleurs, les textures, et même différentes formes comme des rampes, des pointes ou des coins pour sortir du simple cube de base. Pour ceux qui se demandent comment ça se passe pour les ombres, VoxCSS simule également un éclairage en jouant sur l'opacité des faces, ce qui donne ce petit relief indispensable au style voxel. Vous pouvez même choisir entre différentes projections (cubique ou dimétrique) pour donner le look que vous voulez à votre scène.

Côté performances, même si on parle de manipuler potentiellement des milliers d'éléments DOM, l'équipe de Layoutit Studio a bien bossé. Y'a un système de "culling" pour ne pas calculer les faces cachées (on n'affiche que la surface extérieure, quoi) et une option de fusion (le mergeVoxels) qui permet de regrouper les cubes adjacents pour alléger la structure HTML. C'est pas activé par défaut, mais c'est indispensable dès que votre château Minecraft commence à prendre de l'embonpoint.

L'installation se fait via

npm install @layoutit/voxcss

La lib est hyper flexible puisqu'elle propose des wrappers pour React, Vue et Svelte, tout en restant utilisable en vanilla JS.

Vous posez votre caméra (<voxcamera>) pour gérer le zoom et la rotation, vous injectez votre scène (<voxscene>), et roule ma poule. Cerise sur le gâteau pour les artistes, VoxCSS inclut un parser pour charger directement vos fichiers .vox créés dans MagicaVoxel.

Si vous voulez tâter la bête sans coder, allez faire un tour sur Layoutit Voxels, l'éditeur qui sert de démo technique. Ils ont aussi sorti Layoutit Terra qui génère des terrains entiers avec la même techno.

Franchement, pour un gros jeu en prod, OK pour du WebGL, mais pour créer des éléments interactifs stylés, des petites scènes 3D ou juste pour la beauté du geste technique, c'est un sacré bel outil.

Et puis, faire de la 3D sans toucher à un seul shader, ça a un petit côté cool je trouve.

❌