Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierFlux principal

Perspective Intelligence - L'IA de votre Mac sort de sa cage

Par : Korben
5 mars 2026 à 09:36

Apple Intelligence, c'est super cool... sauf que c'est verrouillé et dispo sur les appareils Apple uniquement. Du coup, pas moyen d'en profiter depuis votre PC Windows, votre Chromebook ou votre téléphone Android. C'est pour cela qu'un dev a eu une idée plutôt pas con qui consiste à transformer votre Mac en serveur IA accessible depuis n'importe quel navigateur.

Le projet s'appelle Perspective Intelligence Web et le principe c'est que vous installez Perspective Server , ou plutôt une petite app dans la barre de menus de macOS. Et ensuite celle-ci expose les Foundation Models d'Apple (les modèles de langage intégrés à macOS, ceux qui tournent en local sur votre puce M1, M2, M3 ou M4) sous forme d'API compatible OpenAI sur le port 11435. Et voilà comment votre Mac devient un vrai serveur d'inférence IA !

Le client web, c'est du Next.js 16 avec un look à la iMessage, thème sombre, bulles de chat, streaming en temps réel via SSE. Vous vous connectez depuis Chrome sur Windows, Firefox sur Linux, Safari sur iPad... peu importe. Tant que ça affiche une page web, c'est que ça marche !

Et cela vous met à dispo 8 agents spécialisés : code, écriture, traduction, résumés, créativité, tutorat... et même un mode accessibilité. Les conversations sont classées automatiquement et l'historique est stocké dans PostgreSQL (compatible avec le tier gratuit de Neon, donc zéro coût côté BDD).

D'ailleurs l'API de Perspective Server est compatible OpenAI ET Ollama comme ça, vous pouvez aussi brancher Cursor IDE, Continue.dev, ou même Xcode 26 dessus. En gros, tout ce qui sait causer à une API OpenAI peut utiliser l'IA locale de votre Mac. C'est gratos, c'est local, et ça respecte votre vie privée ! Que demande le peuple ?

Si vous avez déjà bidouillé avec Ollama et les modèles locaux , c'est le même genre d'approche... sauf que là ce sont les modèles d'Apple qui font le boulot.

Et côté Apple, faut savoir qu'avec OpenELM en 2024, Apple a commencé à publier certains de ses modèles IA en open source. La différence ici, c'est que les Foundation Models de macOS 26 sont bien plus costauds... et surtout intégrés nativement au système. Ce que fait Perspective Server c'est de les rendre accessibles via une API standard, ce qu'Apple ne propose pas, comme vous pouvez vous douter.

Côté sécurité, le serveur gère les sessions multi-turn avec un TTL de 30 minutes et un système de "guardrail recovery" qui vire les sessions problématiques pour éviter que l'IA parte en vrille. 50 sessions max en parallèle, 3 inférences simultanées... sauf si vous invitez tout le quartier sur l'API, vous serez plutôt à l'aise.

L'installation se fait en une commande curl :

curl -fsSL https://raw.githubusercontent.com/Techopolis/perspective-intelligence-web-community/main/scripts/install.sh | bash

Et éditez ensuite next-app/.env.local avec l'URL de votre base Postgres (DATABASE_URL), puis faites :

cd perspective-intelligence-web-community/next-app && npm install && npx drizzle-kit push && npm run dev

Ouvrez ensuite l'URL http://localhost:3000 , créez vous un compte et vous pouvez commencer à chatter avec l'IA d'Apple.

Voilà, c'est encore jeune mais l'idée est carrément bonne donc à garder dans un coin si vous avez un Mac qui s'ennuie parce que vous avez investi dans un Mac Mini avant de vous rendre compte qu'OpenClaw ça ne servait pas à grand chose ^^ !

LocalProse - L'atelier d'écriture boosté à l'IA locale

Par : Korben
23 février 2026 à 12:37

Si vous écrivez de la fiction et que l'idée de savoir que vos brouillons dorment sur des serveurs américains AWS ça vous donne des boutons, je pense que LocalProse va vous intéresser.

Cet outil c'est un atelier d'écriture créative façon Scrivener , sauf que l'IA générative intégrée tourne entièrement en local sur votre CPU ou votre GPU. Le logiciel est développé en Flutter par Alexandre, un dev indé basé à Montauban qui est un lecteur de korben.info et aussi auteur de roman .

Dans l'outil vous retrouverez pèle mêle un éditeur sans distraction avec timer Pomodoro, de la dictée vocale ou plutôt un mode de capture d'idées mains-libres, un système de gestion d'univers pour organiser vos personnages et décors avec des fiches relationnelles et une fonction d'audit de cohérence narrative.

Comme ça, si votre héros change de couleur de yeux entre le chapitre 3 et le 12, l'outil peut le repérer et vous avertir. C'est hyper pratique ! Côté export, vous avez du DOCX, TXT et PDF en version gratuite, et l'EPUB en plus avec le mode Pro.

Car oui, l'app est gratuite mais les fonctions IA sont dispo en mode Pro (9,90 €/mois ou 99 €/an, après 7 jours d'essai). Elle fonctionne aussi sous Linux et vient aussi d'être publiée sur le Microsoft Store. Par contre, attention, la version macOS exige un Apple Silicon (M1+).

Et côté ressources, comptez entre 8 et 13 Go de stockage pour les modèles IA locaux, plus 16 Go de RAM (à moins que vous soyez sur Apple Silicon, qui gère ça nativement), et idéalement une NVIDIA RTX 8 Go de VRAM pour que ça tourne vraiment bien.

Bref, si vous cherchez un Scrivener avec IA 100% locale, c'est sur localprose.com que ça se passe !

Voilà.

Merci à Alexandre !

❌
❌