Orla - L'outil CLI qui transforme votre terminal en assistant IA local
Ce qui est super relou avec les assistants IA en ligne, c'est qu'on doit leur faire confiance avec nos données. On tape une question, ça part dans le cloud, et on espère que personne ne stocke nos conversations sur la recette secrète du cassoulet de mémé.
Bah ça, c'est fini les amis !
Car Orla est là et c'est un outil en ligne de commande qui fait tourner des agents directement sur votre machine via Ollama . Pas de cloud, pas d'abonnement, pas de données qui partent on ne sait où. Juste votre CPU (ou GPU) qui bosse en local.
Orla - Dead-simple local AI agents ( Source )
Petit fun fact, en cherchant des infos pour écrire cet article, j'ai découvert que "Orla", ça voulait dire " prépuce " en hébreu... Hé ouais, je sais pas si le dev a capté ou pas mais fallait le préciser ^^.
L'installation sous macOS c'est :
brew install --cask dorcha-inc/orla/orla
Sous Linux ou si vous préférez le script :
curl -sSL https://raw.githubusercontent.com/dorcha-inc/orla/main/install.sh | bash
Et hop, c'est prêt.
Du coup, une fois installé, vous lancez votre première requête comme ça :
orla agent "Explique-moi les design patterns en Go"
Bref, deux mots et votre terminal se transforme en prof particulier. Mais là où ça devient vraiment sympa, c'est avec les pipes Unix. Vous pouvez balancer n'importe quoi à Orla :
cat mon_code.go | orla agent "Trouve les bugs potentiels"
git diff | orla agent "Rédige un message de commit"
Perso, c'est ce genre de trucs qui me fait kiffer car on retrouve la philosophie Unix avec des petits outils qui font une chose et qui la font bien, et surtout qu'on peut chaîner à l'infini.
Orla en action - simple et efficace ( Source )
Et le truc qui tue, c'est le mode serveur MCP. Vous lancez orla serve et paf, votre assistant local devient compatible avec Claude Desktop, Cursor, et tous les outils qui supportent le protocole MCP. C'est comme si vous aviez
votre propre backend IA
prêt à servir n'importe quelle interface.
Côté modèles, Orla supporte tout ce que propose Ollama : Llama, Mistral, Qwen, DeepSeek... Vous choisissez avec --model et c'est parti. Par défaut c'est qwen3, mais rien ne vous empêche de tester les modèles spécialisés code comme qwen3-coder.
Le projet embarque aussi un système de registre d'outils. Un orla tool install fs et hop, votre assistant peut lire et écrire des fichiers. Et comme vous pouvez créer vos propres outils, vous pouvez comme ça, ajouter des capacités modulaires à activer selon vos besoins.
Ce qui me plaît vraiment avec Orla, c'est donc cette philosophie où l'IA reste un outil que vous possédez, et pas un service que vous louez. Le projet est encore jeune bien sûr, mais activement maintenu et tourne sur macOS, Linux et Windows.
Mais si vous cherchez un moyen simple de bricoler avec des agents IA sans passer par les GAFAM, Orla c'est à tester !
