Llamafile - Exécutez des modèles de langage en un seul fichier !
Introduction : Llamafile fusionne llama.cpp et Cosmopolitan Libc pour transformer des modèles de langage (4GB+) en exécutables standalone qui tournent sans dépendances sur Windows, macOS, Linux et FreeBSD. La v0.10 (mars 2026) ajoute trois modes d’utilisation (TUI/CLI/serveur), le support multimodal avec images, et des gains de perf CPU jusqu’à 10x grâce aux optimisations de Justine Tunney, même sur Raspberry Pi. Mozilla.ai maintient activement le projet avec un build system modulaire qui suit les dernières versions de llama.cpp, permettant de supporter les nouveaux modèles dès leur sortie.
Extrait : Bonne nouvelle, le projet est loin d’être mort puisque la version 0.10 vient de sortir (mars 2026) et elle apporte pas mal de changements. Déjà, le projet a migré de Mozilla Ocho vers Mozilla.ai , ce qui montre que Mozilla prend le truc au sérieux côté IA.
https://korben.info/llamafile-executez-modeles-langage-fichier.html