Ajouter et exécuter des LLM avec Ollama pour utiliser l’IA en local
Introduction : L’intelligence artificielle, et plus particulièrement les grands modèles de langage (LLM), transforment notre façon de travailler, de créer et d’interagir. De ChatGPT à Claude d’Anthropic en passant par Mistral, les possibilités semblent infinies et de nouvelles entreprises se lancent continuellement. Mais une barrière se dresse souvent : la dépendance aux API cloud, avec leurs coûts, leurs limitations et les questions de confidentialité des données. Et si je vous disais qu’il existe un moyen simple et puissant d’exécuter des LLM open source directement sur votre machine locale ? C’est là qu’intervient Ollama.