⚙️
Tools Box
IA & LLM
🤖IA & LLM
Gratuit

Ollama

Runtime open-source pour faire tourner des LLMs en local sur ton Mac, PC ou serveur. CLI simple : ollama run llama3.1, et tu as un LLM en local en 30 secondes.

Pas encore de fiche détaillée

Ollama est dans la base mais sans fiche actionnable pour l'instant. Je l'écris quand l'outil monte en priorité.

Cas d'usage

LLMs locaux pour données sensibles (RGPD, juridique, médical), prototypage offline, app embarquée avec IA, dev sans coût API, conformité souveraine, lab IA personnel.