Le shadow AI : le nouveau shadow IT que les DSI n'ont pas vu venir
En 2025, le phénomène du shadow AI est devenu la principale préoccupation des équipes IT des entreprises françaises. Selon le rapport Reco 2025, 71 % des employés utilisent des outils d'intelligence artificielle non approuvés par leur direction informatique — ChatGPT, Claude, Gemini, Perplexity, des dizaines d'extensions Chrome. Ces outils sont utilisés pour rédiger des emails, analyser des données clients, résumer des contrats, générer du code.
Le problème n'est pas l'IA elle-même. Le problème est que ces données — contrats clients, données RH, informations financières, code source propriétaire — quittent l'entreprise pour être traitées sur des serveurs américains, sans contrôle sur la rétention des données, sans audit trail, sans politique de sécurité. Pour les entreprises soumises au RGPD, c'est une exposition réelle. Pour les entreprises manipulant des données sensibles (secteur médical, juridique, financier), c'est potentiellement une violation de conformité.
La réponse de nombreuses DSI — bloquer ChatGPT et consorts — crée une frustration sans résoudre le problème de fond : les employés ont besoin de ces outils pour être productifs. La bonne réponse est de leur donner une alternative souveraine.
Ollama : 100 000 étoiles GitHub et une communauté qui explose
C'est exactement le créneau qu'Ollama a occupé. Cet outil open source permet de faire tourner des grands modèles de langage localement sur votre infrastructure — serveur, NAS, workstation. En 2025, Ollama a franchi la barre des 100 000 étoiles sur GitHub, signe d'une adoption massive dans les équipes tech du monde entier.
Son atout principal : une API compatible OpenAI. Cela signifie que n'importe quelle application qui utilise l'API OpenAI peut basculer sur Ollama local en changeant simplement l'URL de base. La migration est transparente pour les développeurs.
Notre setup ADRD : Ollama sur QNAP NAS
Chez ADRD Consulting, nous avons déployé Ollama en production sur notre NAS QNAP (192.168.1.150) via Docker. Notre configuration héberge 3 modèles spécialisés selon les tâches :
| Modèle | Taille | Vitesse | Usage principal |
|---|---|---|---|
| Gemma3 12B | 12B | ~5-8s | Rédaction créative, français, contenu marketing |
| Qwen 2.5 14B (adrd-coder) | 14B | ~15-20s | Code PHP/JS/SQL, debug, génération de scripts |
| Phi4 14B (adrd-brain) | 14B | ~15-20s | Raisonnement, analyse, stratégie, synthèse |
Chaque modèle est accessible via l'API Ollama sur le port 11434. Nous utilisons Open WebUI (port 3000) pour l'interface graphique, qui permet à toute l'équipe d'utiliser ces modèles via un navigateur, sans installation.
Appel API : compatible OpenAI, zéro dépendance externe
// Appel identique à l'API OpenAI — juste l'URL change
$response = file_get_contents('http://192.168.1.150:11434/v1/chat/completions', false,
stream_context_create(['http' => [
'method' => 'POST',
'header' => "Content-Type: application/json\r\n",
'content' => json_encode([
'model' => 'adrd-coder',
'messages' => [
['role' => 'system', 'content' => 'Tu es un expert PHP. Réponds en français.'],
['role' => 'user', 'content' => $prompt]
]
])
]])
);
$result = json_decode($response, true);
$texte = $result['choices'][0]['message']['content'];
0 € de coût API : les économies concrètes
Avant notre migration Ollama, nous dépensions en moyenne 180 € par mois en crédits API (OpenAI + Anthropic) pour nos tâches de développement internes — génération de code, analyse de logs, création de contenu. Depuis le déploiement d'Ollama local, ce coût est tombé à 0 € pour 70 % des tâches. Nous n'utilisons plus les API cloud que pour les tâches vraiment complexes nécessitant les capacités des modèles frontier (GPT-4o, Claude 3.5 Sonnet).
Sur un an, l'économie est de l'ordre de 1 500 € — largement de quoi amortir le NAS si vous en avez un dédié.
Confidentialité totale : aucune donnée ne quitte votre réseau
C'est l'argument qui convainc les décideurs soucieux de conformité RGPD. Avec Ollama local, aucune requête, aucune donnée client, aucun fragment de code propriétaire ne quitte jamais votre infrastructure. Vous pouvez analyser des contrats clients, des données RH, du code source sensible sans aucun risque de fuite vers des serveurs tiers.
Pour les entreprises du secteur médical, juridique ou financier, c'est souvent le seul moyen de pouvoir utiliser l'IA en conformité avec leurs obligations réglementaires.
Mettre en place Ollama dans votre entreprise
ADRD Consulting propose un accompagnement clé en main pour déployer une infrastructure IA locale dans votre entreprise :
- Audit de votre infrastructure existante (NAS, serveur, workstation)
- Sélection et installation des modèles adaptés à vos cas d'usage
- Déploiement Open WebUI avec authentification LDAP/AD
- Formation de vos équipes aux bonnes pratiques du prompting
- Intégration dans vos outils existants (CRM, ERP, workflow)
Arrêtez de subir le shadow AI. Donnez à vos équipes une IA souveraine, performante et gratuite. Contactez-nous pour un audit IA.