1. Contexte
À la suite du blocage de l’utilisation de ChatGPT d’OpenAI par le service cybersécurité, pour des raisons liées à la confidentialité des données, une solution alternative locale et open source a été recherchée.
L’objectif est de continuer à proposer un assistant virtuel efficace aux collaborateurs tout en assurant le respect des règles de sécurité internes.
La solution retenue s’appuie sur les composants suivants :
- Ollama : gestionnaire de modèles d’intelligence artificielle fonctionnant localement.
- Open WebUI : interface web utilisateur open source pour interagir avec les modèles IA.
- Docker : plateforme de conteneurisation facilitant le déploiement.
2. Étapes de mise en œuvre
2.1 Installation d’un système Debian dédié
- Déploiement d’une machine virtuelle sous Debian 12, sans environnement graphique.
- Connexion de la machine au réseau d’administration.
Une capture d’écran de l’installation peut être insérée ici.
2.2 Installation de Docker
Docker est utilisé pour déployer les services dans des conteneurs. Il permet une installation rapide, reproductible et isolée des différentes briques logicielles.
➤ Commandes d’installation :
Documentation officielle :
https://docs.docker.com/engine/install/debian/
2.3 Déploiement de l’interface Open WebUI
Open WebUI permet aux utilisateurs d’accéder à l’assistant virtuel depuis un navigateur web.
Téléchargement du conteneur :
docker pull ghcr.io/open-webui/open-webui:ollama
Exécution du conteneur avec redirection de port :
docker run -d -p 3000:8080 -v open-webui:/app/backend/data –name open-webui ghcr.io/open-webui/open-webui:ollama
Documentation :
https://docs.openwebui.com/getting-started/quick-start
2.4 Configuration de l’interface
L’interface est accessible via un navigateur web en saisissant l’adresse IP du serveur, suivie du port 3000.
Exemple : http://192.168.X.X:3000
La configuration avancée s’effectue directement depuis les paramètres internes de l’application.
2.5 Ajout d’un modèle IA via Ollama
Ollama permet de gérer des modèles IA en local. Il est nécessaire de choisir un modèle adapté aux besoins métier depuis la bibliothèque officielle :
https://ollama.com/library
Le modèle sélectionné est ensuite intégré via l’interface Open WebUI.
2.6 Mise en place de l’authentification LDAP
Pour garantir une gestion centralisée des accès, l’authentification LDAP a été activée. Cela permet aux collaborateurs d’utiliser leurs identifiants professionnels habituels pour se connecter à l’assistant.
Procédure de configuration :
- Accès à la section « Paramètres du serveur » dans l’interface Open WebUI.
- Activation de l’authentification LDAP.
- Saisie des informations de connexion au serveur LDAP (adresse, DN de base, filtres, etc.).
Cette intégration permet d’assurer un accès sécurisé, personnalisé et conforme aux politiques de l’entreprise.
3. Résumé des composants techniques
Composant | Fonction |
Debian 12 | Système d’exploitation hôte du serveur |
Docker | Conteneurisation des services |
Open WebUI | Interface utilisateur web pour l’interaction avec l’IA |
Ollama | Gestionnaire de modèles d’intelligence artificielle en local |
LDAP | Système d’authentification centralisé pour les collaborateurs |