Épreuve E6 – 1ère réalisation : Mise en place d’un assistant virtuel pour les collaborateurs de Tripod

1. Contexte

À la suite du blocage de l’utilisation de ChatGPT d’OpenAI par le service cybersécurité, pour des raisons liées à la confidentialité des données, une solution alternative locale et open source a été recherchée.
L’objectif est de continuer à proposer un assistant virtuel efficace aux collaborateurs tout en assurant le respect des règles de sécurité internes.

La solution retenue s’appuie sur les composants suivants :

  • Ollama : gestionnaire de modèles d’intelligence artificielle fonctionnant localement.
  • Open WebUI : interface web utilisateur open source pour interagir avec les modèles IA.
  • Docker : plateforme de conteneurisation facilitant le déploiement.

2. Étapes de mise en œuvre

2.1 Installation d’un système Debian dédié

  • Déploiement d’une machine virtuelle sous Debian 12, sans environnement graphique.
  • Connexion de la machine au réseau d’administration.

Une capture d’écran de l’installation peut être insérée ici.

2.2 Installation de Docker

Docker est utilisé pour déployer les services dans des conteneurs. Il permet une installation rapide, reproductible et isolée des différentes briques logicielles.

➤ Commandes d’installation :

Documentation officielle :
https://docs.docker.com/engine/install/debian/

2.3 Déploiement de l’interface Open WebUI

Open WebUI permet aux utilisateurs d’accéder à l’assistant virtuel depuis un navigateur web.

Téléchargement du conteneur :

docker pull ghcr.io/open-webui/open-webui:ollama

Exécution du conteneur avec redirection de port :

docker run -d -p 3000:8080 -v open-webui:/app/backend/data –name open-webui ghcr.io/open-webui/open-webui:ollama

Documentation :

https://docs.openwebui.com/getting-started/quick-start

2.4 Configuration de l’interface

L’interface est accessible via un navigateur web en saisissant l’adresse IP du serveur, suivie du port 3000.
Exemple : http://192.168.X.X:3000

La configuration avancée s’effectue directement depuis les paramètres internes de l’application.

2.5 Ajout d’un modèle IA via Ollama

Ollama permet de gérer des modèles IA en local. Il est nécessaire de choisir un modèle adapté aux besoins métier depuis la bibliothèque officielle :
https://ollama.com/library

Le modèle sélectionné est ensuite intégré via l’interface Open WebUI.

2.6 Mise en place de l’authentification LDAP

Pour garantir une gestion centralisée des accès, l’authentification LDAP a été activée. Cela permet aux collaborateurs d’utiliser leurs identifiants professionnels habituels pour se connecter à l’assistant.

Procédure de configuration :

  • Accès à la section « Paramètres du serveur » dans l’interface Open WebUI.
  • Activation de l’authentification LDAP.
  • Saisie des informations de connexion au serveur LDAP (adresse, DN de base, filtres, etc.).

Cette intégration permet d’assurer un accès sécurisé, personnalisé et conforme aux politiques de l’entreprise.

3. Résumé des composants techniques

ComposantFonction
Debian 12Système d’exploitation hôte du serveur
DockerConteneurisation des services
Open WebUIInterface utilisateur web pour l’interaction avec l’IA
OllamaGestionnaire de modèles d’intelligence artificielle en local
LDAPSystème d’authentification centralisé pour les collaborateurs