Open WebUI - homedomotique -

Aller au contenu

Menu principal

Open WebUI

Serveur


Open WebUI : l'interface Web du LLM




Introduction

Open WebUI, anciennement connu sous le nom d'Ollama WebUI, est une interface Web auto-hébergée extensible, riche en fonctionnalités et conviviale, conçue pour fonctionner entièrement hors ligne. Elle prend en charge divers exécuteurs de modèles de langage volumineux (LLM), ce qui en fait un outil polyvalent pour le déploiement et l'interaction avec les modèles de langage.

Open WebUI fournit une interface de type ChatGPT, permettant aux utilisateurs de discuter avec des serveurs distants exécutant des modèles de langage. Cette interface utilisateur Web est particulièrement utile pour ceux qui souhaitent exécuter des modèles de langage localement ou dans un environnement auto-hébergé, garantissant ainsi la confidentialité et le contrôle des données.


Concepts

Extensibilité et fonctionnalités

Open WebUI a été conçu dans un souci d'extensibilité. Il prend en charge plusieurs exécuteurs LLM, ce qui signifie qu'il peut être configuré pour fonctionner avec différents modèles et frameworks de langage. Cette flexibilité permet aux utilisateurs de choisir le meilleur modèle pour leurs besoins spécifiques. L'interface utilisateur Web est conçue pour être conviviale, avec une interface claire qui facilite l'interaction avec les modèles.

Fonctionnement auto-hébergé et hors ligne
L'une des principales caractéristiques d'Open WebUI est sa capacité à fonctionner entièrement hors ligne. Cela est particulièrement important pour les utilisateurs soucieux de la confidentialité et de la sécurité des données. En exécutant l'interface utilisateur Web localement, les utilisateurs peuvent s'assurer que leurs données ne sont pas envoyées à des serveurs externes. Cette approche auto-hébergée offre également un meilleur contrôle sur le déploiement et la gestion des modèles linguistiques.


Développement axé sur la communauté

Open WebUI est un projet communautaire, ce qui signifie qu'il bénéficie des contributions et des commentaires d'un groupe diversifié d'utilisateurs et de développeurs. Cette approche collaborative permet de garantir que l'interface utilisateur Web continue d'évoluer et de s'améliorer au fil du temps, en intégrant de nouvelles fonctionnalités et en résolvant les problèmes qui surviennent.


Usage

Installation et configuration

Pour commencer à utiliser Open WebUI, les utilisateurs doivent installer le logiciel nécessaire et configurer leur environnement. Le processus d'installation implique généralement la configuration de Docker, car Open WebUI s'exécute dans un conteneur Docker. Cela garantit que l'interface utilisateur Web est isolée du système hôte et peut être facilement gérée.

Installer Docker : assurez-vous que Docker est installé sur votre système. Docker offre un moyen pratique de créer des packages et d'exécuter des applications dans des conteneurs isolés.fonctionnalités et conviviale, conçue pour fonctionner entièrement hors ligne. Elle prend en charge divers exécuteurs de modèles de langage volumineux (LLM), ce qui en fait un outil polyvalent pour le déploiement et l'interaction avec les modèles de langage.

Open WebUI fournit une interface de type ChatGPT, permettant aux utilisateurs de discuter avec des serveurs distants exécutant des modèles de langage. Cette interface utilisateur Web est particulièrement utile pour ceux qui souhaitent exécuter des modèles de langage localement ou dans un environnement auto-hébergé, garantissant ainsi la confidentialité et le contrôle des données.

Lancer Open WebUI : utilisez les commandes Docker pour extraire l'image Open WebUI et démarrer le conteneur (instructions ci-dessous). Cela configurera l'interface utilisateur Web et la rendra accessible via un navigateur Web.




# Si Ollama est sur votre ordinateur, utilisez cette commande :

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

# Si Ollama est sur un autre serveur, utilisez cette commande :
# Pour vous connecter à Ollama sur un autre serveur, remplacez OLLAMA_BASE_URL par l'URL du serveur :


docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

# Pour exécuter Open WebUI avec la prise en charge du GPU Nvidia, utilisez cette commande :

docker run -d -p 3000:8080 --gpus tous --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart toujours ghcr.io/open-webui/open-webui:cuda


Créer un compte administrateur : le premier utilisateur à s'inscrire sur Open WebUI bénéficiera de privilèges d'administrateur. Ce compte disposera d'un contrôle complet sur l'interface utilisateur Web, y compris la possibilité de gérer d'autres utilisateurs et de configurer les paramètres.


Inscription à Open WebUI


Connexion aux modèles de langage

Une fois Open WebUI opérationnel, les utilisateurs peuvent le connecter à différents modèles de langage. Cela implique de configurer l'interface utilisateur Web pour communiquer avec les serveurs exécutant les modèles.

Configurer Ollama : Configurez vos instances Ollama auxquelles Open WebUI se connectera. Cela peut impliquer de spécifier les adresses de serveur.


Ouvrir les paramètres de l'interface Web



Configurer OpenAI (facultatif) : définissez la clé API OpenAI. Cela permet à Open WebUI de se connecter directement à OpenAI.


Ouvrir les paramètres de l'interface Web

Démo

Pour démontrer les capacités d'Open WebUI, examinons un exemple simple de configuration et d'utilisation de l'interface utilisateur Web pour interagir avec un modèle de langage.

Accéder à l'interface utilisateur Web : ouvrez un navigateur Web et accédez à l'adresse où Open WebUI est exécuté. Vous serez invité à créer un compte administrateur si c'est la première fois que vous accédez à l'interface utilisateur Web.


Ouvrir la connexion à l'interface Web

Démarrer une session de chat : Une fois connecté, vous pouvez démarrer une session de chat avec le modèle de langage. L'interface est conçue pour être intuitive, avec un champ de saisie de texte pour saisir vos requêtes et une fenêtre de chat pour afficher les réponses du modèle.


Page d'accueil de l'interface Web ouverte



Ouvrir l'interface Web Sélectionner un modèle

Gérer les paramètres : en tant qu'administrateur, vous avez accès à divers paramètres et configurations. Vous pouvez ajouter ou supprimer des instances de modèle, ajuster les paramètres d'équilibrage de charge et gérer les comptes d'utilisateurs.


Ouvrir les paramètres d'administration de l'interface Web

Conclusion

Open WebUI, l'interface utilisateur Web d'Ollama, est un outil puissant et flexible permettant d'interagir avec des modèles de langage dans un environnement auto-hébergé. Son extensibilité, son interface conviviale et son fonctionnement hors ligne en font un choix idéal pour les utilisateurs qui accordent de l'importance à la confidentialité et au contrôle des données. En exploitant les capacités d'Open WebUI, les utilisateurs peuvent déployer et gérer facilement des modèles de langage, garantissant ainsi des performances optimales et une expérience utilisateur fluide.

Que vous soyez chercheur, développeur ou passionné, Open WebUI fournit les outils dont vous avez besoin pour exploiter la puissance des modèles de langage de manière sécurisée et efficace. Grâce à son développement axé sur la communauté et à ses fonctionnalités robustes, Open WebUI est sur le point de devenir une solution de premier plan pour les interfaces de modèles de langage auto-hébergées.


 
 
 
 
 




____________________________




Haut de page

Retourner au contenu | Retourner au menu