Guide : créer son bot IA

Installer Ollama sur son VPS via Docker

Publié le 19/04/2025
serveur image généré pas ia
Dans cet article, nous allons vous guider à travers le processus de configuration de votre serveur VPS et l'installation d'Ollama, ainsi que le téléchargement d'un modèle d'IA. Ces étapes sont essentielles pour préparer votre environnement à l'exécution de bots assistants personnels. Suivez ces instructions pas à pas pour assurer une installation réussie et sécurisée.

Je recommande le guide Hostinger très simple et complet, sinon vous trouverez les étapes ci-dessous. 

Étape 1 : Mettre à Jour les Paquets Système
Avant d'installer un nouveau logiciel, il est crucial de s'assurer que votre VPS est à jour. Cela permet d'éviter les problèmes de compatibilité et garantit une installation fluide. Exécutez les commandes suivantes dans le terminal de votre serveur :
sudo apt update
sudo apt upgrade
  • sudo apt update : Met à jour la liste des paquets disponibles.
  • sudo apt upgrade : Met à niveau les paquets installés avec les dernières versions disponibles.

Étape 2 : Installer les Dépendances Nécessaires
Ollama nécessite certaines dépendances pour fonctionner correctement, notamment Python, Pip et Git. Installez-les en exécutant la commande suivante :
sudo apt install python3 python3-pip git

Vérifiez que l'installation s'est bien déroulée en exécutant :

python3 --version
pip3 --version
git --version

Si votre VPS est équipé d'un GPU NVIDIA, vous aurez besoin de pilotes CUDA supplémentaires pour profiter des performances accrues du GPU. Consultez le guide officiel de NVIDIA pour le téléchargement du CUDA Toolkit pour plus d'informations.

Étape 3 : Télécharger et Installer Docker
Téléchargez le paquet d'installation d'Ollama pour Linux depuis son site officiel en exécutant la commande suivante :

sudo apt install apt-transport-https ca-certificates curl software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
echo "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null
sudo apt update
sudo apt install docker-ce docker-ce-cli containerd.io


Étape 4 : Exécuter Ollama via Docker
Une fois Docker installé, vous pouvez exécuter Ollama en utilisant la commande suivante :

docker run -d -v ollama:/root/.ollama -p 11435:11434 --name ollama ollama/ollama

Nous pouvons vérifier qu'un container est bien actif avec la commande :
docker ps

Et nous devrions voir :
CONTAINER ID   IMAGE           COMMAND               CREATED       STATUS       PORTS                                             NAMES
2XXXXXXXXXXX   ollama/ollama   "/bin/ollama serve"   X hours ago   Up X hours   0.0.0.0:11435->11434/tcp, [::]:11435->11434/tcp   ollama


Étape 5 : Télécharger un Modèle d'IA
Maintenant que Ollama est installé, vous pouvez télécharger un modèle d'IA dans la liste de models LLM disponibles. 
Par exemple, pour télécharger le modèle Llama 3.2, cliquer sur la taille souhaitée entre 1b et 3b, puis exécutez :

docker exec -it ollama ollama pull llama3.2:3b

  • docker exec -it ollama : Exécute une commande dans le conteneur Docker en cours d'exécution nommé "ollama".

  • ollama pull llama3.2:3b : Demande à Ollama de télécharger le modèle Llama 3.2 avec la version 3b.
Pour vérifier que le modèle a été téléchargé correctement, listez les modèles disponibles :

docker exec -it ollama ollama list

Pour vérifier également la bonne installation et configuration, vous pouvez vous rendre sur l'url accessible qui sera http://{ADRESSE IP DU SERVEUR}:{PORT}. Le port était mentionné plus haut via la commande docker ps.

http://XX.XXX.XX.XXX:11435/

On peut y voir inscrit :

Ollama is running


Vous avez maintenant configuré votre serveur VPS et installé Ollama avec succès, ainsi que téléchargé un modèle d'IA. 
Ces étapes vous permettent d'accéder à une multitude d'outils pour affiner et exécuter des grands modèles de langage localement sur votre serveur. 

Dans les prochains articles, nous explorerons comment intégrer ces outils avec n8n pour créer des bots assistants personnels puissants et intelligents.