Cours
Les flux de travail modernes basés sur l'IA s'appuient souvent sur des API cloud. Cependant, que faire si vous souhaitez un système qui fonctionne entièrement sur votre machine, préserve la confidentialité des données et prend tout de même en charge les workflows multi-étapes des agents ?
Dans ce tutoriel, vous allez créer une application d'exécution d'IA locale où :
- Une interface web reçoit les demandes des utilisateurs et les fichiers.
- OpenClaw coordonne le flux de travail et exécute les outils locaux
- Ollama fournit le LLM local pour le raisonnement et les résumés.
- Toutes les sorties sont enregistrées sur disque et peuvent être prévisualisées à tout moment.
Ce modèle est particulièrement utile pour les analyses privées, les outils internes et tout flux de travail où les données doivent rester sur l'appareil. Si vos données comprennent des rapports financiers sensibles, des documents juridiques ou des dossiers clients, les solutions d'IA dans le cloud peuvent ne pas être acceptables.
Cette configuration offre le même comportement intelligent en plusieurs étapes, tout en conservant toutes les données et le traitement sous votre contrôle local.
Grâce aux intégrations de canaux d'OpenClaw, le même système local peut également être étendu à des interfaces telles que WhatsApp ou Slack, permettant ainsi un accès sécurisé à vos flux de travail depuis des environnements familiers.
Pourquoi utiliser OpenClaw avec Ollama ?
L'exécution d'OpenClaw avec un modèle Ollama local transforme votre système en un environnement d'IA autonome. Au lieu d'envoyer des invites et des données à des API externes, l'ensemble du flux de travail, y compris le raisonnement, l'accès aux fichiers et la génération d'artefacts, s'exécute sur votre machine.
Cette configuration offre plusieurs avantages pratiques :
- Confidentialité dès la conception : Tous les ensembles de données, documents et résultats intermédiaires sont conservés sur l'appareil. Aucune information n'est transmise à des services externes.
- Transparence et contrôle complets : Chaque étape est vérifiable, depuis la commande slash envoyée à OpenClaw jusqu'aux fichiers générés et à la trace d'exécution.
- Fonctionnement hors ligne : Une fois le modèle téléchargé via Ollama, le système fonctionne sans connexion Internet.
- Exécution de type agent : Une seule demande utilisateur peut déclencher un flux de travail en plusieurs étapes au lieu d'une simple réponse textuelle.
Ce tutoriel se concentre sur la création d'une architecture d'agent local, dans laquelle OpenClaw agit comme moteur d'exécution et Ollama fournit la couche de raisonnement.
Tutoriel OpenClaw Ollama : Développer un analyste de données local
Dans cette section, nous allons créer une application Local Data Analyst qui s'exécute entièrement sur votre machine à l'aide d'OpenClaw et d'un modèle Ollama local. À un niveau élevé, le système remplit trois tâches principales :
- Accepter un ensemble de données CSV de la part de l'utilisateur
- Il est également possible d'ingérer des documents contextuels (PDF, TXT ou Markdown).
- Exécutez un workflow d'analyse en plusieurs étapes pour générer des informations et des visualisations.
Le système génère trois artefacts de sortie :
trend_chart.pnganalysis_report.mdtool_trace.json
En arrière-plan, le flux de travail est coordonné par trois composants :
- Interface Web (
web_assistant.py) : Ce fichier Python gère les téléchargements de fichiers, crée un répertoire d'exécution et envoie une commande slash à OpenClaw. - Agent OpenClaw : L'agent OpenClaw charge la compétence de l'espace de travail, exécute des commandes locales à l'aide d'outils et utilise des LLM locaux hébergés via Ollama pour le raisonnement et la synthèse.
- Moteur d'analyse (
main.py) : Ce fichier lit l'ensemble de données, détermine les colonnes pertinentes, génère des graphiques et des informations, puis enregistre tous les résultats sur le disque.
Une fois le flux de travail terminé, l'interface Web affiche un aperçu des artefacts générés, permettant à l'utilisateur de visualiser les résultats et la trace d'exécution.
Étape 1 : Veuillez installer OpenClaw.
Avant de créer le flux de travail Local Data Analyst, il est nécessaire que OpenClaw Gateway soit installé et opérationnel sur votre ordinateur. Considérez OpenClaw comme la couche d'exécution de ce projet, qui reçoit les requêtes de l'interface utilisateur Web, charge la compétence de l'espace de travail, exécute les outils locaux (tels que les commandes shell et les scripts Python) et coordonne l'ensemble du flux de travail de bout en bout.
curl -fsSL https://openclaw.ai/install.sh | bash
openclaw onboard --install-daemon
Cette commande installe l'interface CLI OpenClaw, exécute l'assistant d'intégration pour configurer l'environnement local et configure le démon de passerelle afin qu'il puisse être démarré et arrêté facilement. Bien que nous exécutions la passerelle en avant-plan pour cette démonstration, l'installation du démon garantit une configuration standard et facilite le dépannage.
Vérifions maintenant que tout fonctionne correctement :
openclaw doctor
openclaw gateway status
Le rapport d'installation d'OpenClaw ( OpenClaw doctor ) indique que OpenClaw est correctement installé. La commande ` OpenClaw gateway status ` vous indique si la passerelle est actuellement en cours d'exécution. À ce stade, il se peut que le message « ne fonctionne pas » s'affiche, mais cela n'est pas préoccupant. Le point essentiel est que la commande fonctionne et que l'installation est reconnue.
Si vous souhaitez obtenir des instructions détaillées sur chaque option d'intégration (canaux, authentification, compétences, sécurité de la passerelle), veuillez vous référer au tutoriel OpenClaw pour une configuration complète étape par étape.
Étape 2 : Veuillez installer Ollama.
Ensuite, nous allons configurer Ollama, qui servira de backend LLM local pour ce projet. OpenClaw continuera à coordonner le flux de travail, mais lorsqu'il aura besoin de l'intelligence du modèle pour la synthèse ou le raisonnement, il fera appel aux LLM via Ollama.
Veuillez exécuter les commandes suivantes :
brew install ollama
ollama serve
ollama pull qwen3:8b
Les commandes ci-dessus permettent d'installer le runtime Ollama, de démarrer le serveur de modèle local avec lequel OpenClaw communiquera et de télécharger le modèle qwen3:8b. Nous utilisons qwen3:8b car il offre un bon équilibre entre performances et qualité pour la plupart des ordinateurs portables, mais vous pouvez choisir un modèle différent en fonction des ressources de votre système. Vous pouvez également consulter ce guide de configuration fourni par Ollama.
Étape 3 : Configurer OpenClaw
Ensuite, nous devons configurer OpenClaw pour qu'il utilise l'instance Ollama locale. Cela garantit que tous les raisonnements, résumés et analyses sont effectués entièrement sur votre machine, sans aucun appel API externe.
Veuillez créer un répertoire de configuration local :
mkdir -p .openclaw-local
Veuillez ensuite créer le fichier :
.openclaw-local/openclaw.json
{
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama-local",
"api": "openai-completions",
"models": [
{
"id": "qwen3:8b",
"name": "qwen3:8b",
"reasoning": false,
"input": ["text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 131072,
"maxTokens": 8192
}
]
}
}
},
"agents": {
"defaults": {
"model": { "primary": "ollama/qwen3:8b" }
}
},
"tools": {
"web": {
"search": { "enabled": false },
"fetch": { "enabled": true }
}
}
}
La configuration ci-dessus définit trois composants clés :
baseUrlpointe vers le point de terminaison API local exposé parollama serve, tandis que le paramètreapi: openai-completionsactive la communication compatible avec OpenAI. L'enregistrement du modèle pour qwen3:8b précise ses capacités, notamment une grande fenêtre contextuelle de 131 Ko pour traiter des ensembles de données volumineux et une limite de jetons pour contrôler les réponses. Étant donné que le modèle fonctionne localement, toutes les valeurs de coût sont définies sur zéro.- La section «
agent defaults» (Modèle de raisonnement) permet de contrôler le modèle utilisé par les agents OpenClaw pour le raisonnement. En définissant le modèle principal surollama/qwen3:8b, toutes les tâches de l'agent, telles que l'interprétation des invites, la génération de résumés ou le raisonnement sur les données, sont automatiquement acheminées vers le modèle Ollama local sans nécessiter d'appels API externes. - La configuration de l'outil gère les fonctionnalités externes telles que la recherche sur le Web, qui est désactivée afin de garantir la confidentialité et d'empêcher les requêtes sortantes. L'outil de récupération reste activé pour la récupération de ressources limitées lorsque cela est nécessaire.
Ensemble, ces paramètres garantissent que l'ensemble du flux de travail s'exécute de manière privée sur votre machine, OpenClaw se chargeant de l'orchestration et Ollama fournissant l'intelligence locale.
Étape 4 : Définir la compétence relative à l'espace de travail
Dans cette étape, nous définissons la compétence de l'espace de travail qui indique à OpenClaw comment exécuter notre flux de travail. Au lieu de nous appuyer sur le modèle pour planifier l'utilisation des outils, nous utilisons le mode de répartition des commandes, qui permet à une commande slash de déclencher directement une commande d'exécution locale, ce qui accélère le flux de travail et le rend entièrement local.
Veuillez créer lefichier suivant SKILL.md dans votre espace de travail :
---
name: local-data-analyst
description: Local Data Analyst: analyze private local data with Ollama, generate chart/report, and keep all data on-device.
user-invocable: true
command-dispatch: tool
command-tool: exec
command-arg-mode: raw
---
Invoke as /local-data-analyst <raw command>.
This skill bypasses model planning and dispatches raw command text directly to the exec tool.
Use this exact command template in this workspace:
python3 /……/main.py --docs-dir <context_dir> --data-file <data_file> --output-dir <output_dir> --prompt "<prompt>" --use-ollama --model qwen3:8b
Expected outputs under <output_dir>:
- trend_chart.png
- analysis_report.md
- tool_trace.json
Cette configuration de compétences détermine la manière dont OpenClaw exécute l'analyse :
- La partie introductive (un bloc de métadonnées structuré situé tout en haut d'un fichier) définit une compétence pouvant être invoquée par l'utilisateur, nommée
local-data-analyst, qui devient disponible sous la forme de la commande slash/local-data-analyst. - Une commande slash est la méthode utilisée par OpenClaw pour déclencher des actions structurées à partir du chat ou de l'interface utilisateur.
- Le paramètre
command-dispatch: toolactive le mode d'envoi de commandes, dans lequel OpenClaw achemine directement la commande vers un outil au lieu de demander au modèle de déterminer l'action à entreprendre. - Avec
command-arg-mode: raw, la chaîne de commande complète est transmise telle quelle à l'outilexec, garantissant ainsi une exécution prévisible. - La commande exécute le script local
main.py, qui : - Charge l'ensemble de données et les documents contextuels facultatifs.
- Utilise
Ollama (qwen3:8b)pour le raisonnement et les résumés - Génère trois artefacts, y compris un graphique, un rapport de réduction et une trace d'exécution de l'outil.
Ainsi, OpenClaw gère l'orchestration et l'exécution, tandis qu'Ollama assure le raisonnement local. Dans l'étape suivante, nous relierons cette compétence à une interface Web afin que les utilisateurs puissent télécharger des données et déclencher l'analyse en une seule action.
Étape 5 : Créer une interface web
À ce stade, nous disposons déjà de deux éléments essentiels fonctionnant sur une compétence OpenClaw Workspace et un backend de modèle local (Ollama) qui fournit le raisonnement. Nous avons maintenant besoin d'une interface légère qui vous permette de télécharger des fichiers et de lancer des exécutions sans avoir à utiliser le terminal à chaque fois.
Le fichier web_assistant.py agit comme un serveur frontal léger qui :
- Accepte les téléchargements de fichiers,
- Crée un répertoire d'exécution isolé pour chaque exécution.
- Crée une commande slash OpenClaw qui pointe vers les fichiers sur le disque,
- Appelle l'agent OpenClaw localement,
- Attend les sorties,
- Renvoie des artefacts prêts à être prévisualisés au navigateur.
Le choix de conception principal ici est que le serveur web n'exécute jamais lui-même la logique d'analyse. Il délègue toutes les tâches à OpenClaw, ce qui permet de conserver une interface utilisateur simple.
Étape 5.1 : Création de la commande slash
L'objectif ici est de produire une chaîne unique qu'OpenClaw peut recevoir comme message de chat, par exemple : /local-data-analyst python3 ... --data-file ... --output-dir …
def build_slash_command(
data_path: Path,
docs_dir: Path,
output_dir: Path,
prompt: str,
model: str,
x_col: str,
y_col: str,
) -> str:
args = [
"python3",
str(BASE_DIR / "src" / "main.py"),
"--docs-dir", str(docs_dir),
"--data-file", str(data_path),
"--output-dir", str(output_dir),
"--prompt", prompt,
"--use-ollama",
"--model", model,
]
if x_col:
args.extend(["--x-column", x_col])
if y_col:
args.extend(["--y-column", y_col])
raw = " ".join(shlex.quote(a) for a in args)
return f"/local-data-analyst {raw}"
La fonction ` build_slash_command() ` prépare l'instruction exacte qui sera envoyée à OpenClaw. Au lieu d'exécuter directement l'analyse, l'application web construit une commande slash structurée qu'OpenClaw peut acheminer vers la compétence appropriée de l'espace de travail. Cette fonction remplit quatre tâches principales :
- La liste
argsdéfinit l'appel CLI verssrc/main.py. Il s'agit de la même commande que celle que vous pourriez exécuter manuellement à partir du terminal. - Les indicateurs
--x-columnet--y-columnne sont ajoutés que lorsqu'ils sont fournis. Si ces valeurs sont manquantes, le script d'analyse peut automatiquement déduire les colonnes à partir de l'ensemble de données. - L'appel à l'
shlex.quote()n échappe aucun argument, y compris l'invite utilisateur. Ceci est essentiel pour gérer les espaces et les caractères spéciaux et empêche les risques d'injection de commande lors du transfert des entrées utilisateur vers une commande shell.
La fonction renvoie une chaîne commençant par : /local-data-analyst. Ce préfixe correspond au nom de la compétence défini dans SKILL.md. Lorsque OpenClaw reçoit cette commande slash, il achemine immédiatement la requête vers la compétence de l'espace de travail local-data-analyst, qui exécute ensuite la commande à l'aide de l'outil exec.
Étape 5.2 : Exécution d'OpenClaw
Maintenant que nous disposons de la commande slash, nous l'envoyons à OpenClaw à l'aide du CLI agent runner. C'est ici que l'application web transfère l'exécution.
slash_message = build_slash_command(
data_path=data_path,
docs_dir=docs_dir,
output_dir=output_dir,
prompt=prompt,
model=model,
x_col=x_col,
y_col=y_col,
)
agent_cmd = [
"openclaw", "agent",
"--local",
"--session-id", f"stealth-web-{run_id}",
"--message", slash_message,
"--timeout", "120",
]
proc = subprocess.run(agent_cmd, capture_output=True,
text=True, env=openclaw_env())
L'invocation de l'agent OpenClaw constitue le point de transfert où l'application web cesse de fonctionner et demande à OpenClaw d'exécuter le flux de travail de bout en bout.
- L'utilisation de
--localgarantit que l'exécution reste sur votre machine et que l'agent traite la demande via votre passerelle locale et le modèle soutenu par Ollama plutôt que via un service hébergé. - Le drapeau `
--session-id stealth-web-{run_id}` attribue à chaque exécution son propre espace de noms de session isolé, ce qui empêche le débordement d'état entre les exécutions et facilite le débogage ultérieur d'une exécution spécifique. - L'argument
--messagetransmet la chaîne de commande slash exactement comme si un utilisateur l'avait saisie dans le chat ; OpenClaw la reçoit, la transmet à la compétence/local-data-analystet exécute la commande sous-jacente via l'outilexec. - Enfin,
--timeout 120sert de soupape de sécurité afin que l'interface utilisateur Web ne se bloque pas indéfiniment si l'analyse est interrompue, etenv=openclaw_env()oblige le sous-processus à utiliser la configuration OpenClaw locale de votre projet et le répertoire d'état afin qu'il cible systématiquement la configuration Ollama prévue.
Dans l'étape suivante, nous chargerons les artefacts générés, notamment un graphique, un rapport et une trace d'outil, et nous afficherons des aperçus allégés dans le navigateur.
Étape 5.3 : Configuration du serveur
Enfin, web_assistant.py exécute un petit serveur HTTP local afin que vous puissiez interagir via le navigateur.
def main() -> int:
host = "127.0.0.1"
port = 8765
server = ThreadingHTTPServer((host, port), Handler)
print(f"Local Data Analyst web UI: http://{host}:{port}")
print("Press Ctrl+C to stop.")
try:
server.serve_forever()
except KeyboardInterrupt:
pass
return 0
Cela simplifie le déploiement :
ThreadingHTTPServerpermet d'effectuer plusieurs requêtes sans bloquer l'ensemble de l'application.- Tout le « travail réel » s'effectue dans l'
Handler, qui reçoit les téléchargements, crée des dossiers d'exécution, déclenche OpenClaw et renvoie des aperçus.
Remarque : Le code complet de l'implémentation d'web_assistant.py est disponible dans le dépôt GitHub du projet.
Étape 6 : Développer le moteur d'analyse local
À ce stade, OpenClaw est déjà en mesure d'exécuter le workflow via la compétence workspace, et l'interface utilisateur web peut déclencher des exécutions via une commande slash. Le dernier élément est le moteur d'analyse qui traite les fichiers que vous avez téléchargés, exécute les étapes du flux de travail et produit les artefacts.
Le fichier main.py de ce référentiel se concentre sur deux fonctions qui définissent le cœur du pipeline, à savoir le chargement des données tabulaires et l'appel à Ollama pour le raisonnement local.
Étape 6.1 : Chargement des données tabulaires
Cet assistant prend en charge plusieurs formats d'entrée tout en conservant la cohérence du flux de travail.
def load_tabular_data(data_path: Path, events: List[SkillEvent]) -> pd.DataFrame:
ext = data_path.suffix.lower()
if ext == ".csv":
df = pd.read_csv(data_path)
elif ext in {".tsv", ".tab"}:
df = pd.read_csv(data_path, sep="\t")
elif ext in {".json", ".jsonl"}:
try:
df = pd.read_json(data_path)
except ValueError:
df = pd.read_json(data_path, lines=True)
elif ext in {".xlsx", ".xls"}:
df = pd.read_excel(data_path)
else:
raise ValueError(f"Unsupported data file...")
log_event(events, "fs", "read", f"Loaded data file: {data_path.name}")
return df
La fonction ` load_tabular_data() ` détecte le type de fichier à l'aide de ` data_path.suffix ` et le redirige vers le chargeur pandas approprié. Les fichiers CSV et TSV sont traités à l'aide de read_csv(), tandis que les fichiers TSV/tabulent changent simplement le délimiteur en \t. Les entrées JSON sont traitées à l'aide de read_json() en premier lieu, et si pandas renvoie une erreur ValueError, le système revient à lines=True pour JSONL. La prise en charge de Excel est ajoutée via read_excel() afin que les utilisateurs puissent télécharger des fichiers .xlsx sans prétraitement.
Enfin, l'appel d'log_event() enregistre une entrée de trace structurée que le pipeline peut ensuite sérialiser dans tool_trace.json.
Étape 6.2 : Intégration d'Ollama
Étant donné que cette démonstration ne repose pas sur un SDK, elle fait directement appel à l'API HTTP locale d'Ollama.
def ollama_generate(model: str, prompt: str) -> str:
url = "http://localhost:11434/api/generate"
payload = json.dumps({
"model": model,
"prompt": prompt,
"stream": False
}).encode("utf-8")
req = request.Request(url, data=payload,
headers={"Content-Type": "application/json"})
with request.urlopen(req, timeout=45) as resp:
body = json.loads(resp.read().decode("utf-8"))
return str(body.get("response", "")).strip()
La fonction ollama_generate() envoie une charge utile JSON au point de terminaison /api/generate d'Ollama sur localhost. La charge utile spécifie le nom du modèle (par exemple, qwen3:8b), la chaîne d'invite finale et désactive la diffusion en continu afin que la fonction renvoie une seule réponse complète.
L'utilisation d'urllib.request s permet de conserver la légèreté et la portabilité de ce wrapper, tandis que la protection timeout=45 empêche notre flux de travail de se bloquer indéfiniment si le modèle est lent ou si le serveur est hors service. Enfin, la fonction extrait la sortie du modèle du champ « response » et renvoie un texte propre, qui sera ensuite utilisé pour écrire le fichier « analysis_report.md ».
Étape 7 : Construire le serveur web
Voici un petit script de lancement permettant de démarrer l'interface utilisateur Web locale qui accepte les téléchargements et déclenche l'exécution d'OpenClaw en arrière-plan.
set -euo pipefail
ROOT="$(cd "$(dirname "$0")" && pwd)"
cd "$ROOT/.."
python3 ../web_assistant.py
Ce script effectue trois actions :
set -euo pipefailpermet au script d'échouer rapidement, c'est-à-dire qu'il s'arrête en cas d'erreurs, traite les variables non définies comme des erreurs et évite les échecs silencieux dans les pipelines.ROOT=...détermine le répertoire dans lequel se trouve le script, ce qui permet de l'exécuter même à partir d'un autre emplacement.cd "$ROOT/.."se déplace vers la racine du projet attendue, puis lanceweb_assistant.py, qui héberge l'interface utilisateur et gère l'ensemble du pipeline.
Une fois ce script exécuté, l'interface utilisateur de votre navigateur devient la porte d'entrée de la démonstration.
Étape 8 : Veuillez démarrer le système.
Pour la dernière étape, nous exécutons le système à l'aide d'une configuration à deux processus. La passerelle OpenClaw gère l'exécution de toutes les tâches, tandis que l'interface Web sert de couche utilisateur pour soumettre des requêtes et afficher les résultats générés.
Terminal 1 : Gateway
Avant de lancer l'interface, nous commençons par démarrer la passerelle OpenClaw. Ce processus agit comme la couche d'exécution du système, traitant les demandes des agents, chargeant la compétence de l'espace de travail, invoquant les outils locaux et acheminant les appels de raisonnement vers le modèle Ollama.

export OPENCLAW_CONFIG_PATH="$PWD/.openclaw-local/openclaw.json"
openclaw gateway --force
Dans ce terminal, OPENCLAW_CONFIG_PATH dirige OpenClaw vers la configuration locale du projet, où nous avons défini le modèle par défaut sur ollama/qwen3:8b et désactivé la recherche Web pour des raisons de confidentialité. Ensuite, veuillez exécuter la commande suivante : ` openclaw gateway --force `. Cette commande démarre la passerelle, même si OpenClaw détecte qu'un élément est déjà en cours d'exécution ou partiellement configuré.
Lorsque la passerelle est opérationnelle, elle est prête à accepter les messages des agents locaux (y compris notre commande slash /local-data-analyst ).
Terminal 2 : Interface utilisateur Web
Une fois la passerelle opérationnelle, nous lançons l'interface Web, qui recueille les entrées des utilisateurs, envoie chaque requête à l'agent OpenClaw local et affiche les graphiques, rapports et traces d'exécution générés.
./local_data_analyst/run_web.sh

Veuillez ouvrir :
http://127.0.0.1:8765
Le serveur web fonctionne sur 127.0.0.1, il est donc accessible uniquement depuis votre ordinateur. Lorsque vous cliquez sur Exécuter l'analyse, l'interface utilisateur crée un dossier d'exécution, construit la commande slash, invoque openclaw agent --local, puis interroge le disque pour obtenir les fichiers de sortie afin de pouvoir les prévisualiser :
trend_chart.pnganalysis_report.mdtool_trace.json
Le résultat final ressemblera à ceci. Vous pouvez tester cette démonstration à l'aide de quelques exemples de fichiers.
Conclusion
Dans ce tutoriel, nous avons développé une application d'intelligence artificielle locale où une interface web simple déclenche un workflow complet alimenté par OpenClaw et un modèle Ollama local. Au lieu d'appeler des API externes, le système conserve l'intégralité de la boucle sur votre machine.
OpenClaw gère l'orchestration et l'exécution des outils, tandis qu'Ollama fournit la couche d'intelligence locale. Le résultat est un flux de travail de type agent dans lequel une seule demande génère des artefacts structurés tels que des visualisations, des rapports et des pistes d'audit.
À partir de là, vous pouvez développer ce projet dans plusieurs directions. Vous pouvez ajouter de nouvelles fonctionnalités à l'espace de travail pour différents flux de travail, intégrer des outils locaux supplémentaires (par exemple, des requêtes de base de données ou la recherche de documents) ou connecter OpenClaw à des canaux de messagerie tels que Slack ou WhatsApp pour un accès à distance sécurisé.
Vous pouvez également tester différents modèles Ollama afin de trouver le meilleur équilibre entre performances et qualité en fonction de votre matériel.
Pour en savoir plus sur l'utilisation de l'IA dans vos flux de travail, je vous recommande de consulter le cours cours « Codage assisté par l'IA pour les développeurs ».
FAQ OpenClaw et Ollama
Ai-je besoin d'un GPU pour exécuter ce projet OpenClaw Ollama localement ?
Pas nécessairement. Le modèle qwen3:8b peut fonctionner sur un processeur, mais les performances seront réduites. Pour une expérience plus fluide, il est recommandé d'utiliser un ordinateur équipé d'au moins 16 à 32 Go de RAM ou d'un processeur graphique avec 8 à 12 Go de mémoire vidéo.
Dans cette configuration, est-ce que des données quittent mon ordinateur ?
Non. Tout le traitement s'effectue localement via OpenClaw et Ollama. La recherche Web est désactivée dans la configuration et aucune API externe n'est utilisée.
Quel est le rôle d'OpenClaw par rapport à Ollama ?
OpenClaw est le moteur d'exécution et d'orchestration. Il reçoit les demandes, exécute les outils et gère les flux de travail. Ollama est le backend de modèle local qu'OpenClaw utilise pour le raisonnement et la génération de texte.
Puis-je utiliser un autre modèle à la place de qwen3:8b ?
Oui. Vous pouvez le remplacer par n'importe quel modèle pris en charge par Ollama (par exemple, qwen3:1.5b pour les systèmes plus légers ou qwen3:14b pour une meilleure qualité), à condition de télécharger le modèle et de mettre à jour la configuration.
Ce système peut-il fonctionner hors ligne ?
Oui. Une fois Ollama et le modèle installés, l'ensemble du flux de travail fonctionne sans connexion Internet.

Je suis experte Google Developers en ML (Gen AI), triple experte Kaggle et ambassadrice Women Techmakers, avec plus de trois ans d’expérience dans la tech. J’ai cofondé une startup dans le domaine de la santé en 2020 et je poursuis actuellement un master en informatique à Georgia Tech, avec une spécialisation en apprentissage automatique.