KI ohne Port-Freigabe: OpenClaw und Ollama sicher über Tailscale vernetzen

Cover Image for KI ohne Port-Freigabe: OpenClaw und Ollama sicher über Tailscale vernetzen

Einleitung

OpenClaw hat sich rasant zu einem der beliebtesten Open-Source-KI-Frameworks entwickelt, da es Standard-LLMs in fähige, autonome persönliche Assistenten verwandelt. Durch die Integration in Messaging-Plattformen kann OpenClaw Befehle ausführen, Dateien verwalten und Workflows automatisieren.

Einen autonomen Agenten jedoch direkt auf der Haupt-Workstation – oder gar in einem unbeschränkten lokalen Netzwerk – laufen zu lassen, bringt Sicherheitsrisiken mit sich. Dieser Guide zeigt dir eine professionelle, sichere Architektur: Lokale Modelle laufen via Ollama auf deinem Hauptrechner, während OpenClaw in einer isolierten Umgebung (Sandbox) lebt und via Tailscale strikt auf einen einzigen Port begrenzt wird.

Die Sicherheits-Warnung: Mehr als nur Tailscale

Wenn du einem KI-Agenten erlaubst, Terminal-Befehle auszuführen, muss Sicherheit oberste Priorität haben.

Tailscale ist fantastisch, um die Verbindung zwischen der Sandbox und deinem Ollama-Host zu sichern, aber es schränkt standardmäßig nicht das lokale Netzwerkinterface der Sandbox ein. Wenn du deine OpenClaw-VM in dein normales Heimnetzwerk hängst, könnte ein kompromittierter oder halluzinierender Agent deine lokalen IP-Bereiche (z. B. 192.168.1.x) scannen und so deinen Router, dein NAS oder Smart-Home-Geräte erreichen.

Um das Setup wirklich abzusichern, darf OpenClaw keine Geräte in deinem Heimnetzwerk erreichen können. Das erreichst du auf zwei Wegen:

  1. Cloud-Hosting (Empfohlen): Hoste den OpenClaw-Client auf einem günstigen externen VPS (wie bei Hetzner). Da er physisch extern steht, hat er null Zugriff auf dein Heimnetz, verbindet sich aber sicher via Tailscale zurück zu deinem lokalen Ollama-Server.
  2. Strikte VLAN-Trennung: Falls du lokal hostest (z. B. auf einem Raspberry Pi oder Proxmox), platziere die OpenClaw-Maschine in einem isolierten VLAN oder Gastnetzwerk, das explizit allen Traffic zu anderen lokalen Subnetzen blockiert.

Architektur-Überblick

Für maximale Sicherheit bei voller Performance trennen wir die Ausführungsebene von der Intelligenzebene:

  1. Der Host (Ollama-Server): Lässt Ollama lokal laufen und nutzt deine Hardware für schnelle Interferenz.
  2. Die Sandbox (OpenClaw-Agent): Ein isolierter Hetzner-VPS oder eine VLAN-getrennte lokale Maschine, auf der OpenClaw läuft.
  3. Die Brücke (Tailscale): Verbindet beide sicher. Wir nutzen Tailscale-ACLs, um zu garantieren, dass OpenClaw nur den Ollama-API-Port (11434) sieht und absolut nichts anderes auf deinem Host.

Schritt 1: Den Host vorbereiten (Ollama)

Stelle sicher, dass dein Host-Rechner Ollama ausführt und mit deinem Tailscale-Netzwerk verbunden ist. Du benötigst ein Modell, das „Agentic Reasoning“ beherrscht, wie qwen3:8b oder gpt-oss:20b.

  1. Installiere und starte Ollama auf deinem Host.
  2. Lade dein bevorzugtes Modell: ollama pull qwen3:8b
  3. Standardmäßig lauscht Ollama nur auf localhost. Um Tailscale-Traffic zu erlauben, konfiguriere Ollama so, dass es an deine Tailscale-IP oder alle Interfaces (0.0.0.0) bindet, indem du die Umgebungsvariable OLLAMA_HOST setzt, bevor du den Dienst startest.

Schritt 2: Tailscale Tags und ACLs konfigurieren

Die eigentliche Magie passiert in der Tailscale-Admin-Konsole. Wir erstellen eine „Zero-Trust“-Policy. Statt IP-Adressen nutzen wir Tags.

Tags einrichten

Bevor du die ACLs anpasst, weise deinen Geräten Tags zu:

  1. Öffne die Tailscale Admin Console.
  2. Gehe zum Tab Machines.
  3. Suche deinen Ollama-Host, klicke auf die drei Punkte (...), wähle Edit ACL tags und füge tag:ollama-server hinzu.
  4. Wiederhole das für deine OpenClaw-Sandbox (den Pi oder VPS) mit dem Tag tag:openclaw-agent. (Alternativ kannst du die Maschinen via CLI authentifizieren: sudo tailscale up --advertise-tags=tag:openclaw-agent).

ACL-Konfiguration anwenden

Navigiere zum Tab Access Controls im Tailscale-Panel. Hier ist die exakte JSON-Struktur, um Tag-Besitzer zu definieren, dir vollen Zugriff zu lassen und den Agenten strikt zu limitieren:

{
    // Definiere, wer Tags vergeben darf
    "tagOwners": {
        "tag:ollama-server":  ["deine_email@gmail.com"],
        "tag:openclaw-agent": ["deine_email@gmail.com"]
    },
 
    "acls": [
        // 1. Erlaube dir (Admin) weiterhin Zugriff auf alle Maschinen
        {
            "action": "accept",
            "src":    ["deine_email@gmail.com"],
            "dst":    ["*:*"]
        },
 
        // 2. Die restriktive Regel:
        // Erlaube NUR dem Agenten, mit dem Ollama-Server zu sprechen, NUR auf Port 11434
        {
            "action": "accept",
            "src":    ["tag:openclaw-agent"],
            "dst":    ["tag:ollama-server:11434"]
        }
    ]
}

Hinweis: Ersetze deine_email@gmail.com durch deine tatsächliche Tailscale-E-Mail.

Diese eine Regel ist das Herzstück deines Sicherheits-Perimeters über das VPN. Die Sandbox ist nun kryptografisch daran gehindert, SSH, Dateifreigaben oder andere Ports deines Hosts zu scannen.

Schritt 3: OpenClaw in der Sandbox einrichten

Starte deinen isolierten VPS (z. B. eine Hetzner Cloud Instanz) oder deine VLAN-VM. Stelle sicher, dass Tailscale läuft und der Tag tag:openclaw-agent aktiv ist.

  1. Installiere OpenClaw über das offizielle Skript:
   curl -fsSL [https://openclaw.ai/install.sh](https://openclaw.ai/install.sh) | bash

Konfiguriere OpenClaw, sodass es auf die Tailscale-IP deines Hosts zeigt. Das leitet alle LLM-Anfragen durch den sicheren Tailscale-Tunnel.

# Setze einen Platzhalter-Key (Ollama braucht standardmäßig keinen, OpenClaw erwartet ihn aber oft)
export OLLAMA_API_KEY="ollama-local"
 
# Setze die baseUrl auf die Tailscale-IP deines Ollama-Servers
openclaw config set models.providers.ollama.baseUrl "http://<DEINE_TAILSCALE_HOST_IP>:11434"

Starte den Gateway-Daemon:

openclaw onboard --install-daemon

Du hast nun eine extrem widerstandsfähige KI-Architektur auf Enterprise-Niveau. Wenn du mit deinem Assistenten chattest, finden das logische Denken und die Code-Ausführung sicher in einer abgeriegelten, netzwerkisolierten Sandbox statt (was Seitwärtsbewegungen in dein Heimnetzwerk verhindert), während die Schwerstarbeit der Token-Generierung sicher über die Hardware deines Hauptrechners läuft.

Nächste Artikel.