Zum Inhalt springen

Ollama (lokal)

Ollama ist kein direkter ACP-Agent (noch kein stabiler offizieller Adapter, Stand Feb 2026), aber über zwei Wege nutzbar:

  1. Indirekt via Script: Claude Code Tab führt Scripts aus, die Ollama intern nutzen
  2. Community ACP Adapter: Ein Community-Adapter existiert (Beta-Status)
SituationEmpfehlung
API Keys im Code sichtbarOllama (keine Cloud-Übertragung)
DSGVO-kritische KundendatenOllama (bleibt auf Workstation)
Repetitive Tier-C-TasksOllama (kostenlos, unlimitiert)
Interne DokumentationOllama
Höchste Qualität benötigtCloud-Modell (Sonnet, Gemini Pro)
ModellStärkeRAM
qwen3:14bCode, Reasoning16 GB
llama3.3:70bVielseitig, hohe Qualität48 GB
deepseek-coder-v2:16bCode-Analyse20 GB
mistral:7bSchnell, leichtgewichtig8 GB
Terminal-Fenster
# Ollama installieren
curl -fsSL https://ollama.ai/install.sh | sh
# Modell laden
ollama pull qwen3:14b
# Testen
ollama run qwen3:14b "Erkläre mir kurz was du kannst"

Das ist die häufigste Nutzungsform. Claude Code Tab führt ein Python-Script aus, das intern Ollama nutzt:

analyse_privat.py
import ollama
def analysiere_credentials(code_snippet: str) -> str:
"""Analysiert Code auf hardgecodete Credentials — lokal, kein Cloud."""
response = ollama.chat(
model='qwen3:14b',
messages=[{
'role': 'user',
'content': f'Prüfe diesen Code auf hardgecodete Secrets:\n\n{code_snippet}'
}]
)
return response['message']['content']

Im Claude Code Tab:

Führe analyse_privat.py auf src/config.py aus und zeige mir die Findings

Claude Code Tab orchestriert die Ausführung, Ollama läuft vollständig lokal.

Terminal-Fenster
# In ZED:
Ctrl+? Agent Panel +
"Ollama" aus ACP Registry (Community-Kategorie)
Lokalen Ollama-Endpoint konfigurieren: http://localhost:11434

Status: Beta, nicht für Produktions-Einsatz empfohlen (Stand Feb 2026).

Die optimale CC-Konfiguration nutzt alle drei Ebenen je nach Task-Typ:

Task-Routing:
├── Tier A (Architektur, Komplexes Debugging) → Claude Sonnet / Gemini Pro
├── Tier B (Code schreiben, Refactoring) → Grok 4.1 / Gemini Flash
└── Tier C (Extraktion, Privacy, Repetitives) → Ollama lokal

Details: LLM Routing Strategie