Terug naar blog

Claude Code met Ollama: lokaal programmeren met AI

Anthropic's krachtige code-assistent werkt nu met lokale modellen via Ollama. Volledig privé, zonder API-kosten. Maar is het ook praktisch? We duiken in de voor- en nadelen.

5 maart 20267 min leestijd

Claude Code is de terminal-gebaseerde code-assistent van Anthropic. Het kan je bestanden lezen, code schrijven en aanpassen, terminal-commando's uitvoeren en complete projecten opzetten — allemaal vanuit je command line. Normaal draait het via de Anthropic API in de cloud, maar sinds Ollama v0.14 kun je het ook koppelen aan lokale modellen. Geen cloud, geen kosten, volledige privacy.

Wat is Claude Code precies?

Claude Code is geen AI-model — het is een tool. Denk aan het als een slimme terminal-assistent die een taalmodel aanspreekt om taken uit te voeren. Normaal is dat Claude (Anthropic's eigen model), maar met de Ollama-integratie kun je elk compatibel model gebruiken.

Wat maakt het bijzonder? Claude Code kan:

  • Je hele projectstructuur lezen en begrijpen
  • Bestanden aanmaken, bewerken en verwijderen
  • Terminal-commando's uitvoeren (npm install, git commit, tests draaien)
  • Meerstaps-taken plannen en uitvoeren

Het verschil met "gewoon chatten" met een model via Ollama is dus groot: Claude Code is een agent die zelfstandig acties onderneemt in je codebase.

Hoe stel je het in?

De setup is verrassend eenvoudig. Zorg dat je Ollama hebt geïnstalleerd, en voer dan uit:

1

Snelle methode

Ollama regelt alles automatisch:

ollama launch claude
2

Handmatige methode

Stel de omgevingsvariabelen in en kies je model:

ANTHROPIC_AUTH_TOKEN=ollama \ ANTHROPIC_BASE_URL=http://localhost:11434 \ ANTHROPIC_API_KEY="" \ claude --model qwen3-coder

Dat is het. Claude Code praat nu met je lokale Ollama-server in plaats van met de Anthropic cloud.

Welke modellen werken?

Niet elk model is geschikt. Claude Code heeft een groot contextvenster nodig (minimaal 64.000 tokens) en het model moet goed genoeg zijn om complexe instructies te volgen. De aanbevolen modellen:

ModelParametersMin. VRAMSterk in
qwen3-coder~30B24 GBCode genereren en refactoren
glm-4.7~9B8 GBLichtgewicht, snel
gpt-oss:20b20B16 GBGoede balans snelheid/kwaliteit
gpt-oss:120b120B80+ GBBeste kwaliteit, zware hardware

De voordelen

Volledige privacy

Je code verlaat je computer niet. Geen cloud, geen API-calls naar externe servers. Ideaal voor gevoelige projecten of bedrijfscode.

Geen kosten

Claude Code via de API kan flink oplopen — tientallen euro's per maand bij actief gebruik. Lokaal draai je gratis, onbeperkt.

Offline beschikbaar

Geen internet nodig. Handig in het vliegtuig, op trein, of in omgevingen met beperkte connectiviteit.

Agentic workflow

Anders dan gewoon chatten met Ollama, kan Claude Code zelfstandig bestanden bewerken, tests draaien en git-commando's uitvoeren.

De nadelen

Aanzienlijk trager

Dit is het grootste nadeel. Een simpel verzoek dat Claude in de cloud in 2 seconden beantwoordt, kan lokaal 30–60 seconden duren. Op een M1 Max MacBook Pro met 64 GB RAM duurt zelfs een "Hallo" zo'n 55 seconden. Voor complexe taken met meerdere stappen loop je al snel minuten vertraging op.

Lagere kwaliteit

Claude Code is ontworpen voor Claude — een van de krachtigste modellen ter wereld. Lokale modellen als qwen3-coder zijn goed, maar niet zo goed. Je merkt dit bij complexe refactoring, subtiele bugs, en het begrijpen van grote codebases.

Zware hardware vereist

Je hebt minimaal 8 GB VRAM nodig voor de lichtste modellen, en 24+ GB voor een fatsoenlijke ervaring. Bovendien moet het model minstens 64k tokens context aankunnen. Een gaming-laptop met RTX 4060 is het absolute minimum.

Wat voegt het toe boven "gewoon Ollama"?

Dit is de kernvraag. Als je Ollama al gebruikt om lokaal te chatten met een model — waarom zou je dan Claude Code ertussen zetten?

Het antwoord zit in het woord agent. Ollama zelf is een inference-engine: je stelt een vraag, je krijgt een antwoord. Claude Code is een laag daarboven die het model inzet als een zelfstandige programmeur:

  • Ollama: "Schrijf een functie die een CSV-bestand parsed." → Je krijgt code terug die je zelf moet kopiëren en in het juiste bestand plakken.
  • Claude Code + Ollama: "Voeg CSV-import toe aan dit project." → Het leest je projectstructuur, maakt het bestand aan, schrijft de code, installeert dependencies, en runt de tests.

Dat verschil is enorm als je serieus aan projecten werkt. Maar het werkt alleen goed als het onderliggende model slim genoeg is om die meerstaps-taken betrouwbaar uit te voeren — en daar wringt de schoen bij lokale modellen.

Voor wie is het interessant?

Ontwikkelaars met gevoelige code

Werk je met klantgegevens, medische data, of bedrijfsgeheimen? Dan wil je je code niet naar een externe API sturen. Claude Code + Ollama is dan een logische keuze, ook al is het trager.

Hobbyisten en experimenteerders

Wil je leren hoe agentic AI werkt zonder maandelijks te betalen? Dit is een perfecte speeltuin. Je leert hoe AI-agents taken plannen en uitvoeren.

Teams die kosten willen drukken

Als je een team hebt dat intensief Claude Code gebruikt, lopen API-kosten snel op. Voor routine-taken (boilerplate, tests schrijven, simpele refactoring) kan een lokaal model volstaan.

Niet ideaal voor: complexe projecten

Als je werkt aan grote codebases, complexe architectuur, of subtiele bugs — dan merk je het kwaliteitsverschil met het echte Claude-model. Voor kritisch werk is de cloud-versie nog steeds superieur.

Ons oordeel

De Ollama-integratie met Claude Code is een belangrijke stap. Het bewijst dat de tooling rondom lokale AI snel volwassen wordt. Maar eerlijk is eerlijk: voor de meeste developers is het vandaag nog een trade-off.

Je wint privacy en bespaart kosten, maar je levert in op snelheid en kwaliteit. De sweet spot? Gebruik Claude Code lokaal voor routine-taken en gevoelige code, en schakel over naar de cloud-versie voor complexe uitdagingen.

En met de snelheid waarmee lokale modellen verbeteren — zie ons artikel over de inhaalslag van open source modellen — is het een kwestie van tijd voordat lokaal net zo goed werkt als de cloud.

Zelf proberen?

Installeer Ollama, installeer Claude Code, en draai ollama launch claude. Binnen 5 minuten heb je een lokale AI-programmeur draaien. Bekijk ook welke laptops geschikt zijn voor lokaal AI draaien.