Draai je eigen AI, volledig privé
Geen abonnementen. Geen data die naar de cloud gaat. Geen beperkingen. Ontdek hoe je krachtige AI-modellen draait op je eigen computer — gratis en in een paar minuten.

Waarom je eigen AI draaien?
Cloud-AI is handig, maar het heeft nadelen. Met een lokaal model heb jij de volledige controle.
100% Privacy
Je data verlaat nooit je computer. Geen logs, geen tracking, geen zorgen over vertrouwelijke informatie.
Volledig gratis
Geen maandelijkse abonnementen of kosten per bericht. Download, installeer en gebruik — onbeperkt.
Werkt offline
Geen internetverbinding nodig. Perfect voor onderweg, in het vliegtuig of op locaties zonder netwerk.
Onbeperkt gebruik
Geen limieten op het aantal berichten, tokens of verzoeken. Gebruik het zo veel als je wilt.
Uit de blog
De laatste artikelen over lokale AI, hardware en open source modellen.
Open source modellen via de cloud: gratis zonder eigen hardware
Geen GPU? Draai open source modellen via Groq, Together AI en OpenRouter.
Lees artikel 5 maart 2026 · 7 minClaude Code met Ollama: lokaal programmeren met AI
Anthropic's code-assistent werkt nu met lokale modellen. Wat zijn de voor- en nadelen?
Lees artikel 5 maart 2026 · 8 minDe beste laptops voor lokaal AI draaien in 2026
VRAM is de sleutel. We vergelijken Windows-laptops en MacBooks op prijs en geheugen.
Lees artikelWat heb je nodig?
Het draait allemaal om VRAM — het werkgeheugen van je videokaart. Hoe meer VRAM, hoe grotere en slimmere modellen je kunt draaien.
Instapper
8 GB VRAM
Prima voor dagelijks gebruik: vragen beantwoorden, tekst schrijven, brainstormen. Een solide start.
Serieus
12–16 GB VRAM
Merkbaar slimmere antwoorden, beter in complexe taken en langere teksten. De sweet spot voor de meeste gebruikers.
Professioneel
24 GB+ VRAM
Bijna GPT-4 niveau. Ideaal voor professioneel gebruik, complexe analyses en het draaien van meerdere modellen.
Geen videokaart? Je kunt modellen ook op je CPU draaien — langzamer, maar het werkt prima voor kleinere modellen.
In 5 minuten je eigen AI
Met Ollama is het opzetten van een lokaal AI-model verrassend eenvoudig.
Download en installeer Ollama
Ga naar ollama.com en download de versie voor jouw besturingssysteem — Windows, macOS of Linux. De installer werkt net als elk ander programma. Na installatie draait Ollama als achtergrondservice, zodat je het altijd klaar hebt staan.
Tip: op macOS verschijnt Ollama als icoontje in je menubalk.
Open je terminal
De terminal is het venster waar je commando's typt.
- Windows: druk op Win + R, typ powershell en druk Enter — of zoek naar 'Windows Terminal' in het startmenu.
- macOS: open Spotlight (Cmd + Spatie), typ Terminal en druk Enter.
- Linux: gebruik je favoriete terminalemulator (Ctrl + Alt + T werkt op de meeste distro's).
Download en start een model
Typ één commando om een model te downloaden en meteen te starten. Ollama downloadt het model automatisch (eenmalig) en start dan de chat:
$ ollama run llama3.2Llama 3.2 (3B) is ~2 GB en werkt op bijna elke computer. Wil je meer? Probeer llama3.1:8b voor betere kwaliteit of mistral voor snelheid.
Chat direct in de terminal
Zodra het model geladen is, zie je een prompt. Typ je vraag en druk op Enter — het model antwoordt meteen. Alles gebeurt lokaal op jouw computer, niets gaat naar buiten.
Stop de chat met Ctrl + D of typ /bye.
Installeer Open WebUI voor een mooie interface
Liever een ChatGPT-achtige interface in je browser? Open WebUI biedt bestanduploads, chatgeschiedenis en modelwisseling — allemaal lokaal. Zorg dat Docker geïnstalleerd is en voer dan uit:
$ docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:mainOpen daarna http://localhost:3000 in je browser. Geen Docker? Open WebUI heeft ook een pip-installatie.
Koppel lokale websearch met SearXNG
Wil je dat je AI ook het web kan raadplegen — zonder dat Google of Bing jouw zoekopdrachten zien? Installeer SearXNG als lokale zoekmachine en koppel die aan Open WebUI. Start SearXNG met Docker:
$ docker run -d -p 8080:8080 --name searxng searxng/searxngGa daarna in Open WebUI naar Instellingen → Websearch, kies SearXNG en vul http://localhost:8080 in. Je AI zoekt nu privé op het web.
Doorzoek je eigen documenten (RAG)
Met Retrieval Augmented Generation (RAG) kan je AI door jouw eigen bestanden zoeken — PDF's, Word-documenten, notities. Upload documenten in Open WebUI en stel er vragen over. Perfect voor het analyseren van contracten, rapporten of handboeken zonder dat je data ergens heen gaat.
In Open WebUI: klik op het paperclip-icoontje in de chat om een bestand te uploaden. Het model leest het document en beantwoordt vragen op basis van de inhoud.
Populaire open source modellen
Er zijn tientallen modellen beschikbaar. Dit zijn de beste opties voor verschillende toepassingen.
Llama 3
MetaAllround: schrijven, vragen, redeneren. De populairste keuze.
Parameters: 8B / 70B
VRAM nodig: 5–40 GB
$ ollama run llama3Mistral
Mistral AISnel en compact. Uitstekend voor dagelijks gebruik en code.
Parameters: 7B
VRAM nodig: 5 GB
$ ollama run mistralGemma 2
GoogleSterk in instructies opvolgen. Goede balans tussen snelheid en kwaliteit.
Parameters: 9B / 27B
VRAM nodig: 6–16 GB
$ ollama run gemma2Phi-3
MicrosoftVerrassend slim voor zijn formaat. Perfect als je weinig VRAM hebt.
Parameters: 3.8B / 14B
VRAM nodig: 3–8 GB
$ ollama run phi3DeepSeek Coder
DeepSeekGespecialiseerd in programmeren. Begrijpt code en schrijft functies.
Parameters: 6.7B / 33B
VRAM nodig: 4–20 GB
$ ollama run deepseek-coderQwen 2.5
AlibabaSterk in meertalig gebruik en lange teksten. Goed alternatief voor Llama.
Parameters: 7B / 72B
VRAM nodig: 5–42 GB
$ ollama run qwen2.5Veelgestelde vragen
Begin vandaag met je eigen AI
Download Ollama, kies een model en draai binnen 5 minuten je eerste lokale AI. Volledig gratis.
Download Ollama