Draai je eigen AI, volledig privé

Geen abonnementen. Geen data die naar de cloud gaat. Geen beperkingen. Ontdek hoe je krachtige AI-modellen draait op je eigen computer — gratis en in een paar minuten.

Persoon werkt thuis met een privé AI-assistent op de computer

Waarom je eigen AI draaien?

Cloud-AI is handig, maar het heeft nadelen. Met een lokaal model heb jij de volledige controle.

100% Privacy

Je data verlaat nooit je computer. Geen logs, geen tracking, geen zorgen over vertrouwelijke informatie.

Volledig gratis

Geen maandelijkse abonnementen of kosten per bericht. Download, installeer en gebruik — onbeperkt.

Werkt offline

Geen internetverbinding nodig. Perfect voor onderweg, in het vliegtuig of op locaties zonder netwerk.

Onbeperkt gebruik

Geen limieten op het aantal berichten, tokens of verzoeken. Gebruik het zo veel als je wilt.

Wat heb je nodig?

Het draait allemaal om VRAM — het werkgeheugen van je videokaart. Hoe meer VRAM, hoe grotere en slimmere modellen je kunt draaien.

Instapper

8 GB VRAM

RTX 3060 / RTX 4060
7B modellen

Prima voor dagelijks gebruik: vragen beantwoorden, tekst schrijven, brainstormen. Een solide start.

Serieus

12–16 GB VRAM

RTX 3060 12GB / RTX 4070
13B modellen

Merkbaar slimmere antwoorden, beter in complexe taken en langere teksten. De sweet spot voor de meeste gebruikers.

Professioneel

24 GB+ VRAM

RTX 3090 / RTX 4090
33–70B modellen

Bijna GPT-4 niveau. Ideaal voor professioneel gebruik, complexe analyses en het draaien van meerdere modellen.

Geen videokaart? Je kunt modellen ook op je CPU draaien — langzamer, maar het werkt prima voor kleinere modellen.

In 5 minuten je eigen AI

Met Ollama is het opzetten van een lokaal AI-model verrassend eenvoudig.

1

Download en installeer Ollama

Ga naar ollama.com en download de versie voor jouw besturingssysteem — Windows, macOS of Linux. De installer werkt net als elk ander programma. Na installatie draait Ollama als achtergrondservice, zodat je het altijd klaar hebt staan.

Tip: op macOS verschijnt Ollama als icoontje in je menubalk.

2

Open je terminal

De terminal is het venster waar je commando's typt.

  • Windows: druk op Win + R, typ powershell en druk Enter — of zoek naar 'Windows Terminal' in het startmenu.
  • macOS: open Spotlight (Cmd + Spatie), typ Terminal en druk Enter.
  • Linux: gebruik je favoriete terminalemulator (Ctrl + Alt + T werkt op de meeste distro's).
3

Download en start een model

Typ één commando om een model te downloaden en meteen te starten. Ollama downloadt het model automatisch (eenmalig) en start dan de chat:

$ ollama run llama3.2

Llama 3.2 (3B) is ~2 GB en werkt op bijna elke computer. Wil je meer? Probeer llama3.1:8b voor betere kwaliteit of mistral voor snelheid.

4

Chat direct in de terminal

Zodra het model geladen is, zie je een prompt. Typ je vraag en druk op Enter — het model antwoordt meteen. Alles gebeurt lokaal op jouw computer, niets gaat naar buiten.

Stop de chat met Ctrl + D of typ /bye.

5

Installeer Open WebUI voor een mooie interface

Liever een ChatGPT-achtige interface in je browser? Open WebUI biedt bestanduploads, chatgeschiedenis en modelwisseling — allemaal lokaal. Zorg dat Docker geïnstalleerd is en voer dan uit:

$ docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

Open daarna http://localhost:3000 in je browser. Geen Docker? Open WebUI heeft ook een pip-installatie.

6

Koppel lokale websearch met SearXNG

Wil je dat je AI ook het web kan raadplegen — zonder dat Google of Bing jouw zoekopdrachten zien? Installeer SearXNG als lokale zoekmachine en koppel die aan Open WebUI. Start SearXNG met Docker:

$ docker run -d -p 8080:8080 --name searxng searxng/searxng

Ga daarna in Open WebUI naar Instellingen → Websearch, kies SearXNG en vul http://localhost:8080 in. Je AI zoekt nu privé op het web.

7

Doorzoek je eigen documenten (RAG)

Met Retrieval Augmented Generation (RAG) kan je AI door jouw eigen bestanden zoeken — PDF's, Word-documenten, notities. Upload documenten in Open WebUI en stel er vragen over. Perfect voor het analyseren van contracten, rapporten of handboeken zonder dat je data ergens heen gaat.

In Open WebUI: klik op het paperclip-icoontje in de chat om een bestand te uploaden. Het model leest het document en beantwoordt vragen op basis van de inhoud.

Populaire open source modellen

Er zijn tientallen modellen beschikbaar. Dit zijn de beste opties voor verschillende toepassingen.

Llama 3

Meta

Allround: schrijven, vragen, redeneren. De populairste keuze.

Parameters: 8B / 70B

VRAM nodig: 5–40 GB

$ ollama run llama3

Mistral

Mistral AI

Snel en compact. Uitstekend voor dagelijks gebruik en code.

Parameters: 7B

VRAM nodig: 5 GB

$ ollama run mistral

Gemma 2

Google

Sterk in instructies opvolgen. Goede balans tussen snelheid en kwaliteit.

Parameters: 9B / 27B

VRAM nodig: 6–16 GB

$ ollama run gemma2

Phi-3

Microsoft

Verrassend slim voor zijn formaat. Perfect als je weinig VRAM hebt.

Parameters: 3.8B / 14B

VRAM nodig: 3–8 GB

$ ollama run phi3

DeepSeek Coder

DeepSeek

Gespecialiseerd in programmeren. Begrijpt code en schrijft functies.

Parameters: 6.7B / 33B

VRAM nodig: 4–20 GB

$ ollama run deepseek-coder

Qwen 2.5

Alibaba

Sterk in meertalig gebruik en lange teksten. Goed alternatief voor Llama.

Parameters: 7B / 72B

VRAM nodig: 5–42 GB

$ ollama run qwen2.5

Veelgestelde vragen

Begin vandaag met je eigen AI

Download Ollama, kies een model en draai binnen 5 minuten je eerste lokale AI. Volledig gratis.

Download Ollama