Ollama veilig installeren: stappenplan voor lokale LLMs

Ollama veilig installeren: stappenplan voor lokale LLMs

175.000 Ollama-servers staan open op internet door verkeerde configuratie. Dit stappenplan laat zien hoe je lokale LLMs veilig installeert - zodat jouw server niet het volgende doelwit wordt.


Inhoudsopgave

Je wilt experimenteren met een lokale LLM. Logisch - het is goedkoper, je data blijft binnen, en je leert hoe deze technologie werkt. Maar doe je het verkeerd, dan staat je AI-server binnen een uur open voor het hele internet.

Dat is geen overdrijving. Onderzoekers van SentinelOne ontdekten dat 175.000 Ollama-servers precies zo bereikbaar zijn. Open, zonder wachtwoord, klaar voor misbruik.

Dit is het stappenplan om dat te voorkomen. We draaien zelf Ollama voor gevoelige documentanalyse, het is onderdeel van onze aanpak om AI-native te worden.

175.000 Ollama servers onbeveiligd: wat ging er mis?

De onderzoekers van SentinelOne vonden 175.000 Ollama-installaties die publiek bereikbaar zijn. Verspreid over 130 landen, met China (30%), de VS en Duitsland als koplopers.

Het patroon is steeds hetzelfde: iemand installeert Ollama, wil er vanaf een andere machine bij kunnen, past de configuratie aan, en vergeet dat die machine nu bereikbaar is voor het hele internet.

Bijna de helft van deze servers ondersteunt “tool calling” - de mogelijkheid voor de LLM om code uit te voeren en externe systemen aan te roepen. Dat betekent dat aanvallers niet alleen je rekenkracht kunnen misbruiken, maar potentieel toegang krijgen tot je netwerk.

De ironie: Ollama is standaard veilig geconfigureerd. Het luistert alleen op localhost. Pas als je die instelling aanpast, ontstaat het probleem.

Stap 1: Ollama op localhost houden

Ollama luistert standaard op 127.0.0.1:11434. Dat betekent: alleen je eigen machine kan erbij. Niet je thuisnetwerk, niet het internet. Alleen jij.

Laat dit zo.

De verleiding is groot om OLLAMA_HOST=0.0.0.0 in te stellen zodat je er vanaf je laptop bij kunt terwijl het op je server draait. Doe dit niet. Er zijn betere oplossingen - daarover zo meer.

Wat je wel kunt doen

  • Bind aan localhost: OLLAMA_HOST=127.0.0.1:11434
  • Of bind aan je Tailscale IP (zie stap 3): OLLAMA_HOST=100.x.x.x:11434

Wat je nooit doet

  • OLLAMA_HOST=0.0.0.0 - dit opent de poort voor alle interfaces
  • Port forwarding in je router naar poort 11434
  • Firewall-regels die 11434 openzetten voor inkomend verkeer

Waarom dit ertoe doet: dezelfde soort misconfiguraties leidden bij Moltbook tot een lek van 4.75 miljoen records. Open poorten zijn open poorten, of het nu een database of een LLM is.

Stap 2: Firewall als vangnet

Een firewall is je tweede verdedigingslinie. Zelfs als je per ongeluk de verkeerde instelling aanpast, houdt de firewall ongewenst verkeer tegen.

Wat doet een firewall?

Een firewall bepaalt welk netwerkverkeer je computer in en uit mag. Je kunt regels instellen: “blokkeer alles van buitenaf op poort 11434” of “sta alleen verkeer toe van dit specifieke IP-adres”.

De meeste besturingssystemen hebben een ingebouwde firewall. Het enige wat je hoeft te doen is hem aanzetten en de juiste regel toevoegen.

Per besturingssysteem

Linux (Ubuntu/Debian):

sudo ufw enable
sudo ufw deny in 11434

De eerste regel activeert de firewall. De tweede blokkeert al het inkomende verkeer op poort 11434 - de poort waar Ollama op draait.

macOS:

Ga naar Systeeminstellingen → Netwerk → Firewall → Opties. Zet de firewall aan. macOS blokkeert standaard inkomende verbindingen voor apps die niet expliciet zijn toegestaan.

Windows:

Open Windows Firewall (zoek op “firewall” in het startmenu). Klik op “Geavanceerde instellingen” → “Regels voor binnenkomend verkeer” → “Nieuwe regel”. Kies “Poort”, vul 11434 in, en selecteer “Verbinding blokkeren”.

Waarom dit belangrijk is

Stel dat je over zes maanden iets aanpast aan je Ollama-configuratie. Je vergeet dat je daarmee de poort openzet. Zonder firewall staat je server dan direct bloot. Met firewall houdt je vangnet het tegen.

Stap 3: Tailscale voor veilige remote toegang

Hier wordt het interessant. Je wilt Ollama vanaf een andere machine benaderen - je laptop terwijl het op je server draait, of vanaf kantoor terwijl het thuis staat. Hoe doe je dat zonder de poort open te zetten voor het hele internet?

Het antwoord: Tailscale.

Wat is Tailscale?

Tailscale is een tool die een privénetwerk maakt tussen je apparaten. Het werkt als een VPN, maar dan eenvoudiger. Je installeert het op je server en op je laptop, en ze kunnen elkaar direct bereiken via versleutelde verbindingen - zonder dat je iets hoeft te configureren in je router.

Elk apparaat krijgt een eigen IP-adres in het 100.x.x.x-bereik. Die adressen zijn alleen bereikbaar voor andere apparaten in jouw Tailscale-netwerk. Voor de rest van het internet bestaan ze niet.

Waarom Tailscale?

Er zijn meerdere tools die hetzelfde principe gebruiken - een mesh VPN op basis van WireGuard. Alternatieven zijn onder andere ZeroTier, Netbird, en Headscale (een self-hosted variant van Tailscale).

Wij kozen voor Tailscale om twee redenen:

  1. Gratis tier is ruim genoeg. Tot 100 apparaten en 3 gebruikers zonder te betalen. Voor een MKB-bedrijf of thuisgebruiker is dat meer dan voldoende.
  2. Configuratie is minimaal. Installeren, inloggen, klaar. Geen handmatige key-exchange, geen port forwarding, geen firewall-regels. Het werkt gewoon.

Als je al ervaring hebt met een van de alternatieven, werkt het principe hetzelfde. Het gaat erom dat je een versleuteld privénetwerk gebruikt in plaats van poorten open te zetten.

Installatie

Op je server (waar Ollama draait):

  1. Installeer Tailscale via tailscale.com/download
  2. Run tailscale up en log in met je account
  3. Noteer het IP-adres dat je krijgt (bijvoorbeeld 100.78.42.15)

Op je laptop/werkstation:

  1. Installeer Tailscale
  2. Log in met hetzelfde account
  3. Je kunt nu de server bereiken via het 100.x.x.x-adres

Ollama configureren voor Tailscale

Nu pas je Ollama aan om te luisteren op je Tailscale-adres:

export OLLAMA_HOST=100.78.42.15:11434

Of voeg dit toe aan je .bashrc of .zshrc om het permanent te maken.

Ollama is nu bereikbaar vanaf al je Tailscale-apparaten, maar onzichtbaar voor het publieke internet. Je hebt geen port forwarding nodig, geen firewall-uitzonderingen, geen gedoe.

Waarom dit beter is dan port forwarding

Port forwardingTailscale
Opent een poort voor het hele internetAlleen jouw apparaten kunnen erbij
Vereist handmatige firewall-configuratieWerkt automatisch door NAT heen
Eén verkeerde instelling = blootgesteldVeilig by default
Geen encryptie (tenzij je het zelf regelt)Altijd versleuteld

Wat je niet moet doen: Tailscale Funnel

Tailscale heeft een feature genaamd “Funnel” waarmee je services publiek kunt maken via internet. Gebruik dit niet voor Ollama. Funnel is bedoeld voor websites die je wilt delen, niet voor AI-servers die je wilt beschermen.

Stap 4: Reverse proxy met authenticatie (optioneel)

Dit is een geavanceerde stap. Alleen relevant als je Ollama wilt delen met anderen - bijvoorbeeld collega’s of een applicatie die je bouwt.

Wat is een reverse proxy?

Een reverse proxy is een tussenlaag tussen de buitenwereld en je applicatie. Verkeer komt eerst bij de proxy, die checkt of het legitiem is, en stuurt het dan door naar Ollama.

Denk aan een receptionist die bezoekers controleert voordat ze het gebouw in mogen.

Wanneer heb je dit nodig?

  • Je wilt Ollama delen met teamleden die niet in je Tailscale-netwerk zitten
  • Je bouwt een applicatie die Ollama als backend gebruikt
  • Je wilt logging en rate limiting (begrenzing van het aantal verzoeken)

Als je Ollama alleen voor jezelf gebruikt via Tailscale, kun je deze stap overslaan.

Hoe werkt het?

Je zet een webserver (Nginx of Caddy) voor Ollama die om een wachtwoord vraagt. Zonder juiste credentials kom je er niet in.

# Nginx voorbeeld - vraagt om wachtwoord
location /ollama/ {
    auth_basic "Ollama";
    auth_basic_user_file /etc/nginx/.htpasswd;
    proxy_pass http://127.0.0.1:11434/;
}

Caddy maakt het nog simpeler met automatische HTTPS. Maar voor de meeste thuisgebruikers is Tailscale voldoende en een stuk eenvoudiger.

Stap 5: Ollama en systeem up-to-date houden

Een veilige setup blijft alleen veilig als je hem onderhoudt.

Updates installeren

Ollama krijgt regelmatig updates met bugfixes en beveiligingspatches. Check maandelijks of je de laatste versie draait:

ollama --version

Updaten doe je door de installer opnieuw te draaien of via je package manager.

Vergeet ook je besturingssysteem niet. Veel kwetsbaarheden zitten niet in Ollama zelf, maar in de onderliggende software.

Controleer je eigen setup

Eens per kwartaal: check of je configuratie nog klopt.

  • Staat OLLAMA_HOST nog op localhost of Tailscale?
  • Draait je firewall nog?
  • Zijn er poorten opengezet die je vergeten bent?

Een snelle test: vraag iemand buiten je netwerk om je publieke IP te scannen op poort 11434. Die poort zou onbereikbaar moeten zijn. Denk ook na over welke tools je naast Ollama gebruikt: 12% van AI skills blijkt malicious, een kwetsbaarheid in een skill kan je hele setup ondermijnen. En wie er met die tools werkt: Gen Z adopteert AI sneller, maar heeft dezelfde security-begeleiding nodig.

Ollama security checklist

Snelle controle of je setup veilig is:

  • Ollama luistert op localhost (127.0.0.1) of Tailscale IP (100.x.x.x)
  • Firewall staat aan en blokkeert poort 11434 voor inkomend verkeer
  • Geen port forwarding naar 11434 in je router
  • Remote toegang gaat via Tailscale, niet via open poorten
  • Tailscale Funnel staat uit voor Ollama
  • Software is up-to-date (Ollama, OS, Tailscale)

Alles aangevinkt? Dan maak je geen deel uit van die 175.000 blootgestelde servers.


Zelf bezig met AI-infrastructuur in je bedrijf? Laten we praten over hoe je dat veilig aanpakt.