Tech-support.be

Computer Dokter Bjorn

Tech-support.be

Computer Dokter Bjorn

Installeer je eigen Ai

Creëer je Eigen AI in 10 minuten

In de wereld van technologie en innovatie is kunstmatige intelligentie (AI) een van de meest opwindende gebieden die zich snel ontwikkelt. 
Het stelt ons in staat om processen te automatiseren, gegevens te analyseren en zelfs creatief werk te genereren.

Maar wat als je je eigen AI kunt creëren en deze lokaal op je computer kunt draaien? In dit artikel leer je hoe je Ollama kunt installeren, een model kunt downloaden en Open Web UI kunt instellen voor een naadloze AI-ervaring.

Aan het einde van deze gids heb je je eigen Large Language Model (LLM) dat lokaal op je computer draait, allemaal binnen 10 minuten! 
Laten we beginnen met de voordelen van een lokale LLM, Of klik hier en ga direct naar de handleiding

VOORDELEN VAN EEN LOKALE LLM

Privacy en Beveiliging

Een van de grootste zorgen bij het gebruik van cloudgebaseerde AI-diensten is privacy.
Wanneer je gegevens naar externe servers verzendt, loop je het risico dat gevoelige informatie wordt blootgesteld aan derden.
Door je eigen LLM lokaal te draaien, houd je al je gegevens op je eigen machine.
Dit betekent dat je volledige controle hebt over wie toegang heeft tot je gegevens en hoe ze worden gebruikt.

Bovendien minimaliseer je de kans op datalekken of ongeoorloofde toegang.
Dit is vooral belangrijk voor bedrijven die werken met vertrouwelijke klantinformatie of gevoelige bedrijfsdata.
Met een lokale LLM kun je ervoor zorgen dat je data veilig blijft, zonder afhankelijk te zijn van de beveiligingsmaatregelen van derden.

Prestaties

Naar privacy biedt een lokale LLM ook aanzienlijke prestatievoordelen.
Wanneer je een model op je eigen hardware draait, profiteer je van snellere reactietijden en betere prestaties.
Cloudgebaseerde oplossingen kunnen traag zijn vanwege netwerkvertragingen en serverbelasting.
Met een lokale setup kun je direct communiceren met het model, wat resulteert in een veel responsievere ervaring.

Bovendien kun je je lokale hardware optimaliseren voor de specifieke taken die je wilt uitvoeren.
Dit kan betekenen dat je meer RAM toevoegt, een snellere CPU gebruikt of zelfs GPU-versnelling inschakelt voor intensieve berekeningen. Hierdoor krijg je de beste prestaties uit je AI-model.

Aanpassing

Een ander groot voordeel van een lokale LLM is de mogelijkheid om het model aan te passen aan jouw specifieke behoeften.
Veel commerciële AI-oplossingen bieden beperkte mogelijkheden voor maatwerk.
Met een lokale setup kun je het model trainen met je eigen gegevens, parameters aanpassen en experimenteren met verschillende configuraties.

Dit niveau van aanpassing stelt je in staat om unieke toepassingen te ontwikkelen die perfect aansluiten bij jouw vereisten.
Of je nu een chatbot wilt bouwen, tekstgeneratie wilt automatiseren of een ander soort AI-toepassing wilt ontwikkelen, de mogelijkheden zijn eindeloos wanneer je de controle hebt over je eigen model.

Kostenbesparend

Tot slot is het draaien van een lokale LLM vaak kosteneffectiever dan het gebruik van cloudgebaseerde diensten.
Veel AI-platforms rekenen maandelijkse of jaarlijkse abonnementskosten, en de kosten kunnen snel oplopen, vooral als je veel gebruik maakt van hun services.
Door je eigen model lokaal te draaien, vermijd je deze doorlopende kosten en maak je optimaal gebruik van de hardware die je al bezit.

Dit maakt het niet alleen toegankelijker voor individuen en kleine bedrijven, maar ook voor grotere organisaties die hun operationele kosten willen verlagen.
Door te investeren in een lokale AI-oplossing, kun je ook toekomstige kosten besparen terwijl je de voordelen van AI benut.

Met deze voordelen in gedachten, laten we nu kijken naar de stappen die nodig zijn om je eigen AI te creëren met Ollama.

HANDLEIDING

Stap 1: Ollama downloaden op je PC

De eerste stap in het creëren van je eigen AI is het downloaden van Ollama op je computer.

1a. Download en installeer Ollama

Om te beginnen, moet je Ollama op je computer hebben geïnstalleerd. 
Je kunt dit hier downloaden van de officiële Ollama-website.

Na het downloaden van het installatiebestand, open je het en volg je de instructies op het scherm om Ollama te installeren.
Dit proces is meestal eenvoudig en vereist slechts een paar klikken.
Zodra de installatie is voltooid, ben je klaar om verder te gaan naar de volgende stap.

Met Ollama geïnstalleerd op je computer, kunnen we nu doorgaan naar het downloaden van een model dat je wilt gebruiken.

Stap 2: Het LLM voor Ollama installeren

Nu je Ollama hebt geïnstalleerd, is de volgende stap het downloaden van een model. Voor deze gids zullen we de nieuwste llama3 7b-model gebruiken.
Dit model is krachtig en veelzijdig, waardoor het ideaal is voor verschillende AI-toepassingen.

2a. Open de terminal als administrator

Op Windows kun je dit doen door met de rechtermuisknop op het Start-menu te klikken en "Terminal (Beheerder)" te selecteren.

2b. Voer het commando uit

Typ het volgende commando in de terminal om het model te downloaden:


Dit commando vertelt Ollama om het gemma2 LLM-model van te downloaden (op moment van schrijven, 12/08/'24 het beste LLM) en uit te voeren.
Zorg ervoor dat je dit commando invoert zonder enige typfouten.

Nadat je het commando hebt uitgevoerd, begint de terminal met het downloaden van het model.
Je zult voortgangsindicatoren zien terwijl het model wordt gedownload en geïnstalleerd.
Dit kan enkele minuten duren, afhankelijk van je internetverbinding en de snelheid van je computer.

Zodra het model is gedownload, ben je klaar om door te gaan naar de volgende stap.

Stap 3: Open Web UI installeren via Docker

Alle nodige software is nu geinstalleerd en zou moeten werken, nu gaan we een gebruiksvriendelijke interface maken om je LLM oftewel Ai te kunnen gebruiken.

3a. Download en installeer Docker

Om verder te gaan moet je Docker op je computer hebben geïnstalleerd.
Je kunt dit hier downloaden van de officiële Docker-website.

Na het downloaden installeer je het gedownloade bestand.
Zorg ervoor dat Docker correct is geïnstalleerd en draaiend is.

3b. Open de terminal als administrator

Open de terminal als administrator.
Op Windows kun je dit doen door met de rechtermuisknop op het Start-menu te klikken en "Terminal (Beheerder)" te selecteren.

Kies 1 van de onderstaande commandos, het linkse is voor de meeste computers van toepassing, het rechtse is van toepassing op computers met een Nvidia grafische processor

Typ het volgende commando om Open Web UI te installeren
met de standaardconfiguratie

Typ het volgende commando om Open Web UI te installeren
met Nvidia GPU-ondersteuning

Dit commando start een Docker-container op de achtergrond met behulp van de Open Web UI-interface.
Het koppelt poort 8080 in de container aan poort 3000 op de host, voegt een hostvermelding toe voor interne communicatie, monteert een volume voor persistente gegevens, geeft de container de naam "open-webui" en stelt de container in om altijd opnieuw te starten als deze stopt.

Toegang tot de Open Web UI

Als je het commando correct hebt uitgevoerd, zou je nu de Open Web UI-container moeten zien in Docker Desktop.
Om toegang te krijgen tot de interface, open je een webbrowser en ga je naar http://localhost:3000.
Hier kun je interactie hebben met je AI-model via een gebruiksvriendelijke interface.

Verder uitwerken van je Ai

Is dit allemaal goed gelukt en wil je nog verder duiken in het aanpassen en toevoegen van funties in je Ai?
Dan vindt je hier alle informatie om je Ai verder te ontwikkelen.

Conclusie

Het creëren van je eigen AI met Ollama en Open Web UI is een spannende en lonende ervaring.
Door de stappen in deze gids te volgen, heb je nu een krachtige lokale AI-setup die je kunt aanpassen aan jouw behoeften.
Of je nu een hobbyist bent die geïnteresseerd is in AI of een professional die op zoek is naar een kosteneffectieve oplossing, het draaien van een lokale LLM biedt talloze voordelen.

Van privacy en beveiliging tot prestatieverbeteringen en maatwerkopties, de mogelijkheden zijn eindeloos.
Blijf experimenteren en leren terwijl je de kracht van AI benut. De open-source gemeenschap groeit voortdurend, en je zult profiteren van voortdurende verbeteringen, ondersteuning van de gemeenschap en een schat aan gedeelde kennis.

Dus waar wacht je nog op? Begin vandaag nog met het verkennen van de mogelijkheden!