
Bouw een RAG-systeem met interne databronnen
Beschrijving
In deze training leer je hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je large language models (LLMs) laat antwoorden op basis van jouw eigen documenten, kennisbronnen of interne systemen. Door document search te combineren met tekstgeneratie maak je AI-toepassingen die actueler, betrouwbaarder en domeinspecifieker zijn dan generieke taalmodellen alleen.
Je ontdekt hoe je documenten omzet naar embeddings, opslaat in een vector database en via retrieval koppelt aan een LLM. We werken met tools als LangChain, LlamaIndex, Hugging Face Transformers en vector databases zoals FAISS, Weaviate, Pinecone of Chroma. Ook leer je hoe je PDF's, Word-bestanden, webpagina’s of interne rapporten gebruikt als input en hoe je een slimme interface of API bouwt bovenop je RAG-pipeline.
Leerdoelen
Begrijpen wat een RAG-architectuur is en wanneer je het inzet (vs. fine-tuning of prompt engineering)
Documenten verwerken en chunken op een manier die past bij je use case
Embeddings genereren met modellen via Hugging Face of OpenAI
Vector databases gebruiken zoals FAISS, Weaviate of Pinecone voor semantische zoekopdrachten
Metadatafiltering, ranking en hybride search toepassen voor nauwkeurigere retrieval
RAG-pipelines bouwen met LangChain of LlamaIndex
LLMs integreren via Hugging Face Transformers, OpenAI API of Anthropic API
Een werkende applicatie bouwen met een front-end (bijv. Streamlit) of REST API
Aanpak en werkvormen
De training is volledig hands-on. Je bouwt stapsgewijs een werkende RAG-oplossing: van documentverwerking tot integratie met een taalmodel en een werkende interface. We behandelen alle lagen van de architectuur en je leert hoe je keuzes maakt op basis van datavolume, gebruikersbehoeften en schaalbaarheid.
Voorbeelden van toepassingen die je kunt bouwen:
Een juridische of beleidsassistent op basis van je eigen documenten
Een HR-bot die antwoorden geeft op basis van personeelsinformatie en regelingen
Een IT-zoekassistent die helpdeskvragen beantwoordt op basis van handleidingen en interne documentatie
Een projectassistent die rapporten, notulen en besluiten interpreteert en samenvat
Je werkt met:
Python en frameworks zoals LangChain of LlamaIndex
Vector databases: FAISS, Chroma, Weaviate, Pinecone
Embeddings van OpenAI of Hugging Face (bijv. BGE, Instructor, MiniLM)
LLMs via OpenAI, Hugging Face Hub of eigen gehoste modellen
Frontend/API via Streamlit, FastAPI of Flask
Voor wie
Deze training is bedoeld voor AI-engineers, ML-specialisten, developers en data scientists die slimme AI-toepassingen willen ontwikkelen op basis van eigen documenten of kennisbronnen. Ervaring met Python en basiskennis van LLM’s en vector search wordt aangeraden.
Geïnteresseerd in deze training?
Neem gerust contact met ons op. We stemmen de training graag af op jouw specifieke use case, type documenten en technische voorkeuren.
Bouw een RAG-systeem met interne databronnen
Beschrijving
In deze training leer je hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je large language models (LLMs) laat antwoorden op basis van jouw eigen documenten, kennisbronnen of interne systemen. Door document search te combineren met tekstgeneratie maak je AI-toepassingen die actueler, betrouwbaarder en domeinspecifieker zijn dan generieke taalmodellen alleen.
Je ontdekt hoe je documenten omzet naar embeddings, opslaat in een vector database en via retrieval koppelt aan een LLM. We werken met tools als LangChain, LlamaIndex, Hugging Face Transformers en vector databases zoals FAISS, Weaviate, Pinecone of Chroma. Ook leer je hoe je PDF's, Word-bestanden, webpagina’s of interne rapporten gebruikt als input en hoe je een slimme interface of API bouwt bovenop je RAG-pipeline.
Leerdoelen
Begrijpen wat een RAG-architectuur is en wanneer je het inzet (vs. fine-tuning of prompt engineering)
Documenten verwerken en chunken op een manier die past bij je use case
Embeddings genereren met modellen via Hugging Face of OpenAI
Vector databases gebruiken zoals FAISS, Weaviate of Pinecone voor semantische zoekopdrachten
Metadatafiltering, ranking en hybride search toepassen voor nauwkeurigere retrieval
RAG-pipelines bouwen met LangChain of LlamaIndex
LLMs integreren via Hugging Face Transformers, OpenAI API of Anthropic API
Een werkende applicatie bouwen met een front-end (bijv. Streamlit) of REST API
Aanpak en werkvormen
De training is volledig hands-on. Je bouwt stapsgewijs een werkende RAG-oplossing: van documentverwerking tot integratie met een taalmodel en een werkende interface. We behandelen alle lagen van de architectuur en je leert hoe je keuzes maakt op basis van datavolume, gebruikersbehoeften en schaalbaarheid.
Voorbeelden van toepassingen die je kunt bouwen:
Een juridische of beleidsassistent op basis van je eigen documenten
Een HR-bot die antwoorden geeft op basis van personeelsinformatie en regelingen
Een IT-zoekassistent die helpdeskvragen beantwoordt op basis van handleidingen en interne documentatie
Een projectassistent die rapporten, notulen en besluiten interpreteert en samenvat
Je werkt met:
Python en frameworks zoals LangChain of LlamaIndex
Vector databases: FAISS, Chroma, Weaviate, Pinecone
Embeddings van OpenAI of Hugging Face (bijv. BGE, Instructor, MiniLM)
LLMs via OpenAI, Hugging Face Hub of eigen gehoste modellen
Frontend/API via Streamlit, FastAPI of Flask
Voor wie
Deze training is bedoeld voor AI-engineers, ML-specialisten, developers en data scientists die slimme AI-toepassingen willen ontwikkelen op basis van eigen documenten of kennisbronnen. Ervaring met Python en basiskennis van LLM’s en vector search wordt aangeraden.
Geïnteresseerd in deze training?
Neem gerust contact met ons op. We stemmen de training graag af op jouw specifieke use case, type documenten en technische voorkeuren.

Beschrijving:
Leer hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je AI laat antwoorden op basis van je eigen documenten en kennisbronnen.
Leerdoelen:
Werken met vector databases zoals FAISS en Weaviate.
Chunkingstrategieën, metadatafiltering en hybride zoekmethoden.
Opzetten van RAG-pipelines met LangChain of LlamaIndex.
Verbinden van documentdata met een front-end of API.
Voor wie: AI-engineers en ontwikkelaars die AI willen koppelen aan interne kennis.
Bouw een RAG-systeem met interne databronnen
Beschrijving
In deze training leer je hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je large language models (LLMs) laat antwoorden op basis van jouw eigen documenten, kennisbronnen of interne systemen. Door document search te combineren met tekstgeneratie maak je AI-toepassingen die actueler, betrouwbaarder en domeinspecifieker zijn dan generieke taalmodellen alleen.
Je ontdekt hoe je documenten omzet naar embeddings, opslaat in een vector database en via retrieval koppelt aan een LLM. We werken met tools als LangChain, LlamaIndex, Hugging Face Transformers en vector databases zoals FAISS, Weaviate, Pinecone of Chroma. Ook leer je hoe je PDF's, Word-bestanden, webpagina’s of interne rapporten gebruikt als input en hoe je een slimme interface of API bouwt bovenop je RAG-pipeline.
Leerdoelen
Begrijpen wat een RAG-architectuur is en wanneer je het inzet (vs. fine-tuning of prompt engineering)
Documenten verwerken en chunken op een manier die past bij je use case
Embeddings genereren met modellen via Hugging Face of OpenAI
Vector databases gebruiken zoals FAISS, Weaviate of Pinecone voor semantische zoekopdrachten
Metadatafiltering, ranking en hybride search toepassen voor nauwkeurigere retrieval
RAG-pipelines bouwen met LangChain of LlamaIndex
LLMs integreren via Hugging Face Transformers, OpenAI API of Anthropic API
Een werkende applicatie bouwen met een front-end (bijv. Streamlit) of REST API
Aanpak en werkvormen
De training is volledig hands-on. Je bouwt stapsgewijs een werkende RAG-oplossing: van documentverwerking tot integratie met een taalmodel en een werkende interface. We behandelen alle lagen van de architectuur en je leert hoe je keuzes maakt op basis van datavolume, gebruikersbehoeften en schaalbaarheid.
Voorbeelden van toepassingen die je kunt bouwen:
Een juridische of beleidsassistent op basis van je eigen documenten
Een HR-bot die antwoorden geeft op basis van personeelsinformatie en regelingen
Een IT-zoekassistent die helpdeskvragen beantwoordt op basis van handleidingen en interne documentatie
Een projectassistent die rapporten, notulen en besluiten interpreteert en samenvat
Je werkt met:
Python en frameworks zoals LangChain of LlamaIndex
Vector databases: FAISS, Chroma, Weaviate, Pinecone
Embeddings van OpenAI of Hugging Face (bijv. BGE, Instructor, MiniLM)
LLMs via OpenAI, Hugging Face Hub of eigen gehoste modellen
Frontend/API via Streamlit, FastAPI of Flask
Voor wie
Deze training is bedoeld voor AI-engineers, ML-specialisten, developers en data scientists die slimme AI-toepassingen willen ontwikkelen op basis van eigen documenten of kennisbronnen. Ervaring met Python en basiskennis van LLM’s en vector search wordt aangeraden.
Geïnteresseerd in deze training?
Neem gerust contact met ons op. We stemmen de training graag af op jouw specifieke use case, type documenten en technische voorkeuren.

How It All Started
This is a space to share more about the business: who's behind it, what it does and what this site has to offer. It’s an opportunity to tell the story behind the business or describe a special service or product it offers. You can use this section to share the company history or highlight a particular feature that sets it apart from competitors.
Let the writing speak for itself. Keep a consistent tone and voice throughout the website to stay true to the brand image and give visitors a taste of the company’s values and personality.