top of page

Bouw een RAG-systeem met interne databronnen

Beschrijving


In deze training leer je hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je large language models (LLMs) laat antwoorden op basis van jouw eigen documenten, kennisbronnen of interne systemen. Door document search te combineren met tekstgeneratie maak je AI-toepassingen die actueler, betrouwbaarder en domeinspecifieker zijn dan generieke taalmodellen alleen.

Je ontdekt hoe je documenten omzet naar embeddings, opslaat in een vector database en via retrieval koppelt aan een LLM. We werken met tools als LangChain, LlamaIndex, Hugging Face Transformers en vector databases zoals FAISS, Weaviate, Pinecone of Chroma. Ook leer je hoe je PDF's, Word-bestanden, webpagina’s of interne rapporten gebruikt als input en hoe je een slimme interface of API bouwt bovenop je RAG-pipeline.


Leerdoelen


  • Begrijpen wat een RAG-architectuur is en wanneer je het inzet (vs. fine-tuning of prompt engineering)

  • Documenten verwerken en chunken op een manier die past bij je use case

  • Embeddings genereren met modellen via Hugging Face of OpenAI

  • Vector databases gebruiken zoals FAISS, Weaviate of Pinecone voor semantische zoekopdrachten

  • Metadatafiltering, ranking en hybride search toepassen voor nauwkeurigere retrieval

  • RAG-pipelines bouwen met LangChain of LlamaIndex

  • LLMs integreren via Hugging Face Transformers, OpenAI API of Anthropic API

  • Een werkende applicatie bouwen met een front-end (bijv. Streamlit) of REST API


Aanpak en werkvormen


De training is volledig hands-on. Je bouwt stapsgewijs een werkende RAG-oplossing: van documentverwerking tot integratie met een taalmodel en een werkende interface. We behandelen alle lagen van de architectuur en je leert hoe je keuzes maakt op basis van datavolume, gebruikersbehoeften en schaalbaarheid.

Voorbeelden van toepassingen die je kunt bouwen:

  • Een juridische of beleidsassistent op basis van je eigen documenten

  • Een HR-bot die antwoorden geeft op basis van personeelsinformatie en regelingen

  • Een IT-zoekassistent die helpdeskvragen beantwoordt op basis van handleidingen en interne documentatie

  • Een projectassistent die rapporten, notulen en besluiten interpreteert en samenvat


Je werkt met:

  • Python en frameworks zoals LangChain of LlamaIndex

  • Vector databases: FAISS, Chroma, Weaviate, Pinecone

  • Embeddings van OpenAI of Hugging Face (bijv. BGE, Instructor, MiniLM)

  • LLMs via OpenAI, Hugging Face Hub of eigen gehoste modellen

  • Frontend/API via Streamlit, FastAPI of Flask


Voor wie


Deze training is bedoeld voor AI-engineers, ML-specialisten, developers en data scientists die slimme AI-toepassingen willen ontwikkelen op basis van eigen documenten of kennisbronnen. Ervaring met Python en basiskennis van LLM’s en vector search wordt aangeraden.


Geïnteresseerd in deze training?


Neem gerust contact met ons op. We stemmen de training graag af op jouw specifieke use case, type documenten en technische voorkeuren.


Bouw een RAG-systeem met interne databronnen

Beschrijving


In deze training leer je hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je large language models (LLMs) laat antwoorden op basis van jouw eigen documenten, kennisbronnen of interne systemen. Door document search te combineren met tekstgeneratie maak je AI-toepassingen die actueler, betrouwbaarder en domeinspecifieker zijn dan generieke taalmodellen alleen.

Je ontdekt hoe je documenten omzet naar embeddings, opslaat in een vector database en via retrieval koppelt aan een LLM. We werken met tools als LangChain, LlamaIndex, Hugging Face Transformers en vector databases zoals FAISS, Weaviate, Pinecone of Chroma. Ook leer je hoe je PDF's, Word-bestanden, webpagina’s of interne rapporten gebruikt als input en hoe je een slimme interface of API bouwt bovenop je RAG-pipeline.


Leerdoelen


  • Begrijpen wat een RAG-architectuur is en wanneer je het inzet (vs. fine-tuning of prompt engineering)

  • Documenten verwerken en chunken op een manier die past bij je use case

  • Embeddings genereren met modellen via Hugging Face of OpenAI

  • Vector databases gebruiken zoals FAISS, Weaviate of Pinecone voor semantische zoekopdrachten

  • Metadatafiltering, ranking en hybride search toepassen voor nauwkeurigere retrieval

  • RAG-pipelines bouwen met LangChain of LlamaIndex

  • LLMs integreren via Hugging Face Transformers, OpenAI API of Anthropic API

  • Een werkende applicatie bouwen met een front-end (bijv. Streamlit) of REST API


Aanpak en werkvormen


De training is volledig hands-on. Je bouwt stapsgewijs een werkende RAG-oplossing: van documentverwerking tot integratie met een taalmodel en een werkende interface. We behandelen alle lagen van de architectuur en je leert hoe je keuzes maakt op basis van datavolume, gebruikersbehoeften en schaalbaarheid.

Voorbeelden van toepassingen die je kunt bouwen:

  • Een juridische of beleidsassistent op basis van je eigen documenten

  • Een HR-bot die antwoorden geeft op basis van personeelsinformatie en regelingen

  • Een IT-zoekassistent die helpdeskvragen beantwoordt op basis van handleidingen en interne documentatie

  • Een projectassistent die rapporten, notulen en besluiten interpreteert en samenvat


Je werkt met:

  • Python en frameworks zoals LangChain of LlamaIndex

  • Vector databases: FAISS, Chroma, Weaviate, Pinecone

  • Embeddings van OpenAI of Hugging Face (bijv. BGE, Instructor, MiniLM)

  • LLMs via OpenAI, Hugging Face Hub of eigen gehoste modellen

  • Frontend/API via Streamlit, FastAPI of Flask


Voor wie


Deze training is bedoeld voor AI-engineers, ML-specialisten, developers en data scientists die slimme AI-toepassingen willen ontwikkelen op basis van eigen documenten of kennisbronnen. Ervaring met Python en basiskennis van LLM’s en vector search wordt aangeraden.


Geïnteresseerd in deze training?


Neem gerust contact met ons op. We stemmen de training graag af op jouw specifieke use case, type documenten en technische voorkeuren.


1.jpg

Beschrijving:
Leer hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je AI laat antwoorden op basis van je eigen documenten en kennisbronnen.


Leerdoelen:

  • Werken met vector databases zoals FAISS en Weaviate.

  • Chunkingstrategieën, metadatafiltering en hybride zoekmethoden.

  • Opzetten van RAG-pipelines met LangChain of LlamaIndex.

  • Verbinden van documentdata met een front-end of API.


Voor wie: AI-engineers en ontwikkelaars die AI willen koppelen aan interne kennis.

Bouw een RAG-systeem met interne databronnen

Beschrijving


In deze training leer je hoe je een Retrieval-Augmented Generation (RAG)-systeem opzet waarmee je large language models (LLMs) laat antwoorden op basis van jouw eigen documenten, kennisbronnen of interne systemen. Door document search te combineren met tekstgeneratie maak je AI-toepassingen die actueler, betrouwbaarder en domeinspecifieker zijn dan generieke taalmodellen alleen.

Je ontdekt hoe je documenten omzet naar embeddings, opslaat in een vector database en via retrieval koppelt aan een LLM. We werken met tools als LangChain, LlamaIndex, Hugging Face Transformers en vector databases zoals FAISS, Weaviate, Pinecone of Chroma. Ook leer je hoe je PDF's, Word-bestanden, webpagina’s of interne rapporten gebruikt als input en hoe je een slimme interface of API bouwt bovenop je RAG-pipeline.


Leerdoelen


  • Begrijpen wat een RAG-architectuur is en wanneer je het inzet (vs. fine-tuning of prompt engineering)

  • Documenten verwerken en chunken op een manier die past bij je use case

  • Embeddings genereren met modellen via Hugging Face of OpenAI

  • Vector databases gebruiken zoals FAISS, Weaviate of Pinecone voor semantische zoekopdrachten

  • Metadatafiltering, ranking en hybride search toepassen voor nauwkeurigere retrieval

  • RAG-pipelines bouwen met LangChain of LlamaIndex

  • LLMs integreren via Hugging Face Transformers, OpenAI API of Anthropic API

  • Een werkende applicatie bouwen met een front-end (bijv. Streamlit) of REST API


Aanpak en werkvormen


De training is volledig hands-on. Je bouwt stapsgewijs een werkende RAG-oplossing: van documentverwerking tot integratie met een taalmodel en een werkende interface. We behandelen alle lagen van de architectuur en je leert hoe je keuzes maakt op basis van datavolume, gebruikersbehoeften en schaalbaarheid.

Voorbeelden van toepassingen die je kunt bouwen:

  • Een juridische of beleidsassistent op basis van je eigen documenten

  • Een HR-bot die antwoorden geeft op basis van personeelsinformatie en regelingen

  • Een IT-zoekassistent die helpdeskvragen beantwoordt op basis van handleidingen en interne documentatie

  • Een projectassistent die rapporten, notulen en besluiten interpreteert en samenvat


Je werkt met:

  • Python en frameworks zoals LangChain of LlamaIndex

  • Vector databases: FAISS, Chroma, Weaviate, Pinecone

  • Embeddings van OpenAI of Hugging Face (bijv. BGE, Instructor, MiniLM)

  • LLMs via OpenAI, Hugging Face Hub of eigen gehoste modellen

  • Frontend/API via Streamlit, FastAPI of Flask


Voor wie


Deze training is bedoeld voor AI-engineers, ML-specialisten, developers en data scientists die slimme AI-toepassingen willen ontwikkelen op basis van eigen documenten of kennisbronnen. Ervaring met Python en basiskennis van LLM’s en vector search wordt aangeraden.


Geïnteresseerd in deze training?


Neem gerust contact met ons op. We stemmen de training graag af op jouw specifieke use case, type documenten en technische voorkeuren.


How It All Started

This is a space to share more about the business: who's behind it, what it does and what this site has to offer. It’s an opportunity to tell the story behind the business or describe a special service or product it offers. You can use this section to share the company history or highlight a particular feature that sets it apart from competitors.
 

Let the writing speak for itself. Keep a consistent tone and voice throughout the website to stay true to the brand image and give visitors a taste of the company’s values and personality.

bottom of page