Episode Artwork
1.0x
0% played 00:00 00:00
Jun 04 2024 63 mins   107
Abfragen und Bergen von Wissen

Alle Large Language Models (LLMs) haben ein Cut-off-Datum, an dem ihr Weltwissen endet. Und über Unternehmensinterna wissen sie nichts. Hier setzt RAG (Retrieval-augmented Generation) an. Was dahinter steckt, klären Ole und Robert anhand verschiedener Anwendungsmöglichkeiten in dieser Folge. Sie diskutieren auch, wie RAG Large Language Models durch kontextuelle Wissensanreicherung verbessert, wann RAG sinnvoller und kostengünstiger ist als Finetuning und welche Engineering-Skills von Softwareentwicklerinnen und Architektinnen gefragt sind, wenn es darum geht, LLM-Modelle zu implementieren.