SoftwerkerCast

Large Language Models

Listen on

Episode notes

Elvira „Ellie“ Siegel hat Machine Learning an der LMU in München studiert und ist Teil des SHERLOQ-Teams, das ein Produkt zur KI-gestützten Dokumentenverarbeitung entwickelt. In dieser Folge ordnet sie den Bereich der großen Sprachmodelle (Large Language Models, LLM) in die Welt der künstlichen Intelligenz ein. Sie fasst außerdem kompakt zusammen, wie solche Modelle trainiert werden, und nennt typische Fehlerquellen. Auch gibt sie eine Einschätzung, ob Open-Source-Modelle eine Chance in der stark von ChatGPT geprägten LLM-Landschaft haben.

Moderation: Marco Paga

Kapitel:

(00:00:00) Intro & Vorstellung Elvira

(00:00:48) Begriffsklärung: „künstliche Intelligenz“, „maschinelles Lernen“ und „Deep Learning“

(00:04:48) Einführung in Large Language Models und Transformer-Modell

(00:08:20) Ein Katzen-Beispiel (Cat Content!)

(00:11:28) Weitere Beispiele zu LLMs und Vektorenberechnung

(00:15:39) ChatGPT: Wie ist es überhaupt möglich?

(00:20:28) ChatGPT-Versionen und Unterschiede

(00:23:00) Trainingsphasen von ChatGPT

(00:29:00) Open Source in der LLM-Welt

(00:36:48) Beliebte Fehler von LLMs

(00:41:44) Prompt Injections