SoftwerkerCast
Large Language Models
Episode notes
Elvira „Ellie“ Siegel hat Machine Learning an der LMU in München studiert und ist Teil des SHERLOQ-Teams, das ein Produkt zur KI-gestützten Dokumentenverarbeitung entwickelt. In dieser Folge ordnet sie den Bereich der großen Sprachmodelle (Large Language Models, LLM) in die Welt der künstlichen Intelligenz ein. Sie fasst außerdem kompakt zusammen, wie solche Modelle trainiert werden, und nennt typische Fehlerquellen. Auch gibt sie eine Einschätzung, ob Open-Source-Modelle eine Chance in der stark von ChatGPT geprägten LLM-Landschaft haben.
Moderation: Marco Paga
Kapitel:
(00:00:00) Intro & Vorstellung Elvira
(00:00:48) Begriffsklärung: „künstliche Intelligenz“, „maschinelles Lernen“ und „Deep Learning“
(00:04:48) Einführung in Large Language Models und Transformer-Modell
(00:08:20) Ein Katzen-Beispiel (Cat Content!)
(00:11:28) Weitere Beispiele zu LLMs und Vektorenberechnung
(00:15:39) ChatGPT: Wie ist es überhaupt möglich?
(00:20:28) ChatGPT-Versionen und Unterschiede
(00:23:00) Trainingsphasen von ChatGPT
(00:29:00) Open Source in der LLM-Welt
(00:36:48) Beliebte Fehler von LLMs
(00:41:44) Prompt Injections