Seit ChatGPT sind Large Language Models (LLM) in aller Munde. Doch wie funktioniert das überhaupt?
Dieser Vortrag von Thomas Stahl zum Thema KI geht tiefer als die Mainstream Diskussion auf Funktionsweise und Trainingsverfahren ein und gibt einen Einblick in die sogenannte Transformer-Architektur, auf der diese Modelle basieren.
Der zweite Teil beleuchtet die erstaunliche "Intelligenzleistung" von GPT-4, dem Nachfolger von ChatGPT (GPT-3.5).
Insbesondere die beobachtbare Fähigkeit, Schlussfolgerungen zu ziehen - das sogenannte Reasoning - macht diese Version zum derzeit überragenden Sprachmodell.
Der letzte Teil fasst Stärken und Schwächen aktueller LLMs zusammen und wagt einen Ausblick auf die rasante Entwicklung im Bereich KI.
Inhalt
00:00 Intro
00:44 Agenda
02:17 Einstimmung
08:58 Funktionsweise von LLMs - die Transformer Architektur
33:43 GPT-4 Reasoning Assessment
44:40 Einschätzung der Leistungsfähigkeit, Stärken & Schwächen aktueller LLMs
53:04 Zusammenfassung & Ausblick
1:01:33 Fragen
Weitere Videos zum Thema KI und Machine Learning findest du hier: [ Ссылка ]
[ Ссылка ]
Thomas Stahl leitet das KI-Lab der b+m Informatik AG und beschäftigt sich seit über 7 Jahren schwerpunktmäßig mit dem Thema Künstliche Intelligenz und Machine Learning. Er arbeitet operativ in KI-Projekten und betreibt angewandte Forschung.
Dieses Video wurde im Rahmen eines Live-Vortrags aufgezeichnet. Wir bitten die sporadischen Störgeräusche zu entschuldigen.
Ещё видео!