Maschinelles Lernen II

Lernform Kürzel Gruppengröße Aufwand Kontaktzeit LP Abschluss
Vorlesung -- k.A. 60 (4 SWS) 60 2 PL: Portfolio
Übung -- k.A. 30 (2 SWS) 30 1 --
Selbststudium 135 - 4,5 -
Summe - - 225 90 7,5 -
Modulbeauftragte(r): Kschischo
Sprache: Deutsch
Turnus: Wintersemester
Standort: RAC
Lehrende: Jaekel, Dellen, Kschischo
Zwingende Voraussetzungen: Analysis I und II und Lineare Algebra I und II, Programmierkenntnisse, Maschinelles Lernen I
Inhaltliche Voraussetzungen: keine

Lernziele und Kompetenzen

Die Studierenden können komplexe Fragestellungen in neuronalen Netzen modellieren und auch eigene Architekturen und Modelle entwerfen. Sie kennen sowohl die Grundkonzepte neuronaler Netze als auch die Trainingsmethoden. Sie können die Ergebnisse kritisch interpretieren und die Modelle testen und validieren.

Vorlesungsinhalt

Ziel dieses Moduls ist eine Einführung in Neuronale Netze und Deep Learning. Neben grundlegenden Konzepten wie Feedforward Netze und Perzeptrons und dem Training mit Backpropagation werden auch wichtige Architekturen und Modellklassen diskutiert, wie Convolutional Networks, ResNets, Rekursive Neuronale Netze incl. Long short term memory (LSTMs) und Gated Recurrent Units (GRUS), Attention Layers und Transformerarchitekturen, Autoencoder (incl. Variational) und Generative Adversarial Networks (GANs). In den Übungen wird die Fähigkeit erlangt, diese mit einem Deep Learning Framework (pytorch, Tensorflow oder Jax) anzuwenden, wozu auch die Visualisiering und Bewertung der gelernten Modelle gehört.

Literatur

  • Murphy, Probabilistic Machine Learning: An Introduction, MIT Press
  • Zhang, Lipton, Zachary, Li, Mu and Smola, Dive Into Deep Learning, arXiv:2106.11342