Modul Maschinelles Lernen, Informatik (Master) (SPO 6)

Englische Sprache
Kompakte Schrift

Farbschema

Modulübersicht

Maschinelles Lernen

INFM110ML

Prof. Dr.-Ing. Astrid Laubenheimer

/

Alle Semester

keine

keine

In diesem Modul werden Methoden des Maschinellen Lernens behandelt. Studierende erlernen, sich Methoden des Maschinellen Lernens anzueignen und bzgl. ihrer Eignung für konkrete Aufgabenstellungen zu evaluieren.

 

Die vermittelten Inhalte und Kompetenzen des Moduls werden im Modul Künstliche Intelligenz als bekannt bzw. vorhanden vorausgesetzt.

Einzelprüfungen
Lehrveranstaltung Maschinelles Lernen

INFM111ML

Vorlesung

Prof. Dr.-Ing. Astrid Laubenheimer
Prof. Dr. Dennis Janka

deutsch

4/4

120 Stunden gesamt, davon 60 Stunden Kontaktstudium.

Klausur/mündl. Prüfung 90/20 Min. (benotet)

Maschinelles Lernen, Vorlesungsteil Prof. Link

Klassische Methoden des überwachten Lernens, eine Auswahl aus

  • Perzeptrons
  • Lineare Maschinen
  • Mehrschicht-Perzeptrons
  • k-Nächste-Nachbar-Klassifikatoren
  • Bayes Entscheidungstheorie (Beziehung zu neuronalen Netzen)

Deep Learning, eine Auswahl aus

  • Faltungsnetze (CNNs)
  • Rekurrente Netze (RNNs)
  • Generative Neuronale Netze (GANs)

Reinforcement Learning

 

Maschinelles Lernen, Vorlesungsteil Prof. Laubenheimer

Vorbereitung:

  • Einordnung der Begriffe Künstliche Intelligenz, Maschinelles Lernen, Mustererkennung, Data Mining, Big Data etc.
  • Distanzen, Metriken und Ähnlichkeiten (Minkowski, Cosinus-Ähnlichkeit, Mahalanobis, Dynamic Time Warping etc.)
  • Einführung in die Datenvorverarbeitung, eine ausführliche Behandlung des Themas findet im Modul Data Science statt.

Transformationen

  • PCA, nichlineare PCA, in diesen Zusammenhang: Kernel-Trick und Support Vektor Maschinen
  • Matrixfaktorisierung, z.B. Latente Faktoren, Faktorisierung für Recommender Engines

Methoden des unüberwachten Lernens, eine Auswahl aus

  • Cluster-Algorithmen: K-Means, PAM, CLARA, CLARANS, DBSCAN, C-Means, EM, SOM
  • Assoziationsanalyse, z.B. Apriori, FP-Growth
  • Graphbasierte Ansätze zur Bildung von Clustern, z.B. Normalized Cut
  • Ranking Algorithmen, z.B. Google Page Rank

  • Folien und Tafelanschrieb
  • Jürgen Schürmann, "Pattern classification: a unified view of statistical and neural approaches", New York [u.a.], Wiley & Sons, 1996
  • Richard O. Duda ; Peter E. Hart ; David G. Stork, "Pattern classification", 2. ed. New York, Weinheim [u.a.], Wiley, 2001
  • Sergios Theodoridis, Konstantinos Koutroumbas, "Pattern recognition", 3. ed. Amsterdam, Heidelberg[u.a.], Elsevier Academic Press, 2006
  • Bernhard Schölkopf ; Alexander J. Smola, "Learning with Kernels : support vector machines, regularization, optimization, and beyond", Cambridge, Mass. [u.a.], MIT Press, 2002
  • Ian Goodfellow, Yoshua Bengio, Aaron Courville, "Deep Learning". MIT Press, 2016.
Lehrveranstaltung Maschinelles Lernen Übung

INFM112ML

Übung

Prof. Dr.-Ing. Astrid Laubenheimer
Prof. Dr. Norbert Link

deutsch

3/2

90 Stunden gesamt, davon 30 Stunden Kontaktstudium.

Übung 1 Semester (nicht benotet)

  • Aufsetzen einer Python-Umgebung und Python-Tutorial
  • Distanzbasierte Klassifikations- und Clusteralgorithmen
  • Transformationen (z.B. PCA)
  • Perzeptron, Neuronales Netz, Backpropagation

Die Übung wird mit Python durchgeführt, wahlweise auf dem eigenen Laptop oder auf PCs des Labors für Maschinelles Lernen.