Modul Data Science, Informatik (Master) (SPO 6)

Englische Sprache
Kompakte Schrift

Farbschema

Modulübersicht

Data Science

INFM120ML

Prof. Dr. Reimar Hofmann

/

Alle Semester

keine

keine

In diesem Modul werden theoretische und mathematische Grundlagen des Maschinellen Lernens sowie Methoden der Datenanalyse behandelt.

 

Die vermittelten Inhalte und Kompetenzen des Moduls sind für die Teilnahme am Modul Künstliche Intelligenz von Vorteil.

Klausur 90 Min. (benotet)
Lehrveranstaltung Data Science

INFM121ML.a

Vorlesung

Prof. Dr. Reimar Hofmann

deutsch

2/2

60 Stunden gesamt, davon 30 Stunden Kontaktstudium.

Modulprüfung

Ziel: Theoretische und praktische Kenntnissen über Data Analytics im Kontext Maschinellen Lernens

  1. Einführung und Motivation
  2. Prozessmodelle, z.B. CRISP-DM
  3. Datenvorverarbeitung (Feature Engineering im Sinne von processing and cleaning)
  • Datentypen: nominal, ordinal, intervall, ratio
  • Typische Daten (bag of words, record-daten, heterogene Daten etc.)
  • Umgang mit Daten heterogener Typen
  • Konvertierung von Datentypen (one-hot-coding etc.)
  • Manipulation Wertebereich: Normierung, z.B z-score, bagging, Entropie-basiert usw., fehlende Werte
  • Dimensionsreduktion: heuristisch, manuell etc.
  • Umfangsreduktion: Sampling etc.
  • Spezielle Methoden der Vorverarbeitung, z.B. Word2Vec
  1. Exploration
  • Deskriptive Statistik
  • Datenvisualisierung
  1. Modellierung (u.a. Methode kleinster Quadrate), Over-Fitting, Model Tuning

Lehrveranstaltung Optimierung

INFM121ML.b

Vorlesung

Prof. Dr.-Ing. Astrid Laubenheimer

deutsch

2/2

60 Stunden gesamt, davon 30 Stunden Kontaktstudium.

Modulprüfung

Ziel: Vermittlung von theoretischen und praktischen Kenntnissen über Optimierungsmethoden/-kalküle im Kontext des Maschinellen Lernens (Minimierung der Fehlerfunktion)

  1. Einführung, Motivation und Modellierung
  2. Wiederholung Mehrdimensionale Analysis (u.a. Gradienten einführen und verstehen)
  3. Lösbarkeit und Optimalitätsbedingungen
  4. (Lineare) Regression mit und ohne Regularisierungsterm
  5. Gradientenverfahren und Anwendungen (insb. zum Training Neuronaler Netze, aber nicht nur)
  6. Newton-Verfahren und Gauß-Netwon-Verfahren und Anwendungen (Approximationsprobleme, Source-Localization)
  7. Konvexität (Mengen und Funktionen)
  8. Projiziertes Gradientenverfahren und Anwendung auf Constrained Regression Probleme
  9. Restringierte Optimierungsprobleme und Verwendung von Solvern aus der Matlab Optimization Toolbox zur Lösung von Problemen aus dem Maschinellen Lernen (z.B. Support-Vector-Maschinen)

Lehrveranstaltung Optimierung Übung

INFM122ML

Übung

Prof. Dr.-Ing. Astrid Laubenheimer

deutsch

3/1

90 Stunden gesamt, davon 15 Stunden Kontaktstudium.

Übung 1 Semester (nicht benotet)

Übungen und praktische Optimierungsaufgaben begleitend zur Vorlesung Optimierung.

Die Übung wird mit Python durchgeführt, wahlweise auf dem eigenen Laptop oder auf PCs des Labors für Maschinelles Lernen. Erste Erfahrungen im Umgang mit Python (wie etwa in der Übung Maschinelles Lernen angeboten) werden vorausgesetzt. Die Übung findet in der zweiten Vorlesungshälfte statt.