Maschinelles Lernen und Data Mining im SS 2012
Aktuelles
- Alle Interessenten an einer Nachprüfung werden gebeten, sich bis zum 31.08.2012 im Sekretariat zu melden.
- Am Freitag den 27.07.2012 wird im Zimmer F110 der Oettingenstr. 67 von 10:00 bis 11:00 Uhr die Klausureinsicht stattfinden.
- Die Klausur ist korrigiert. Die Ergebnisse wurden den Teilnehmern per Mail mitgeteilt; alternativ sind sie auch über UniWorX einsehbar.
- Über UniWorX und die-informatiker.net wurde eine Online-Evaluation gestartet. Alle angemeldeten Kursteilnehmer sollten hierzu eine Mail erhalten haben. Die Evaluation ist bis einschließlich 27.07.2012 freigeschaltet.
- Die Klausur findet im Raum 112 der Amalienstr. 73A statt, dem Raum der Vorlesung. Start ist um 09:15; es werden jedoch alle Klausurteilnehmer gebeten, sich schon um 09:00 s.t. einzufinden. Die Bearbeitungszeit sind 90 Minuten. Erlaubte Hilfsmittel sind ein einfacher Taschenrechner sowie eine mathematische Formelsammlung auf Schulniveau. Alle zur Klausur angemeldeten Studenten haben soeben eine Email mit diesen Informationen erhalten.
- Die Anmeldung über UniWorx ist nun erneut bis einschließlich 11.07.2012 möglich. Auch bereits registrierte Vorlesungsteilnehmer mögen sich bitte hier zur Klausur anmelden, sofern dies noch nicht erfolgt ist.
- Es wird nicht mit Sicherheit eine Nachklausur geben. Eine Entscheidung hierüber kann erst nach der Klausur getroffen werden.
- Vorlesung beginnt erst in der 2. Semesterwoche (25.4.2012).
Inhalt
Ziel des Maschinellen Lernens ist die Entwicklung von Methoden zur Realisierung lernfähiger technischer Systeme. In der Vorlesung werden die wichtigsten Zweige des Maschinellen Lernens vorgestellt:
- Beim überwachten Lernen werden basierend auf vorhandenen Beispieldaten Systeme zur Klassifikation und zur Modellierung funktioneller Abhängigkeiten trainiert (typische Vertreter: Neuronales Netz, Support Vector Machine).
- Das Ziel des unüberwachten Lernens ist es, autonom relevante Strukturen in Daten zu finden (typische Vertreter: Cluster Analyse, Independent Component Analyse).
- Kausal Probabilistische Netze (Bayesian Networks) stellen einen Rahmen zur Beschreibung und zum Erlernen von komplexen probabilistischen Abhängigkeiten dar, bis hin zur Analyse von Kausalität.
- Reinforcement Learning ist das wichtigste Lernverfahren zur Optimierung des Verhaltens von Agenten.
Datamining bezeichnet die Analyse von Datenbanken mit Methoden des Maschinellen Lernens und motiviert Forschungsaktivitäten mit neuen Anforderungen an Skalierbarkeit und Bedienbarkeit der Lösungen. Ein typisches Ziel ist die Nutzbarmachung von Kundendaten (Customer Relationship Management). In der Vorlesung werden eine Reihe von industriellen Anwendungen des Maschinellen Lernens, mit Schwerpunkt auf Anwendungen im Data Mining, vorgestellt.
Organisation
- Umfang: 3+2 Semesterwochenstunden
- Vorlesung: Prof. Dr. Volker Tresp
- Vorkenntnisse: Die Beherrschung mindestens einer Programmiersprache
- Anmeldung: über UniWorX bis
21. Mai 201211. Juli 2012 - Übungen: Dr. Marisa Petri
- Der Vorlesungsstoff kann in der Hauptdiplomprüfung bei Prof. Dr. Hans-Peter Kriegel oder PD Dr. Matthias Schubert geprüft werden. Absprachen mit anderen Prüfern müssen individuell getroffen werden.
Zeit und Ort
Veranstaltung | Zeit | Ort | Beginn |
---|---|---|---|
Vorlesung | Mi, 9.00 - 12.00 Uhr | Raum 112 (Amalienstr. 73A) | 25.04.2012 |
Übung |
Fr, 12.00 - 14.00 Uhr | Raum U127 (Oettingenstr. 67) |
04.05.2012 |
|
Fr, 14.00 - 16.00 Uhr | Raum U127 (Oettingenstr. 67) |
04.05.2012 |
Planung
Übungsbetrieb
Zur Vertiefung der Vorlesung werden 2-stündige Übungen angeboten, in denen die vorgestellten Verfahren weiter erläutert und an praktischen Beispielen veranschaulicht werden. Da es sich mitunter um Programmieraufgaben handelt, ist eine vorherige Vorbereitung des aktuellen Übungsblattes erwünscht um Fragen diesbezüglich besser beantworten zu können.
Nützliche Links
- Unter http://www.die-informatiker.net bieten Münchner Informatiker ein Diskussionsforum für euch. Dort können Fragen von allgemeinem Interesse gestellt werden und finden oft auch eine Antwort. Wir begrüßen diese Initiative, übernehmen aber keinerlei Verantwortung für den Inhalt.
Vorhergehende Semester
SS 16, SS 15, SS 14, SS 13, SS 12, SS 11, SS 10, SS 09, SS 08, SS 07, SS 06, SS 05, SS 04