185.A83 Machine Learning for Health Informatics
Diese Lehrveranstaltung ist in allen zugeordneten Curricula Teil der STEOP.
Diese Lehrveranstaltung ist in mindestens einem zugeordneten Curriculum Teil der STEOP.

2021S, VU, 2.0h, 3.0EC, wird geblockt abgehalten
TUWEL

Merkmale

  • Semesterwochenstunden: 2.0
  • ECTS: 3.0
  • Typ: VU Vorlesung mit Übung
  • Format der Abhaltung: Distance Learning

Lernergebnisse

Nach positiver Absolvierung der Lehrveranstaltung sind Studierende in der Lage wesentliche Aspekte des Machine Learning für medizinische Anwendungen zu erläutern und in kleinen Projekten Lösungen im Industriestandard Python zu programmieren. Ein wichtiger Aspekt dieser Lehrveranstaltung ist ein Bewusstsein und eine Sensibilisierung für ethisch verantwortungsvollen Einsatz von AI zu erwirken und entsprechende Kenntnisse zu festigen.

Inhalt der Lehrveranstaltung

Aktualisierte Informationen finden Sie auf der Kurs-Webseite:

https://human-centered.ai/lv-185-a83-machine-learning-for-health-informatics-class-of-2021/

Die Medizin entwickelt sich zu einer dateng-getriebenen Wissenschaft. Health AI arbeitet an der effektiven und effizienten Nutzung maschineller Lernmethoden zur Lösung von Problemstellungen im umfassenden Gebiet der Gesundheit und der Lebenswissenschaften. Diese Master Lehrveranstaltung verfolgt einen forschungs-zentrierten Lehransatz. Die behandelten Themen umfassen Methoden zur Kombination von menschlicher Intelligenz und maschineller Intelligenz um die medizinische Entscheidungsfindung zu unterstützen. Seit 2018 sieht die europäische Datenschutzgrundverordnung explizit ein gesetzliches "Recht auf Erklärung" vor, und das EU-Parlament hat kürzlich im Rahmen der europäischen Digitalisierungsinitiative eine Resolution zu "erklärbarer KI" verabschiedet. Darin werden Lösungen gefordert, die es medizinischen Expertinnen und Experten ermöglichen müssen, die maschinellen Ergebnisse nachzuvollziehen, zu replizieren und zu verstehen. Der zentrale Fokus der Klasse 2021 liegt noch stärker darauf, maschinelle Entscheidungen für medizinische Experten transparent, nachvollziehbar und interpretierbar zu machen. Eine entscheidende Voraussetzung für erfolgreiche KI-Anwendungen in der Zukunft wird sein, dass menschliche Experten in der Lage sein müssen zumindest den Kontext zu verstehen und in der Lage zu sein die zugrunde liegenden Erklärungsfaktoren zu erforschen, mit dem Ziel die Frage zu beantworten WARUM eine bestimmte maschinelle Entscheidung getroffen wurde. Dies ist in vielen Domänen wünschenswert, im medizinischen Bereich jedoch zwingend erforderlich. Zusätzlich sollte erklärbare KI einen Gesundheitsexperten in die Lage versetzen, kontrafaktische Fragen, wie z. B. "Was wäre wenn?"-Fragen zu stellen, um auch neue Einsichten zu erlangen. Letztlich fördern solche Ansätze Vertrauen für zukünftige Lösungen aus der künstlichen Intelligenz - die unweigerlich in den medizinischen Alltag Einzug halten wird.

Bei Fragen wenden Sie sich direkt an den LV-Leiter Andreas Holzinger.

Methoden

Interaktiver Vortrag. Ausarbeitung von Beispielen. Praktische Hands-On Programmierübungen an ausgewählten Problemstellungen. Python !

Prüfungsmodus

Prüfungsimmanent

Weitere Informationen

ECTS-Aufschlüsselung (Summe=75h, entspricht 3 ECTS, wobei 1 ECTS = 25 h Arbeitsbelastung der Studierenden):

a) Anwesenheit während der Vorlesung 8 x 3 h = 24 h
b) Vorbereitung vor und nach der Vorlesung 8 x 1 h = 8 h
c) Durchfühurng der Programmierarbeiten und Präsentation 28 h + 2 h = 30 h
d) Schriftliche Prüfung inklusive Prüfungsvorbereitung 1 h + 12 h = 13 h

Summe des gesamten Arbeitsaufwands der Studierenden = 75 h

Vortragende Personen

Institut

LVA Termine

TagZeitDatumOrtBeschreibung
Di.17:00 - 19:0023.03.2021 - 29.06.2021 (LIVE)Kurszeit
Machine Learning for Health Informatics - Einzeltermine
TagDatumZeitOrtBeschreibung
Di.23.03.202117:00 - 19:00 Kurszeit
Di.13.04.202117:00 - 19:00 Kurszeit
Di.20.04.202117:00 - 19:00 Kurszeit
Di.27.04.202117:00 - 19:00 Kurszeit
Di.04.05.202117:00 - 19:00 Kurszeit
Di.11.05.202117:00 - 19:00 Kurszeit
Di.18.05.202117:00 - 19:00 Kurszeit
Di.01.06.202117:00 - 19:00 Kurszeit
Di.08.06.202117:00 - 19:00 Kurszeit
Di.15.06.202117:00 - 19:00 Kurszeit
Di.22.06.202117:00 - 19:00 Kurszeit
Di.29.06.202117:00 - 19:00 Kurszeit
LVA wird geblockt abgehalten

Leistungsnachweis

Mitarbeit in den interactiven Kursteilen. Beurteilung der Programmieraufgaben. Schriftliche Abschlussprüfung.

LVA-Anmeldung

Von Bis Abmeldung bis
09.03.2021 17:30 23.03.2021 20:30

Anmeldemodalitäten:

Bitte im TISS anmelden und zusätzlich ein e-Mail an Andreas Holzinger

siehe Lehrveranstaltungs Homepage

Curricula

Literatur

Holzinger, A. 2016. Interactive Machine Learning (iML). Informatik Spektrum, 39, (1), 64-68, doi:10.1007/s00287-015-0941-6.

Vorkenntnisse

Interesse am maschinellen Lernen mit Anwendung auf die Medizininformatik und mit besonderem Interesse an Fragen der Privatsphäre, Sicherheit, Datenschutz, ethische und soziale Fragen und an einer erklärbaren, Deutschsprachige Literatur siehe [1], [2], [3]:

(Englischsprachige Literatur siehe [4], [5], [6], [7] siehe unten).

[1] Andreas Holzinger (2018): Explainable AI (ex-AI). Informatik-Spektrum, 41, (2), 138-143, doi:10.1007/s00287-018-1102-5.

[2] Andreas Holzinger (2018): Interpretierbare KI: Neue Methoden zeigen Entscheidungswege künstlicher Intelligenz auf. c't Magazin für Computertechnik, 22, 136-141

https://www.aholzinger.at/wordpress/wp-content/uploads/2020/01/HOLZINGER-2018-Erklaerbare-Kuenstliche-Intelligenz-ct-Heft-22.pdf

[3] Andreas Holzinger & Heimo Müller (2020). Verbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI). Springer HMD Praxis der Wirtschaftsinformatik, 57, (1), 33--45, doi:10.1365/s40702-020-00586-y

Interest in machine learning with application to health informatics with a special focus on privacy, security, data protection safety, ethical and social issues and in explainable AI [4] and the doctor-in-the-loop [5], which led to the developement of the concept of Cau-sa-bility (in accordance to Usa-bi-lity) to evaluate the quality of explanations [6, 7, 8]

[4]    Andreas Holzinger (2018): From Machine Learning to Explainable AI.  2018 World Symposium on Digital Intelligence for Systems and Machines (DISA), 23-25 Aug. 2018 2018. 55-66, doi:10.1109/DISA.2018.8490530.

[5] Andreas Holzinger (2016): Interactive Machine Learning for Health Informatics: When do we need the human-in-the-loop? Brain Informatics, 3, (2), 119-131, doi:10.1007/s40708-016-0042-6

[6] Andreas Holzinger, Georg Langs, Helmut Denk, Kurt Zatloukal & Heimo Müller (2019). Causability and Explainability of Artificial Intelligence in Medicine. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 9, (4), 1-13, doi:10.1002/widm.1312

[7] Andreas Holzinger, Andre Carrington & Heimo Müller (2020). Measuring the Quality of Explanations: The System Causability Scale (SCS). Comparing Human and Machine Explanations. KI - Künstliche Intelligenz (German Journal of Artificial intelligence), Special Issue on Interactive Machine Learning, Edited by Kristian Kersting, TU Darmstadt, 34, (2), 193-198, doi:10.1007/s13218-020-00636-z

[8] Andreas Holzinger, Bernd Malle, Anna Saranti & Bastian Pfeifer (2021). Towards Multi-Modal Causability with Graph Neural Networks enabling Information Fusion for explainable AI. Information Fusion, 71, (7), 28-37, doi:10.1016/j.inffus.2021.01.008

https://www.sciencedirect.com/science/article/pii/S1566253521000142?dgcid=rss_sd_all

Weitere Informationen auf der Course Homepage!

Weitere Informationen

Sprache

Englisch