Aktualisierte Informationen finden Sie auf der Kurs-Webseite:
https://human-centered.ai/lv-185-a83-machine-learning-for-health-informatics-class-of-2021/
Die Medizin entwickelt sich zu einer dateng-getriebenen Wissenschaft. Health AI arbeitet an der effektiven und effizienten Nutzung maschineller Lernmethoden zur Lösung von Problemstellungen im umfassenden Gebiet der Gesundheit und der Lebenswissenschaften. Diese Master Lehrveranstaltung verfolgt einen forschungs-zentrierten Lehransatz. Die behandelten Themen umfassen Methoden zur Kombination von menschlicher Intelligenz und maschineller Intelligenz um die medizinische Entscheidungsfindung zu unterstützen. Seit 2018 sieht die europäische Datenschutzgrundverordnung explizit ein gesetzliches "Recht auf Erklärung" vor, und das EU-Parlament hat kürzlich im Rahmen der europäischen Digitalisierungsinitiative eine Resolution zu "erklärbarer KI" verabschiedet. Darin werden Lösungen gefordert, die es medizinischen Expertinnen und Experten ermöglichen müssen, die maschinellen Ergebnisse nachzuvollziehen, zu replizieren und zu verstehen. Der zentrale Fokus der Klasse 2021 liegt noch stärker darauf, maschinelle Entscheidungen für medizinische Experten transparent, nachvollziehbar und interpretierbar zu machen. Eine entscheidende Voraussetzung für erfolgreiche KI-Anwendungen in der Zukunft wird sein, dass menschliche Experten in der Lage sein müssen zumindest den Kontext zu verstehen und in der Lage zu sein die zugrunde liegenden Erklärungsfaktoren zu erforschen, mit dem Ziel die Frage zu beantworten WARUM eine bestimmte maschinelle Entscheidung getroffen wurde. Dies ist in vielen Domänen wünschenswert, im medizinischen Bereich jedoch zwingend erforderlich. Zusätzlich sollte erklärbare KI einen Gesundheitsexperten in die Lage versetzen, kontrafaktische Fragen, wie z. B. "Was wäre wenn?"-Fragen zu stellen, um auch neue Einsichten zu erlangen. Letztlich fördern solche Ansätze Vertrauen für zukünftige Lösungen aus der künstlichen Intelligenz - die unweigerlich in den medizinischen Alltag Einzug halten wird.
Bei Fragen wenden Sie sich direkt an den LV-Leiter Andreas Holzinger.
Interesse am maschinellen Lernen mit Anwendung auf die Medizininformatik und mit besonderem Interesse an Fragen der Privatsphäre, Sicherheit, Datenschutz, ethische und soziale Fragen und an einer erklärbaren, Deutschsprachige Literatur siehe [1], [2], [3]:
(Englischsprachige Literatur siehe [4], [5], [6], [7] siehe unten).
[1] Andreas Holzinger (2018): Explainable AI (ex-AI). Informatik-Spektrum, 41, (2), 138-143, doi:10.1007/s00287-018-1102-5.
[2] Andreas Holzinger (2018): Interpretierbare KI: Neue Methoden zeigen Entscheidungswege künstlicher Intelligenz auf. c't Magazin für Computertechnik, 22, 136-141
https://www.aholzinger.at/wordpress/wp-content/uploads/2020/01/HOLZINGER-2018-Erklaerbare-Kuenstliche-Intelligenz-ct-Heft-22.pdf
[3] Andreas Holzinger & Heimo Müller (2020). Verbinden von Natürlicher und Künstlicher Intelligenz: eine experimentelle Testumgebung für Explainable AI (xAI). Springer HMD Praxis der Wirtschaftsinformatik, 57, (1), 33--45, doi:10.1365/s40702-020-00586-y
Interest in machine learning with application to health informatics with a special focus on privacy, security, data protection safety, ethical and social issues and in explainable AI [4] and the doctor-in-the-loop [5], which led to the developement of the concept of Cau-sa-bility (in accordance to Usa-bi-lity) to evaluate the quality of explanations [6, 7, 8]
[4] Andreas Holzinger (2018): From Machine Learning to Explainable AI. 2018 World Symposium on Digital Intelligence for Systems and Machines (DISA), 23-25 Aug. 2018 2018. 55-66, doi:10.1109/DISA.2018.8490530.
[5] Andreas Holzinger (2016): Interactive Machine Learning for Health Informatics: When do we need the human-in-the-loop? Brain Informatics, 3, (2), 119-131, doi:10.1007/s40708-016-0042-6
[6] Andreas Holzinger, Georg Langs, Helmut Denk, Kurt Zatloukal & Heimo Müller (2019). Causability and Explainability of Artificial Intelligence in Medicine. Wiley Interdisciplinary Reviews: Data Mining and Knowledge Discovery, 9, (4), 1-13, doi:10.1002/widm.1312
[7] Andreas Holzinger, Andre Carrington & Heimo Müller (2020). Measuring the Quality of Explanations: The System Causability Scale (SCS). Comparing Human and Machine Explanations. KI - Künstliche Intelligenz (German Journal of Artificial intelligence), Special Issue on Interactive Machine Learning, Edited by Kristian Kersting, TU Darmstadt, 34, (2), 193-198, doi:10.1007/s13218-020-00636-z
[8] Andreas Holzinger, Bernd Malle, Anna Saranti & Bastian Pfeifer (2021). Towards Multi-Modal Causability with Graph Neural Networks enabling Information Fusion for explainable AI. Information Fusion, 71, (7), 28-37, doi:10.1016/j.inffus.2021.01.008
https://www.sciencedirect.com/science/article/pii/S1566253521000142?dgcid=rss_sd_all
Weitere Informationen auf der Course Homepage!