fAIr by design – Lösungen zur Reduktion von Diskriminierung in AI

01.03.2021 - 29.02.2024
Forschungsförderungsprojekt

Artificial Intelligence (AI) beeinflusst nachhaltig das Leben von Menschen. Vor allem in kritischen Anwendungsfeldern (Arbeit – HR, Health, etc.) ist in naher Zukunft mit erhöhten Anforderungen in Bezug auf Ethik, Rechtskonformität und technischer Robustheit zu rechnen, um zu garantie-ren, dass AI-Anwendungen nicht zu negativen gesellschaftlichen Wirkungen führen und in Summe vertrauenswürdig sind (Trustworthy AI Framework). Staatliche Regulierung und freiwil-lige Zertifizierungserfordernisse werden künftig den Markt prägen und den Druck auf Unterneh-men erhöhen, AI-Anwendungen zu entwickeln, die hohen ethischen Standards genügen. Dazu gehört auch der Anspruch, nicht zu diskriminieren.

Eine der größten ungelösten Herausforderungen liegt in der Frage, wie die Diskriminierung von Nutzergruppen durch AI bereits während der Entwicklung bzw. vor der Anwendung von AI im Markt vermieden werden kann. Bei der Vermeidung von diskriminierendem Bias müssen sozial-wissenschaftliche, rechtliche, ethische und technologische Fragen adressiert werden, wie sie bis-her in der AI-Entwicklung in dieser Interdisziplinarität nur wenig Beachtung gefunden haben und in den herkömmlichen Prozessen und Prüfverfahren der AI-Entwicklung nicht abgebildet werden. Somit verfügen AI-Entwickler*innen und Anwender*innen (z.B. Unternehmen, öffentliche Hand) derzeit über unzureichend anwendungs-orientierte Werkzeuge, die den gesamten AI-Entwick-lungsprozess abbilden, um die Diskriminierung von bestimmten Nutzergruppen durch AI-Anwen-dungen frühzeitig vermeiden, erkennen und verhindern zu können.

Dieses Manko adressiert das Projekt fAIr by design, welches unter Einbeziehung von unter-schiedlichen Nutzergruppen und 5 Use Cases auf die Entwicklung eines neuartigen Verfahrens-modells und einer entsprechenden Methodentoolbox für die Entwicklung von fairer, nicht-diskri-minierender AI abzielt. Unter Anwendung von Open Innovation Methoden entwickeln Data Sci-entists, AI-Expert*innen, Sozialwissenschaftler*innen, Rechtsexpert*innen und die jeweiligen Anwender*innen aus Unternehmen und anderen Organisationen Module und Strategien zur Risi-koreduzierung für unterschiedliche Diskriminierungsrisiken, welche danach in einem generischen Prozess und einer Methodentoolbox für die Diskriminierungs-Vermeidung zusammengefasst werden. Dabei steht ein Spektrum von AI mit direkter Auswirkung auf Menschen in Gesellschaft und Arbeit, z.B. im Bereich Ausbildung, HR, Medien und Health durch die bearbeiteten Use Cases im Vordergrund, insgesamt soll jedoch ein Prozess und eine Toolbox entstehen, die möglichst breit in allen möglichen Diversitäts-/Diskriminierungsdimensionen anwendbar sein soll.


Personen

Projektleiter_in

Institut

Förderungsmittel

  • FFG - Österr. Forschungsförderungs- gesellschaft mbH (National) Programm Laura Bassi 4.0 Bereich Strukturprogramm Österreichische Forschungsförderungsgesellschaft mbH (FFG)

Forschungsschwerpunkte

  • Information and Communication Technology

Externe Partner_innen

  • winnovation consulting gmbh