Ethische Herausforderungen und inklusive Ansätze in der KI-Forschung

Kategorien:
No items found.
Freigegeben:
October 8, 2024

Die Gratwanderung zwischen Code und Gewissen: Die Suche nach ethischer und inklusiver KI

Künstliche Intelligenz (KI) durchdringt zunehmend kritische Entscheidungsprozesse in unserem Alltag. Daher rückt die Integration ethischer Rahmenbedingungen in die KI-Entwicklung immer stärker in den Fokus der Forschung. An der University of Maryland (UMD) befassen sich interdisziplinäre Teams mit dem komplexen Zusammenspiel von normativem Denken, Algorithmen des maschinellen Lernens und soziotechnischen Systemen.

Normatives Verständnis von KI-Systemen

Ilaria Canavotto, Forscherin bei der „Values-Centered Artificial Intelligence (VCAI)“-Initiative der UMD, ist mit dem Institut für fortgeschrittene Computerstudien und dem Institut für Philosophie verbunden. Sie beschäftigt sich mit einer grundlegenden Frage: Wie können wir KI-Systemen ein normatives Verständnis vermitteln? Da KI zunehmend Entscheidungen beeinflusst, die sich auf Menschenrechte und Wohlergehen auswirken, müssen Systeme ethische und rechtliche Normen verstehen.

„Die Frage, die ich untersuche, ist, wie wir diese Art von Informationen, dieses normative Verständnis der Welt, in eine Maschine bekommen, die ein Roboter, ein Chatbot oder etwas anderes sein könnte", sagt Canavotto.

Ihre Forschung kombiniert zwei Ansätze:

Top-down-Ansatz: Diese traditionelle Methode beinhaltet die explizite Programmierung von Regeln und Normen in das System. Canavotto weist jedoch darauf hin: „Es ist einfach unmöglich, sie so einfach aufzuschreiben. Es gibt immer wieder neue Situationen, die auftreten."

Bottom-up-Ansatz: Eine neuere Methode, die maschinelles Lernen verwendet, um Regeln aus Daten zu extrahieren. Obwohl sie flexibler ist, mangelt es ihr an Transparenz: „Das Problem bei diesem Ansatz ist, dass wir nicht wirklich wissen, was das System lernt, und es ist sehr schwierig, seine Entscheidung zu erklären", bemerkt Canavotto.

Canavotto und ihre Kollegen, Jeff Horty und Eric Pacuit, entwickeln einen hybriden Ansatz, um das Beste aus beiden Ansätzen zu kombinieren. Ihr Ziel ist es, KI-Systeme zu schaffen, die Regeln aus Daten lernen und gleichzeitig nachvollziehbare Entscheidungsprozesse gewährleisten, die auf juristischen und normativen Überlegungen beruhen.

„[Unser] Ansatz […] basiert auf einem Bereich, der als Künstliche Intelligenz und Recht bezeichnet wird. In diesem Bereich wurden Algorithmen entwickelt, um Informationen aus den Daten zu extrahieren. Wir möchten also einige dieser Algorithmen verallgemeinern und dann ein System haben, das allgemeiner Informationen extrahieren kann, die auf juristischen und normativen Überlegungen beruhen", erklärt sie.

Der Einfluss der KI auf die Einstellungsverfahren und die Inklusion von Menschen mit Behinderungen

Während Canavotto sich auf die theoretischen Grundlagen konzentriert, untersucht Vaishnav Kameswaran, der mit dem NSF Institute for Trustworthy AI and Law and Society der UMD verbunden ist, die Auswirkungen von KI auf die reale Welt, insbesondere auf Menschen mit Behinderungen.

Kameswarans Forschung befasst sich mit dem Einsatz von KI in Einstellungsverfahren und deckt auf, wie Systeme Bewerber mit Behinderungen unbeabsichtigt diskriminieren können. Er erklärt: „Wir haben daran gearbeitet, … die Blackbox ein wenig zu öffnen, zu versuchen zu verstehen, was diese Algorithmen im Hintergrund tun und wie sie beginnen, Kandidaten zu bewerten."

Seine Ergebnisse zeigen, dass sich viele KI-gestützte Einstellungsplattformen bei der Bewertung von Kandidaten stark auf normative Verhaltensmerkmale wie Blickkontakt und Mimik stützen. Dieser Ansatz kann Personen mit bestimmten Behinderungen erheblich benachteiligen. So können beispielsweise sehbehinderte Bewerber Schwierigkeiten haben, Blickkontakt zu halten, ein Signal, das KI-Systeme oft als mangelndes Engagement interpretieren.

„Indem sie sich auf einige dieser Eigenschaften konzentrieren und Kandidaten auf der Grundlage dieser Eigenschaften bewerten, neigen diese Plattformen dazu, bestehende soziale Ungleichheiten zu verschärfen", warnt Kameswaran. Er argumentiert, dass dieser Trend dazu führen könnte, dass Menschen mit Behinderungen auf dem Arbeitsmarkt weiter an den Rand gedrängt werden, eine Gruppe, die bereits jetzt vor großen Herausforderungen bei der Arbeitssuche steht.

Die umfassendere ethische Landschaft

Beide Forscher betonen, dass die ethischen Bedenken im Zusammenhang mit KI weit über ihre spezifischen Forschungsgebiete hinausgehen. Sie sprechen mehrere Schlüsselthemen an:

  • Datenschutz und Einwilligung: Die Forscher heben die Unzulänglichkeit der derzeitigen Einwilligungsmechanismen hervor, insbesondere im Hinblick auf die Datenerhebung für das KI-Training. Kameswaran nennt Beispiele aus seiner Arbeit in Indien, wo gefährdete Bevölkerungsgruppen während der COVID-19-Pandemie unwissentlich umfangreiche persönliche Daten an KI-gestützte Kreditplattformen weitergegeben haben.
  • Transparenz und Erklärbarkeit: Beide Forscher betonen, wie wichtig es ist zu verstehen, wie KI-Systeme Entscheidungen treffen, insbesondere wenn diese Entscheidungen das Leben von Menschen erheblich beeinflussen.
  • Gesellschaftliche Einstellungen und Vorurteile: Kameswaran weist darauf hin, dass technische Lösungen allein Diskriminierungsprobleme nicht lösen können. Es bedarf eines umfassenderen gesellschaftlichen Wandels in Bezug auf die Einstellung gegenüber marginalisierten Gruppen, einschließlich Menschen mit Behinderungen.
  • Interdisziplinäre Zusammenarbeit: Die Arbeit der Forscher an der UMD verdeutlicht, wie wichtig die Zusammenarbeit zwischen Philosophie, Informatik und anderen Disziplinen bei der Auseinandersetzung mit der KI-Ethik ist.

Ein Blick in die Zukunft: Lösungen und Herausforderungen

Die Herausforderungen sind zwar groß, aber beide Forscher arbeiten an Lösungen:

  • Canavottos hybrider Ansatz für normative KI könnte zu ethisch bewussteren und erklärbareren KI-Systemen führen.
  • Kameswaran schlägt die Entwicklung von Audit-Tools für Interessenvertretungen vor, um KI-Einstellungsplattformen auf potenzielle Diskriminierung zu bewerten.
  • Beide betonen die Notwendigkeit politischer Veränderungen, wie z. B. die Aktualisierung des „Americans with Disabilities Act", um KI-bezogene Diskriminierung zu bekämpfen.

Sie räumen aber auch ein, dass die Fragen komplex sind. Kameswaran merkt an: „Leider glaube ich nicht, dass eine technische Lösung, die darin besteht, KI mit bestimmten Arten von Daten zu trainieren und Audit-Tools einzusetzen, das Problem allein lösen wird. Es bedarf also eines mehrgleisigen Ansatzes."

Eine wichtige Erkenntnis aus der Arbeit der Forscher ist die Notwendigkeit eines größeren öffentlichen Bewusstseins für die Auswirkungen von KI auf unser Leben. Die Menschen müssen wissen, wie viele Daten sie weitergeben und wie diese verwendet werden. Wie Canavotto betont, haben Unternehmen oft ein Interesse daran, diese Informationen zu verschleiern, und definiert sie als „Unternehmen, die versuchen, Ihnen zu sagen, dass mein Service besser für Sie ist, wenn Sie mir die Daten geben."

Die Forscher argumentieren, dass noch viel mehr getan werden muss, um die Öffentlichkeit aufzuklären und Unternehmen zur Rechenschaft zu ziehen. Letztendlich ist der interdisziplinäre Ansatz von Canavotto und Kameswaran, der philosophische Untersuchungen mit praktischer Anwendung kombiniert, ein Schritt in die richtige Richtung, um sicherzustellen, dass KI-Systeme zwar leistungsstark, aber auch ethisch und gerecht sind.

Bibliographie

https://www.artificialintelligence-news.com/news/bridging-code-and-conscience-umds-quest-for-ethical-and-inclusive-ai/

https://www.linkedin.com/pulse/from-code-conscience-global-quest-ai-governance-marc-zqsvc

https://digitalcommons.lindenwood.edu/faculty-research-papers/674/

https://link-springer-com-443.webvpn.synu.edu.cn/content/pdf/10.1007/978-3-031-45304-5.pdf

https://www.researchgate.net/publication/383712794_Bridging_the_Gap_AI_and_the_Hidden_Structure_of_Consciousness

https://docdrop.org/download_annotation_doc/pedagogy-of-the-digitally-oppressed_coursepak-1--xiu4s.pdf

https://www.asau.ru/files/pdf/2660978.pdf

https://worth.com/event/techonomy-at-davos-code-to-conscience-responsible-ai-in-business/

https://era.library.ualberta.ca/items/bf890729-49cd-4a91-bcb3-5d61d408adf0/view/f8303298-1dd6-405c-b2d4-3abe78d60261/NQ82108.pdf

https://www.aspeninstitute.de/events/bridging-ai-regulation-towards-a-global-governance-for-ethical-ai/

Was bedeutet das?