Release: 29.02.2024 auf
YouTube/Spotify
Expertin:
Carina Zehetmaier
Moderation: Gabriele Schelle
Folge: 2
Wir sprechen wir mit Carina Zehetmaier, KI-Expertin und Unternehmerin über den Bias
der KI und die möglichen Folgen: Wie vertrauenswürdig ist KI wirklich? Wie schleicht
sich Diskriminierung in die Technologie? Wie bringen wir Gerechtigkeit in ein System,
von dem wir nicht wissen wie es arbeitet? Was bedeutet der Bias der KI im Kontext
der Strafverfolgung? Wie könnte der Weg zu einer gerechten KI aussehen? Welche
Art von Regulierung erfährt KI durch den Artificial Intelligence Act (AIA) der EU?
Über die Expertin:
Carina Zehetmaier ist KI-Expertin, Unternehmerin und Botschafterin für Women in AI Austria. Als Unternehmerin mit einer Leidenschaft für KI und soziales Unternehmertum genießt sie es, Geschäftsmöglichkeiten zu erforschen, die die Kraft neuer Technologien zum Nutzen der Menschen und unseres Planeten einsetzen. Als ausgebildete Menschenrechtsjuristin verfügt sie über mehrere Jahre Erfahrung in Nichtregierungs-, Regierungs- und internationalen Organisationen und hat ein tiefergehendes Verständnis von Diplomatie, Weltpolitik und internationalen Beziehungen.
Über den Host:
Gabriele Schelle ist Theaterregisseurin und Autorin.
In dieser Folge:
0:00 Intro
0:56 Wie vertrauenswürdig ist die KI wirklich?
1:29 Problem des Halluzinierens
4:10 Kontext der Strafverfolgung
5:36 Black-Box Problem: Recherchegebiet „Explainable AI”
6:16 Regulierung der KI
6:36 Bias: Fehlentscheidungen durch Diskriminierung
7:26 Rechenschaftspflicht der KI
9:14 Wie misst man eigentlich, ob das System performt oder nicht?
11:15 AI Act der EU / Risikopyramide
13:04 Deep fakes
14:24 Menschenrechte und Impact Assessment (Folgenabschätzung)
14:58 KI kann nicht objektiv und neutral sein
15:48 Diversität
17:25 Automation Bias
17:43 „Coded Bias“ – Dokumentarfilm von Joy Buolamwini
17:54 „Ein Algorithmus bezieht sich auf historische Informationen und macht eine Vorhersage über die Zukunft. Big Data ist also eine Reflektion unserer Geschichte. Es ist so, als würde unsere Vergangenheit in den Algorithmen verweilen.“ Joy Buolamwini
21:34 Chat-GPT wird am englischsprachigen Web trainiert
24:59 Environmental Impact der KI
34:12 Ängste vor KI
35:51 Wir müssen sicherstellen, dass wir alle Menschen mitnehmen
36:20 Fake und Wirklichkeit
Links und Quellen:
Redaktion und Mitarbeit:
Elena Messner (Kuration), Gabriele Schelle (Kuration/Moderation), Christian Nisslmüller (Produktionsleitung), Martin Lohr (Aufnahmeleitung Studio), Alisa Karabut (Grafik)
Kontakt:
Wir freuen uns über eure Fragen und Kommentare an info@theater-factory.de.
Unterstützt uns:
Wenn euch dieser Podcast gefällt, freuen wir uns über eine Bewertung auf der Podcast-Plattform. Abonniert den Podcast auf der Plattform eurer Wahl – und empfehlt uns gerne weiter!
Wir danken der Schleswig-Holsteinischen Landesbibliothek für die Unterstützung des Podcasts.
Danke fürs Zuhören und bis zum nächsten Mal!
„Ein Algorithmus bezieht sich auf historische Informationen und macht eine Vorhersage über die Zukunft. Big Data ist also eine Reflektion unserer Geschichte. Es ist so, als würde unsere Vergangenheit in den Algorithmen verweilen.“
Joy Buolamwini in
Coded Bias
(Film von Shalini Kantayya, 2020)