März 2024 (Blogpost #03)
KI-basierte Systeme stellen uns vor einige ethische Herausforderungen. Welche Herausforderungen sind das? Ich verweise hier auf die Darlegungen im umfassenden Artikel (engl.) des Technikphilosophen Vincent C. Müller (Müller 2020). Müller adressiert in seinem Katalog von ethischen Herausforderungen zahlreiche Akteure, die mit KI zu tun haben: Entwickler, Programmiererinnen, Unternehmen, Forschende, Militärs etc. Doch wo sind wir ‹Endnutzer:innen› bzw. ‹Normaluser:innen› von KI ethisch herausgefordert?
Etwas überrascht, finde ich (nur) drei Herausforderungen, die mir gar nicht so neu vorkommen. Anscheinend bringen KI-basierte Systeme gegenüber ‹Normaluser:innen› nicht wirklich kategorial neue Herausforderungen, sind aber ganz klar eine Art Booster für bereits bestehende ethische Problematiken.
Im Detail:
1. Privatsphäre, Datenschutz und Überwachung: Seit die grossen Techfirmen aus dem Silicon Valley unsere Daten, die wir auf ihren Social-Media-Plattformen selber generieren, als Ressource verwenden und damit big money machen, gibt es eine Datenschutz- und Privacy-Debatte. Dazu sind die Daten aus dem Internet of things und den Smart Systems hinzugekommen. KI-basierte Syteme verstärken das Datenmining: Sie erweitern sowohl die Möglichkeiten der intelligenten Datenerfassung als auch die Möglichkeiten der Datenanalyse. Die Behauptung, dass diese Datensammlungen mehr über uns wissen, als wir selbst, ist nicht von der Hand zu weisen. Weiter ist mit KI-basierten Systemen sowohl eine flächendeckende Überwachung ganzer Bevölkerungsgruppen als auch die klassische gezielte Überwachung (Identifizierung mittels Gesichtserkennung) sehr gut möglich.
2. Manipulation: Die Beeinflussung unseres Verhaltens (beim Kaufen, sich eine Meinung bilden, Abstimmen usw. usf.) bekommt mit dem Einsatz von KI-basierten Systemen eine neue Qualität. Vor allem Personen mit intensiver Nutzung von Datensystemen (und dem damit einhergehenden mehr oder weniger freiwilligen Zurverfügungstellen persönlicher Daten) können anfällig für Nudges und Manipulation werden. Die sozialen Medien sind heute der wichtigste Ort für politische Propaganda. Mit ausreichend vorhandenen Daten können Algorithmen Social-Media-Nutzer:innen mit genau der Art von Input versorgen, die deren Verhalten beeinflussen. Zudem vereinfachen KI-basierte Tools die Produktion von ‹tief gefälschten› digitalen Fotos, Audios und Videos stark («deep fake»).
3. Opazität/Intransparenz: KI-basierte Systeme können bei komplexen Daten helfen, diese zu analysieren und bei Entscheidungen zu assistieren. Wie die Systeme zu ihren Ergebnissen gelangen, bleibt aber undurchschaubar (‹opak›) bzw. intransparent. Der Grund liegt darin, dass sich die neuen Systeme auf Techniken des maschinellen Lernens in simulierten neuronalen Netzen stützen («deep learning») – und es ist für Nutzer:innen nicht gerade vertrauensfördernd, dass darum auch die Progammierer:innen selbst nicht durchschauen können, wie ihre KI-basierte Systeme zu ihren Ergebnissen gelangen. Intransparenz ist in der digitalen Welt keine neue Herausforderung, bekommt aber bei KI-basierten Systemen eine neue Dimension. Zudem hat sich gezeigt, dass KI-basierte Systeme mit verzerrten Daten (Biases) operieren.
Die Liste der Herausforderungen kann gerne ergänzt werden. Habe ich etwas übersehen? Etwas dramatisierend könnte man KI auf Nutzer-Ebene als Datenklau-, Überwachungs-, Manipulations- und Intransparenz-Booster ansehen.
PS: Eine weitere, vierte Herausforderung wäre, dass seit dem Release von Chatbots (ChatGPT, Character AI u. a.) und Bildgeneratoren (MidJourney, DALL-E u. a.) die Nutzer:innen selbst aktiv moralisch problematisch handeln können – beispielsweise, indem sie beim KI-unterstützten Generieren von Texten oder Bildern (wissentlich oder unwissentlich) das Urheberrecht missachten bzw. Plagiate produzieren.