Zum Inhalt springen Zum Hauptmenü springen

Big Data als Kriegswaffe? Poetry Slam zu autonomen Waffensystemen am BiZ Bad Oeynhausen

Im Seminar „Big Data“ beschäftigen sich Teilnehmende mit Fragen der Datennutzung durch  staatliche und nicht-staatliche Akteurinnen und Akteuren sowie der Privatsphäre im Internet. Dozentin Beate Pelzer erläutert, wie das vermeintlich trockene Thema für Teilnehmende spannend aufbereitet wird. Zwei Teilnehmerinnen haben während des Seminars sogar einen Poetry Slam zu autonomen Waffensystemen erstellt.

Was macht es mit uns, wenn wir das Gefühl haben, unsere Aktivitäten werden permanent aufgezeichnet und „getrackt“? Gibt es überhaupt noch ein Recht auf Privatsphäre? Inwiefern ist die Privatsphäre ein wichtiges demokratisches Recht und was passiert, wenn sie wegbricht? Wem gehören eigentlich die Daten? Und wie können wir zusehen, dass die Datenmengen positiv, etwa zur Bekämpfung von Krebserkrankungen, unter Berücksichtigung der Rechte und Bedürfnisse aller Menschen genutzt werden?

Diesen Fragen widmet sich das politische Bildungsseminar zum Thema „Big Data“ am Bildungszentrum Bad Oeynhausen. Die Datensammelwut von Staaten, Unternehmen und anderen Akteurinnen und Akteuren bietet Anlass zu einer näheren Auseinandersetzung mit dem Recht auf Privatsphäre und seiner Bedeutung für uns. In einem Planspiel zu automatisierten Entscheidungsprozessen („LifeProfiler“) schlüpfen die Teilnehmenden in verschiedene Rollen und erfahren, wie ihnen auch die unwichtigsten Informationen zum Verhängnis werden können, wenn der Algorithmus negative Korrelationen zwischen diesen Informationen und bestimmten Verhaltensweisen gefunden hat.

So kann das Liken ungesunder Lebensmittel und Getränke zu erhöhten Krankenkassenbeiträgen und eine bestimmte Handschrift zur Ablehnung eines Kreditantrages führen. Das Planspiel soll den Teilnehmenden vor Augen führen, dass wir automatisierten, auf Algorithmen basierenden Entscheidungen nicht blind vertrauen sollten. Jeder Algorithmus ist so gut wie die Daten, mit denen er gefüttert wurde. Und diese Daten entstehen und entstanden in bestimmten historischen, sozialen, kulturellen und wirtschaftlichen Kontexten. Sie bedürfen folglich einer permanenten Kontrolle und ethischen Betrachtung. Kurz gesagt: Daten sind nicht neutral und Datenerhebungen sind nicht überall und immer legitim. Die Teilnehmenden bekommen nach dem Planspiel die Möglichkeit, sich mit einer Anwendung von Big Data Analysen genauer zu beschäftigen, Nutzen und Gefahren abzuwägen und sich eine informierte Meinung zu bilden. Nicht selten kommt es zu künstlerischen Meinungsäußerungen, wie der Poetry Slam zu autonomen Waffensystemen der Teilnehmerinnen Tomma Sophie Hasseler und Johanna Meißner eindrucksvoll zeigt:

„Krieg“ ist so eins dieser Worte, das jeder kennt, zwar von uns vielleicht niemand erlebt hat, aber trotzdem überall den Schrecken benennt.
Und genauso, wie sich alles in unserer Welt durch Technik, Big Data und Internet wandelt,
gibt es auch bei Waffen Systeme, bei denen nicht mehr ganz so klar ist, wer jetzt eigentlich handelt.
LAWS – so nennt sich ein weiteres technisches Gerät, das der Kriegsführung, wie wir sie bisher kennen, die Dimension verdreht.
L steht für letal, also tödlich und nicht nur das,
das A ist die Autonomie des Waffensystems, über das du dir bisher wahrscheinlich keine Gedanken machst.
Aber sind diese Waffen was Gutes? Manchmal kämpfen so Waffen gegen Waffen und nicht Menschen gegen Menschen, die es niemals werden schaffen, so effektiv zu töten.
Und Fortschritt muss nicht immer schlechter sein,
die Übertragung auf andere Lebensbereiche schließt genauso Medizin und Fahrzeugassistent ein,
aber andersherum bleibt die wohlwollende Antwort auf die Frage nach Tötungsmaschinen doch irgendwie.
In Technik und Forschung ein großer Fortschritt,
aber ist es uns das wert, wenn man über die Moral tritt?
Einer will dem Anderen zuvorkommen, ein psychologischer Effekt,
aber weißt du, was dahinter steckt?
Distanz zu Kriegsgeschehen schafft Anonymität,
aber könntest du wirklich schießen, wenn jemand vor dir steht?
Ein Fehler im System ist die größte Gefahr,
denn durch Machtverlust wird Töten unkontrollierbar.
Langfristige Risiken für kurzfristige Vorteile,
warum lassen wir unsere Welt nicht einfach heile?
Wir würden eine moralische Grenze überschreiten,
wenn wir ein paar Zeilen Software-Code den Weg bereiten,
Entscheidungen zu fällen über Tod und Leben,
und so unsere moralische Verantwortung an Waffen abgeben.