05.09.2020 DiVOC - Push To Talk

Zusammenfassung des Workshops:
„Na und, ich habe doch nichts zu verbergen?“ - mit Bildern den Datenschutz einfach und zielgruppengerecht erklären

In unserer Vereinsarbeit kommen wir oft mit Menschen außerhalb der „Chaos-Blase“ ins Gespräch, bei denen praktische Erwägungen einen höheren Stellenwert genießen, als sich über deren Auswirkungen Gedanken zu machen. Uns fehl(t)en griffige Analogien zur Darstellung der Vorteile der Hacker-Ethik und wir sehen einen generellen Bedarf in der Community an sprachlichen Bildern, die möglichst korrekt Sachverhalte wie z.B. Datenschutz, Persönlichkeitsrechte und den Vorteil dezentraler Strukturen vermitteln.

Zum Finden solcher Analogien haben wir als Experiment einen Online-Workshop im Rahmen der Konferenz DiVOC - Push-To-Talk veranstaltet. Hierbei handelt es sich um eine Veranstaltungsreihe des Chaos Computer-Club, DiVOC steht dabei für „Digital verteiltes Online-Chaos“. Der Workshop war kostenlos und frei zugänglich, so konnten wir uns über Teilnehmende aus unterschiedlichen Fachgebieten und mit unterschiedlichen Graden an Vorwissen freuen. Wir haben sowohl erste Bilder entwickelt, als auch Ideen gesammelt, die noch weitergedacht werden können - für uns war die Veranstaltung somit ein Erfolg.

Der Workshop gliederte sich in drei Teile, deren Ergebnisse im Folgenden vorgestellt werden:

  1. Kurze Einführung in Thema und Ablauf des Workshops
  2. Kleingruppenphase zur Ausarbeitung (sprachlicher) Bilder zu verschiedenen Themen
    1. Kurzvorstellung der Teilnehmenden
    2. Brainstorming zu Aspekten / Bildern des Themas
    3. Ausarbeitung von bis zu zwei Bildern
  3. Präsentation der Ergebnisse im Plenum

Wir sind cyber4EDU, ein Verein aus CCC und FSFE Mitgliedern, Chaos macht Schule Aktivist_innen, Pädagog_innen und Eltern in unterschiedlichen Nerd-graden, die das Thema digitale Schule nach vorn bringen wollen.

Datenschutz

In der Gruppe „Datenschutz“ wurden zwei aufeinander aufbauende Szenarien zum Themenkomplex „Metadaten“ entworfen, aus denen ggf. Bilder entwickelt werden können:

  1. Auch aus Metadaten lassen sich Rückschlüsse ziehen (z.B. zu Verhalten und Leistung oder bei Anruf bestimmter Hotlines zu Gesundheitsdaten)
  2. Durch Datenlecks werden Metadaten veröffentlicht. Dies lässt je nach Datenquelle Rückschlüsse auf Personengruppen bis hin zu einzelnen Personen zu (Querverweis zum Thema Big Data)

(Persönlichkeits-)Rechte

In der Gruppe „(Persönlichkeits-)Rechte“ wurde als Analogie eine rote Ampel und die Fragestellung, unter welchen Umständen diese ignoriert werden kann, gewählt.

  • Kinder können nicht einschätzen, ob eine rote Ampel ignoriert werden kann, Erwachsene schon eher - analog können Kinder nicht einschätzen, wann sie Persönlichkeitsrechte verletzen / wann ihre Persönlichkeitsrechte verletzt werden, Erwachsene schon eher
  • Wir als Gesellschaft erwarten von bestimmten Personengruppen (Polizist_innen, Lehrkräfte) eine besonders stringente Einhaltung von Regeln - gleiches gilt bei Persönlichkeitsrechten von Personen, die diese durchsetzen
  • Mein persönliches Verhalten an der Ampel kann durch technische Mittel (Blitzer/Kamera) sowie das Umfeld (stehen Kinder an der gleichen Ampel) beeinflusst werden. Im digitalen Raum vergessen wir gern, dass wir weder allein noch unbeobachtet sind.
  • Genau wie an der Ampel braucht es für Kinder im digitalen Raum mehr als nur Erklären, quasi ein „an die Hand nehmen“.
  • Kindern ist schwer zu vermitteln, warum sich nicht jeder an die rote Ampel hält - analog ist es auch eine Herausforderung zu erklären, warum sich nicht jeder die Persönlichkeitsrechte dritter respektiert.
  • An einer Ampel kann die Straße bis zu einer bestimmten Distanz eingesehen werden. Eine ähnliche „Weitsichtigkeit“ ist bei verletzten Persönlichkeitsrechten im Digitalen nicht möglich (Querverweis zu Datenschutz)

OpenSource

Im Brainstorming einigte sich die Kleingruppe „OpenSource“ auf zwei Aspekte von OpenSource, die in den Bildern verarbeitet werden sollen:

  1. Verarbeitung und Speicherung von Nutzerdaten
  2. Wie wird die Software entwickelt / wer kann Einfluss auf die Software nehmen

Daraufhin wurden zwei Analogien erarbeitet:

  1. Die Haushaltshilfe:
    • Wen wir in unser Haus/unsere Wohnung lassen, prüfen wir genau - da damit ein Zugriff auf persönliche Daten ermöglicht wird. Welches Programm wir auf unserem PC bzw. welche App wir auf unser Smartphone installieren und diese/m damit Zugriff auf unsere persönlichen digitalen Daten ermöglichen, hinterfragen wir oft weniger genau. Ggf. kann man bestimmte Bereiche der Wohnung schützen (verschlossener Raum/Container) - das ist u. U., auf eigenen Geräten nicht möglich. (Querverweis zu Datenschutz)
  2. Das kleine Dorf
    • In der Community kennt, vertraut und hilft man sich untereinander. Jede/r trägt bei, was sie/er gut kann.

(Daten-)Sicherheit

In der Kleingruppe „(Daten-)Sicherheit“ wurde die Analogie des Hauses entwickelt.

  • „Sicherheit“ eines Rohbaus im Vergleich zu einem fertigen Haus mit abschließbaren Türen und verschließbaren Fenstern.
  • Mittels Gardinen kann aus dem Haus heraus, aber nicht ins Haus hinein geschaut werden.
  • Das Haus als Analogie zum Leben. Es werden Fundament, Mauern und Dach gebaut. Zunächst weiß nur ein kleiner Personenkreis, wie es im Haus aussieht - bis die Eltern erste Bilder ins Internet stellen :-)
  • Denkbar ist eine animierte Visualisierung: Ein Kind wird ohne Privatsphäre im Rohbau groß - daneben erwächst ein Kind in einem Haus mit Türen und Fenstern (und demzufolge Privatsphäre)
  • Querverweis zum Bild Haushaltshilfe unter „OpenSource“

Big Data

Die Kleingruppe „Big Data“ hat im Brainstorming die Verarbeitung von Gesundheitsdaten als Schwerpunktthema gesetzt.

  • Unterschiedliche Interessenslage:
    • Krankenhaus: will Krankheitsverlauf vorhersehen
    • Versicherung: will Behandlungskosten optimieren
    • Patient: will optimal behandelt werden - will nur die zur Behandlung notwendigen Daten preisgeben
  • Worst-Case-Szenario: Die Entscheidungsfindung einer Triage, aber auf Grundlage von Daten mit einer ähnlichen Qualität wie die der Schufa
  • Bild eines „Daten-Tattoo“ mit nicht selbst gewähltem Motiv: Langfristige Konsequenzen, einfaches weglasern funktioniert bei digital beliebig reproduzierbaren Daten nicht (Querverweis: Datenschutz, Persönlichkeitsrechte und Datensicherheit)

Algorithmus

In der Kleingruppe Algorithmus wurde das Bild eines durch Maschinerie zersetzten und dann wieder zusammengefügten Menschen erarbeitet

  • Ein Mensch wird durch ein Zahnrad in einzelne Zahlen / Kategorien (Zahlrad statt Zahnrad?) zerlegt
  • Aufgrund dieser Kategorien werden Entscheidungen über den Menschen herbeigeführt
  • Übergeordnete Frage: kann der Mensch nur aus diesen Zahlen / Kategorien wieder rekonstruiert werden?
    • Nein, das Ergebnis ist immer verfälscht. Analog kann auch ein auf diesen Daten arbeitender Algorithmus keine immer korrekten Ergebnisse erbringen (Querverweis Big Data)

Sogar selbstlernende Algorithmen lernen nicht im menschlichen Sinne, sondern schärfen nur ihre Kategorien, um ihren Input besser in ihre vorher definierten Kategorien zerteilen zu können. Insofern werden die Menschen erst in die Kategorien zerteilt und eingeteilt und hinterher von einem anderen Algorithmus wieder zusammengesetzt. Das, was dabei rauskommt, entspricht nicht unbedingt dem, wie sich der Mensch, der vorne „eingegeben“ wurde, sich selbst sieht oder auch wirklich ist. Algorithmen arbeiten dabei nur mit den Daten, für die sie definiert sind. Ob diese zutreffen, ist meist eine andere Frage.

Schlusswort

Aus dem Workshop nehmen wir einige gut ausgearbeitete Bilder mit, für die wir im nächsten Schritt auch eine grafische Darstellung entwickeln wollen (Hilfe wird gern angenommen - kommt einfach an unserem Dienstags-Treffen vorbei).

Darüber hinaus gibt es andere Bilder, die wir noch weiter verfeinern bzw. aus der Perspektive einer anderen Kategorie betrachten wollen. Vielleicht im Rahmen eines weiteren Workshops? ;-)