Ein Teilnehmer des Common Grounds Forum, Gabriel Brommer, sitzt auf einer Bühne mit Fachleuten für informatische Bildung. Er hält ein Mikrofon in der Hand.

It’s time for
real talk

TEXT Nadine Winter

Digitalpolitik ist oft ein homogenes, wenig diverses Feld. Doch was hat eigentlich die junge Generation dazu zu sagen? Wie müssen hier Gesetze und Regulierungen aus ihrer Perspektive gestaltet werden? Genau das zeigt eine Gruppe junger, engagierter Menschen mit ihren Forderungen an die etablierte Digitalpolitik.

Berlin, Samstag, 8:45 UhrKnapp 80 junge Menschen stehen im Hof des Silent Green, einer Eventlocation im Berliner Bezirk Wedding. Die Veranstaltung, an der sie teilnehmen werden, hat die Türen noch geschlossen. Aber in 15 Minuten geht’s los. Dann werden sie gemeinsam Forderungen an die Digitalpolitik formulieren – ganz ohne dabei die Meinungen von Politiker*innen oder der älteren Generation zu berücksichtigen. Denn bei diesem Event, dem Common Grounds Forum (CGF), stehen die Teilnehmer*innen, die junge Generation, mit ihrer Perspektive auf die Digitalpolitik im Mittelpunkt.

Um 9:00 Uhr strömen sie in die Betonhalle des Silent Green, sie nennen ihren Namen am Check-in und geben an, bei welchem Themen-Track sie sich engagieren: Bildung in der digitalen Welt, Digitalisierung und soziale Nachhaltigkeit oder ökologische Nachhaltigkeit. Einige machen noch ein Polaroid-Foto für die anstehende Wahl am Nachmittag. Denn: Die entwickelten digitalpolitischen Forderungen werden im November auf dem Digital-Gipfel der Bundesregierung in Jena mit Politiker*innen diskutiert – und dafür braucht es Vertreter*innen. Der Andrang bei den Polaroids ist groß, aber zum Glück werden gleich zehn junge Menschen gewählt, um die Positionen des CGF in Jena einzubringen.

Die Teilnehmer*innen kennen sich – zumindest digital – schon länger. In drei Workshops und so manchen Kollaborationstools haben sie bereits gemeinsam neue Fähigkeiten aufgebaut, mit Expert*innen über Digitalpolitik diskutiert und ausgelotet, worauf sie bei ihren Forderungen die Schwerpunkte legen wollen. Das macht den Start in das Event viel leichter. Und nach einem kurzen Gruppenfoto wird schon weiter an den Forderungen gearbeitet.

 

Jena, Dienstag, 11:55 Uhr  Daphne Auer, eine der zehn Vertreter*innen des CGF, wartet im Backstage-Bereich im Volkshaus Jena. An ihr läuft Bettina Stark-Watzinger, Bundesministerin für Bildung und Forschung, vorbei und verschwindet in der Maske. Denn gleich stehen beide auf derselben Bühne: der Hauptbühne des Digital-Gipfels der Bundesregierung. Seit ein paar Tagen dreht sich für die zehn Vertreter*innen des CGF alles um diese 60 Minuten. Tagelang wurde daran gefeilt, wie ihre digitalpolitischen Forderungen möglichst wirksam bei der Politik ankommen.

Und dann ist es so weit: Die Spotlights richten sich auf Daphne und sie beginnt zusammen mit Gabriel Brommer ihr Zukunftsplädoyer. In den darauffolgenden zehn Minuten betonen die beiden, wie wichtig es ist, eine sozial gerechte Digitalisierung zu gestalten, die nicht nur auf die Interessen der Wirtschaft gerichtet ist. Dafür brauche es ethische Standards bei KI-Systemen, eine langjährige Bereitstellung von Updates für alle Betriebssysteme, aber auch bundesweit ein Pflichtfach Informatik und Lehrkräfte, die mit digitalen Technologien im Klassenzimmer umgehen können.

Common Grounds Forum

Von der Gesellschaft für Informatik realisiert und vom Bundes­ministerium für Bildung und Forschung (BMBF) gefördert, entwickelten 80 junge ­Menschen in Online-Workshops und einem Vor-Ort-Event in Berlin insgesamt 30 Forder­ungen an die Digital­politik. Drei davon sind hier beispielhaft abgebildet, alle weiteren gibt es unter:
https://common-grounds-forum.org/forderungen

 

„Seit Menschen in sozialen Gruppen leben, haben wir ein intuitives Verständnis von Privatsphäre entwickelt. Im Vergleich dazu gibt es digitale Technologien erst seit einem Wimpernschlag und auf einmal teilen wir mehr über uns als je zuvor, ohne es überhaupt wahrzunehmen.”
Ludwig Lorenz
„Damit Schüler*innen digitale Mündigkeit entwickeln, benötigt es ­Lehrkräfte in allen ­Fächern, die sie ­kompetent begleiten. Aktuell hängt dies noch vom Engagement ­Einzelner ab, dies muss sich ändern.”
Sébastien Elbracht

Nach dem Zukunftsplädoyer stehen bei einer Paneldiskussion, an der neben der Ministerin auch noch GI-Präsidentin Christine Regitz, Ralph Müller-Eiselt, geschäftsführender Vorstand des Forum Bildung Digitalisierung, Prof. Dr. Ira Diethelm, Professorin für Didaktik der Informatik an der Universität Oldenburg, und Julia Kloiber, Geschäftsführerin des Superrr Lab, beteiligt sind, weitere Vertreter*innen des CGF auf der Bühne.

Ihre Motivation und Begeisterung sind richtig spürbar, sie haben keine Scheu, sich in die Debatte einzubringen und erklären den Politiker*innen immer wieder ihre Forderungen. Es gibt viel Applaus, der jungen Generation wird viel Mut zugesprochen und viele betonen vor Ort und online, wie wichtig sie und ihre Positionen für die Zukunft sind. Dass diesen Worten nun auch Taten folgen müssen, ist klar: Die Teilnehmer*innen des CGF bleiben dran. Der Digital-Gipfel war für sie erst der Anfang. In den im Laufe des Projekts entstandenen Signal-Gruppen werden bereits die nächsten Pläne geschmiedet. Die jungen Menschen sind fest entschlossen, ihre Positionen weiter mit Politiker*innen zu diskutieren – bis sie nicht nur gehört, sondern auch umgesetzt werden.

„Beim Digital-Gipfel nahmen so viele ­Vertreter*innen der Zivilgesellschaft teil wie nie zuvor – ein wichtiges Zeichen! Mein Wunsch ist, dass die Stimme der Jugend noch deutlicher Gehör findet.“
Felicitas Strickmann

So sehen die Forderungen aus

Ethische KI-Standards

UNSERE POSITION
Technologie soll darauf ausgerichtet sein, Fähigkeiten von Menschen zu erweitern, ihre Bedürfnisse zu erfüllen und ihre Erfahrungen zu verbessern. Daher sollten KI-Technologien nach einem menschenzentrierten Ansatz entwickelt und genutzt werden.

DAS FORDERN WIR

  • Beim Einsatz von KI müssen ethische Standards sowie soziale Aspekte und ökologische Faktoren beachtet werden. Es braucht Leitlinien und Standards, an denen sich Entwickler*innen und Anwender*innen orientieren können. KI darf nicht dazu genutzt werden, um Menschen auszubeuten, zu manipulieren oder zu ersetzen.
  • KI-Systeme sollten für ihre Nutzer*innen so weit wie möglich nachvollziehbar und erklärbar sein. Intransparente „Black Box“-Systeme bergen große Risiken. Methoden wie Explainable AI müssen gefördert werden, um die Nachvollziehbarkeit zu erhöhen, und insbesondere von staatlichen Stellen bevorzugt werden.
  • KI-Technologie muss fair sein und darf keine Individuen oder Gruppen systematisch diskriminieren. KI-Systeme dürfen keine versteckten Vorurteile oder Diskriminierungen enthalten, die sich aus den Trainingsdaten ergeben können. Schon bei der Datenauswahl und -aufbereitung muss auf potenzielle Biases geachtet werden.
  • Es braucht Qualitätssicherung und -nachweise. Für KI-Systeme, die in kritischen Bereichen eingesetzt werden, müssen Qualitätsstandards definiert und deren Einhaltung überprüft werden. Mögliche Maßnahmen sind Zertifizierungen oder unabhängige Prüfstellen.
  • Um KI im Sinne der Menschen zu entwickeln, braucht es divers zusammengesetzte Entwickler*innen-Teams. Diese müssen gezielt gefördert werden. Zudem sollte der Austausch über bewährte Verfahren branchenübergreifend gefördert werden.

AUTOR*INNEN  
Nina Krebs, Zaim Sari, Julia Scharsich, Felicitas Strickmann, Konstantin Strömel, Philip Toma, Vincent Wehrwein

„Microtargeting und ­individuelle Manipulation sind feste Bestandteile ­unser aller Leben geworden. Wir finden, dass Daten­austausch im Interesse der Nutzenden passieren muss und sie mehr ­Transparenz über die Nutzung ihrer Daten ­erfahren müssen.”
Aurelia Kusumastuti

 

 

Politische Rahmenbedingungen im Bildungssystem

UNSERE POSITION
Die Finanzierung der Fort- und Ausbildung von ­Lehrkräften in Bezug auf die Digitalisierung ist ­unzureichend.

DAS FORDERN WIR

  • Es braucht einen Ausbildungspakt des Bundes zur finanziellen Unterstützung der Ausbildung von Lehrkräften.
  • Die kontinuierliche Fortbildung muss ­institutionalisiert werden.

AUTOR*INNEN 
Anastasia Addamo, Daniel Braun, Antonia Bräutigam, Sébastien Elbracht, Karl Grotheer, Kathleen Heuer, Nele Pult, Finn Rudolph

Überwachungskapitalismus

UNSERE POSITION
Durch die umfassende Sammlung und Analyse persönlicher Daten können Unternehmen Verhaltensmuster und Vorlieben der Menschen identifizieren. Diese Daten über Personen machen die individuelle Manipulation in Massen möglich. Diese Möglichkeit ist ein Angriff auf die persönliche Entscheidungsfreiheit, die den Menschen weiterhin durch den Staat garantiert werden muss.

DAS FORDERN WIR

  • Manipulationsversuche durch Microtargeting der politischen Überzeugung einer Person soll strafrechtlich verfolgt werden.
  • Was als „Legitimes Interesse“ gilt, soll aus Perspektive der Nutzenden und nicht aus jener der Dienstanbietenden definiert werden. Dafür muss der Kontext des Informationsflusses maßgeblich sein (siehe Contextual Integrity, Helen Nissenbaum).
  • Wir brauchen unabhängige Institutionen, die den Bedrohungsfaktor des genutzten Dienstes für die Nutzenden herunterbrechen. Wir fordern den Privacy-Score, einen Nutri-Score fürs Internet, weil Cookie-Banner von Website-Betreiber*innen nicht ausreichen.
  • Standardisierte Datenauszüge der über uns gesammelten Daten sollen menschenlesbar schnell und unkompliziert über eine standardisierte Schnittstelle zugänglich sein.
  • Auf Basis der Schnittstelle sollten staatliche und gemeinnützige Privacy-Dashboards angeboten werden, über die Nutzende erkennen, wie ihre Daten verwendet werden.
  • Junge Menschen sollen intensive Bildungsangebote zu den Themenfeldern Privatsphäre, informationelles Selbstbestimmungsrecht und Dateneigentum erhalten.

AUTOR*INNEN 
Birte Damm, Nora Hofer, Benedikt Jung, Aurelia Kusumastuti, Ludwig Lorenz