Screenshot Hamburger Menetekel zur Digitalisierung - Auszug der Video-Dokumentation

Hamburger Menetekel | Zukunftslabor Wandsbek: „Digitalisierung / Krise der Demokratie“

Das folgende Skript [PDF] habe ich in Zusammenarbeit mit Jo Preußler (Graffitimuseum Berlin), Julia Krüger (netzpolitik.org), Christian Tschirner (Deutsches SchauSpielHaus) und den Wandsbeker Schüler:innen Lena, Linus, Lucas und Maximilian entwickelt. Die 20-minütige Performance Lecture war Teil des futurologischen Kongresses „Hamburger Menetekel“, der vom 24. bis 26. Mai 2019 am Deutschen SchauSpielHaus Hamburg stattfand. Eine Dokumentation der Veranstaltung findet ihr unter hamburgermenetekel.de.

[Eröffnungssequenz: Musik; Schüler:innen beschriften die Wand im Raum mit Schlagworten zum Thema Digitalisierung und tragen das Wandsbeker Menetekel zur Digitalisierung vor; s. Textbuch]

Linus: Wie sind wir da hineingeraten?

Nun. Dafür sollten wir einen Blick in den bisherigen Verlauf der Digitalisierung werfen – und was auf dem Weg eventuell schief gelaufen sein könnte.

An dem, was wir heute digitale Netze nennen, tüftelten internationale Forscher:innen aus der Informatik, Philosophie, den Sozialwissenschaften, der Computerbranche schon seit Mitte des letzten Jahrhunderts. Vorangetrieben wurde diese Entwicklung vor allem in den USA, an den Elite-Universitäten, oft mit Förderung des Militärs. Und von schlauen Köpfen wie Bill Gates, die in ihren Garagen an neuen Hardware-Lösungen feilten. Computer brauchten bald keine Lagerhallen mehr: Die Rechenleistung wuchs rasant und gleichzeitig wurden die Geräte viel kleiner. Das Zeitalter der Personal Computer war angebrochen und läutete eine erste digitale Revolution an den Arbeitsplätzen und in den Wohnzimmern ein. Angetrieben von diesen Entwicklungen in den USA und Japan machte sich in den 80er Jahren auch die Bundesregierung Gedanken darüber, wie eine digitale Gesellschaft aussehen könnte. Man wollte Privathaushalte, Verwaltungen und Betriebe vernetzen, auf Grundlage einer nationalen Kommunikationsinfrastruktur – das Ganze sollte unter Leitung der Bundesministerien für Forschung und Post geschehen.

Und schon damals stritt man sich über mögliche Folgen der Digitalisierung. Die Befürworter:innen betonten die Chancen: wirtschaftliches Wachstum durch Automatisierung, Effizienz, eine Stärkung der Demokratie, höhere Chancengleichheit durch den Zugang zu Technologie und Wissen. Die Kritiker:innen aus Wissenschaft, Gewerkschaften oder Kirche sahen Risiken: gesundheitliche und soziale Folgen, die Verstärkung gesellschaftlicher Ungleichheiten, Überwachung, Datenschutzprobleme, das Entstehen globaler IT-Konzerne mit großer Macht und Einfluss. Man sah also, dass die Digitalisierung mit gewissen Kosten einhergehen würde, die nicht von den Herstellern, sondern von der Allgemeinheit getragen werden. Um diese Kosten in Grenzen zu halten, sollte die Digitalisierung entsprechend gestaltet werden: datenschutzfreundlich, IT-sicher, an den Bedarfen der Menschen orientiert. Bevor diese Ideen umgesetzt werden konnten, geschah jedoch etwas ganz anderes.

Wir befinden uns in den Jahren 1989 und 1990 (also vor ziemlich genau 30 Jahren). Plötzlich konnte man sich mit dem Telefon in ein globales Netz einwählen – der Siegeszug des Internet begann. Ein deutsches Netz, reguliert vom Bundespostministerium, war damit obsolet. Allerdings gab es nun auch keinen einzigen Akteur mehr, der alleine dafür zuständig gewesen wäre, die Entwicklung dieses grenzenlosen, dezentralen Kommunikationsnetzes zu steuern. Und dann kam natürlich noch die Wende dazu, die bisherige Weltordnung galt nicht mehr – die Menschen und vor allem die Politik hatten ganz anderes im Sinn. Eine verpasste Chance, der Digitalisierung eine geordnete Richtung zu geben.

Okay, alles klar – aber wie ging es denn dann weiter?

Am 30. April 1993 gab die Schweizer Forschungseinrichtung CERN das World Wide Web für die Öffentlichkeit frei, es verbreitete sich rasant: Alle wollten mitsurfen auf der „Datenautobahn“, die zum Dreh- und Angelpunkt der Informationsgesellschaft werden sollte. Schnell wurde das Netz zur Begehrlichkeit von ökonomischen Interessen. Die daraus entstandene New Economy brach jedoch bald zusammen.

In dieser Lücke kam es Mitte der 2000er Jahre zu einer neuen Entwicklungsstufe: das „Web 2.0“. Neue Dienste wie Facebook oder YouTube schufen nicht nur neue, datenbasierte Geschäftsmodelle. Sie standen auch für einen tiefgreifenden gesellschaftlich-kulturellen Wandel. Denn plötzlich konnte man nicht nur Inhalte abrufen, sondern einfach selbst Inhalte online stellen, ohne die Torwächter der klassischen Öffentlichkeit. #myspace

Die damals entstandene Wikipedia, eine der meist genutzten Webseiten weltweit, steht bis heute exemplarisch für die Demokratisierung und freie Verbreitung von Wissen. Sie war nie kommerziell ausgerichtet, ihr Creative Commons-Prinzip ein Gegenentwurf zum klassischen Urheberrecht.

Das Social Web mit seinen Blogs, Foren und sozialen Netzwerken ermöglichte neue Formen der Kollaboration und Vernetzung. Es formierten sich digitale Gegenöffentlichkeiten, neue Wege der gesellschaftlichen Teilhabe. Demokratische Umwälzungen wie der Arabische Frühling, den wir 2011 live im Netz mitverfolgen konnten, wurden gar als „Facebook-Revolution“ besungen.

Doch dann, zwei Jahre später: 2013, das Jahr der Snowden-Enthüllungen. Der Umfang und die Tiefe der staatlichen Überwachung, wie sie durch den Whistleblower bekannt wurde, löste ein massives Erdbeben aus, das bis heute nachhallt. Weil es zeigte, wie verletzlich digitale Kommunikationsinfrastrukturen und damit auch unser vernetzter Alltag ist. Im selben Jahr hören wir übrigens von Angela Merkel den Satz: „Das Internet ist für uns alle Neuland.“  

Lena: Und wo stehen wir heute?

Die Situation heute erinnert an den Morgen nach einer langen Party-Nacht: Man hat getanzt, getrunken, Spaß gehabt – und am nächsten Tag kommen die Zweifel. Die Begeisterung über die vielen neuen technischen Möglichkeiten ist der Erkenntnis gewichen, dass die Begleiterscheinungen der Digitalisierung, die wir hier (*zeigt auf die Begriffe an der Wand*) lesen können, uns zu entgleiten drohen.

Die Digitalisierung wird heute vor allem von kommerziellen Interessen und einigen wenigen, global agierenden IT-Unternehmen vorangetrieben: Google, Microsoft, Amazon, Facebook, IBM, Apple (G-MAFIA). Sie tüfteln fortlaufend an immer neuen Tools – wer zuerst kommt, macht die großen Gewinne. Das Sammeln und der Handel mit den Datenspuren, die wir überall im Netz hinterlassen, ist ein gigantisches, undurchschaubares Geschäft geworden. „Wenn man nicht bezahlt, ist man das Produkt.“ #datenkapitalismus Die großen Plattformen sind zu wichtigen Knotenpunkten für den Zugang zu Wissen, zu Räumen der öffentlichen Auseinandersetzung und Meinungsbildung geworden. Doch die Prinzipien, nach denen ihre Algorithmen Informationen filtern und sortieren, bleiben ein wohl gehütetes Geschäftsgeheimnis. Dabei führen uns die vielen Skandale um Plattformen wie Facebook – von der Rolle im US-Wahlkampf bis zu immer neuen Datenpannen – regelmäßig die Verantwortungslosigkeit der Betreiber und die Ohnmacht der Politik vor Augen. Es ist eine Machtfülle entstanden, der meist keine ausreichende demokratische Legitimierung und Kontrolle gegenübersteht.

Zugleich hat das „soziale Web“ seine Unschuld verloren: Es ist zum Austragungsort digitaler Kulturkämpfe geworden, in dem moderate Positionen gegen Hetze, Hass und Verschwörungsideologien kaum noch eine Chance haben. Die einst gefeierte digitale Öffentlichkeit wird für undemokratische Zwecke missbraucht. Fake News, Online-Propaganda und manipulative Inhalte verunsichern, säen Zwietracht. Sie tragen zur Radikalisierung von Individuen und Polarisierung ganzer Gesellschaften bei. #brexit

Maxi: Aber … wie geht es uns eigentlich damit?

Die Digitalisierung ist in den letzten dreißig Jahren so schnell und an so vielen Stellen unseres Alltags voran geschritten, dass wir nie wirklich Zeit hatten, uns mit den Folgen für unser Zusammenleben auseinanderzusetzen. Einerseits die Notwendigkeit, digitale Dienste zu nutzen, um am sozialen, kulturellen und am Wirtschaftsleben teilzunehmen. Andererseits ist da die ständige Erreichbarkeit, diese digitale Dauerbeschallung, ständig Wichtiges von Unwichtigem filtern – das überfordert, das stresst uns. #digitaldetox

Allmählich spüren wir die sozialen Kosten, die so eine Umwälzung hervorbringt. Wir haben uns lange Zeit von der technischen Entwicklung vorantreiben lassen, ohne so recht zu wissen, wie wir als Gesellschaft – und vor allem auch als Individuen – gut damit umgehen können.

Und so sind wir hier hineingeraten, in diese digitale Katerstimmung.

Maxi: Was bedeutet das für unsere Zukunft?

Gerade erleben wir einen neuen Schub technologischer Entwicklungen, besonders im Bereich der Künstlichen Intelligenz. Smarte Maschinen sind dank komplexer Algorithmen, riesiger Datenmengen und der rasant gestiegenen Rechnerleistung längst in unserem Alltag angekommen: Assistenz-Systeme wie „Siri“ oder „Alexa“ beantworten unsere Fragen, mit Smart-Home-Geräten steuern wir unsere Heizung auf Zuruf – und unsere Smartphones können wir bequem per Gesichtserkennung entsperren. Immer, wenn wir solche Dienste nutzen, füttern wir die dahinterstehende Software mit Sprach-, Text- und Bilddaten, aus denen sie lernen und ihre Vorhersagen optimieren kann. Wie genau das abläuft, können teilweise nicht mal mehr die Entwickler:innen vorhersehen – von der Sicherheit dieser Systeme ganz abgesehen.

Auch wenn es Zweifel gibt, wann oder ob es überhaupt jemals gelingen wird, Maschinen zu entwickeln, die über eine mit dem Menschen vergleichbare „Intelligenz“ verfügen: Smarte Technologien werden in Zukunft mehr Aufgaben übernehmen, von denen wir bisher dachten, dass nur Menschen sie erfüllen können. Zum Beispiel das autonome Fahren, das in einigen Ländern ja schon getestet wird. Hier zeigt sich, dass mit der Umsetzung nicht nur rechtliche, sondern auch ethische Fragen verbunden sind. Wer etwa trägt die Verantwortung für negative Folgen wie Unfälle – Mensch oder Maschine? Diese schwierige Frage werden wir uns in Zukunft noch sehr oft stellen müssen.

Denn gleichzeitig werden in immer mehr Bereichen technische Systeme getestet, die automatisch Daten auswerten, Prognosen erstellen und damit zur Grundlage von Entscheidungen über Menschen werden: in Krankenhäusern, Versicherungen, Polizei, Verwaltung. Doch diese Systeme sind nicht fehlerfrei. Falsche, unvollständige Daten können zu verzerrten Empfehlungen führen – bis hin zur unfairen Benachteiligung oder Diskriminierung von Menschen. Die Betroffenen erfahren selten davon und haben kaum eine Chance, gegen negative Folgen vorzugehen. Denn die algorithmischen Vorgänge sind schwer einsehbar. Und ihre Outputs werden kaum hinterfragt. Sollen solche Systeme eigenständig über Menschen entscheiden – oder nur Empfehlungen geben? Wo sollen sie eingesetzt werden – und wo nicht? Und wie kontrollieren wir das?

In der Zukunft könnten diese Technologien also dazu führen, dass sich die bisherigen Tendenzen noch verstärken. Schon heute werden wir ja an vielen Stellen mit Inhalten versorgt, die auf unsere Interessen zugeschnitten sind. Und die Filter- und Empfehlungsalgorithmen von YouTube, Amazon & Co. werden immer geschickter darin, uns mit Informationen zu versorgen, die zu unseren Datenprofilen passen. #personalisierung

Dadurch droht die Öffentlichkeit, wie wir sie kennen, in immer kleinere, abgeschlossenere Räume zu zerfallen. Hinzu kommt die Krise der klassischen Medien, „alternative Fakten“. Wenn aber nun jede und jeder in der eigenen „Informationsblase“ schwimmt, es immer weniger gemeinsame Wissensbestände gibt, vielleicht sogar alle ihre eigene Wahrheit haben, dann haben wir ein Problem. Denn dann fehlt die Grundlage für den demokratischen Austausch über wichtige Themen in unserer Gesellschaft.

Verschärft wird das Ganze durch neue Phänomene wie „Deep Fakes“, also mittels KI-Technik erstellte, täuschend echte Bilder, Videos oder Audios. Können wir unseren Augen und Ohren noch trauen? Was ist echt und was ist ‚fake‘? Diese Frage lässt sich in Zukunft wohl noch schwerer beantworten.

Und dann ist da noch die Frage der digitalen Nachhaltigkeit: Immer kürzer werden die Lebenszyklen digitaler Geräte – ein Kreislauf, an dem auch all jene schuld sind, die jedes Jahr das aktuellste Smartphone, immer neue Gadgets kaufen. Während wir heute über Flugreisen oder das Plastik in den Meeren reden, türmen sich an anderer Stelle riesige Halden mit Elektro-Schrott. Die Suche nach den notwendigen Ressourcen zerstört ganze Regionen. Und überhaupt: Auf wessen Kosten entsteht sie eigentlich, die schöne neue digitale Welt? Was ist zum Beispiel mit den Klickarbeitern, die am anderen Ende der Erde dafür sorgen, dass wir keine Enthauptungsvideos oder Kinderpornos zu sehen bekommen? Oder den Zustellern unserer Amazon-Pakete? Was hier entsteht, ist ein neues Prekariat, eine digitale „Unterschicht“ – überarbeitet, mies bezahlt und selbst kaum an den Vorzügen des technischen Fortschritts beteiligt.

All diese Dinge sind Teil aktueller Debatten – dabei ist die mittlere und ferne Zukunft nur schwer absehbar. Die intelligenten Maschinen, die heute im Entstehen sind, können viel Positives bewirken. Zum Beispiel die bessere Diagnose und Behandlung schwerer Krankheiten. Aber sie werden wohl auch den Wegfall von Arbeitsplätzen bedeuten. Während die einen also auf maschinelles Lernen, Big Data und Quantencomputer als Lösung aller großen Menschheitsprobleme schwören, befürchten die anderen eine sich verselbstständige Maschinen-Intelligenz, die nicht mehr kontrollierbar und auf lange Sicht dem Menschen überlegen sein wird.

Hinter diesen Zukunftsbildern steht eine ganz grundlegende Frage. Nämlich ob es uns gelingen kann, digitale Werkzeuge zur Bewältigung von drängenden Problemen wie der Klimakrise, also zum Wohle der Menschheit zu nutzen – oder zu ihrer Entmündigung.

Wir stehen an einem Scheideweg: Ohne ein Entgegensteuern ist zu befürchten, dass diese wirkmächtigen Technologien vor allem noch stärker für die Maximierung von Profiten oder machtpolitische Ziele genutzt werden. Und für neue Ungleichheiten und soziale Konflikte sorgen. Ob das passiert, hängt davon ab, ob wir ein Umdenken erreichen, wie und wozu uns die Digitalisierung nutzen soll. Und ob es gelingt, digitale Technologien nicht nur zur Stärkung der Interessen einiger weniger, sondern für gesamtgesellschaftliche Ziele zu entwickeln. Gemeinwohl- und problemlösungsorientiert, im Einklang mit grundlegenden Werten wie Freiheit, Sicherheit und Autonomie.

Lena: Was können wir tun, welche Handlungsoptionen haben wir?

Nun. Wie können wir die digitale Katerstimmung abschütteln? Mein schlauer Kollege Jan-Hinrik Schmidt hat vor sieben Jahren eine wichtige Prognose getroffen. Er sagte, das Netz könne nur dann wirklich demokratisch sein, „wenn auch die Gestaltung der zugrundeliegenden Technologien offen für Mitbestimmung und Teilhabe ist.“[1] Doch wie könnte das aussehen?

Zum einen müssen wir Wege finden, um der Macht einzelner IT-Unternehmen zu begegnen. Gesetze, empfindliche Strafen, die Forderung nach mehr Transparenz und Verantwortung – all das hat ja bisher nicht so wirklich gezündet. Wie also können diese zentralen Schaltstellen des digitalen Lebens demokratisiert werden? Google & Co. enteignen, verstaatlichen, zerschlagen – oder gleich abschalten? Oder wäre es denkbar, an der Logik der Plattformen zu schrauben? Die Algorithmen so zu gestalten, dass sie nicht um jeden Preis unsere Aufmerksamkeit ausbeuten, sondern gesellschaftlichen Diskurs, Meinungsbildung fördern?

Zum anderen müssen wir die Souveränität über unsere Daten zurückerlangen. Aktuell horten die Anbieter eine Unmenge an Daten, über uns, aber auch über Vorgänge in der Welt. Dabei könnten wir zum Beispiel die Daten der Sensoren an Autos gut gebrauchen, um intelligente Lösungen für den öffentlichen Verkehr zu finden. Solche Daten sollten zum Gemeingut werden. Dafür braucht es Regelungen für den sicheren Datenzugriff und die Förderung von Open-Data-Schnittstellen. Überhaupt muss mehr Geld in die Entwicklung technischer Alternativen fließen. In Software mit offen einsehbarem, von allen nutzbarem Quelltext als Gegenmodell zum un-lesbaren Code der großen Plattformen. Open Source statt Blackbox!

Vor allem aber müssen wir uns endlich mal genauer überlegen, wie wir als Gesellschaft digitale Werkzeuge konstruktiv nutzen wollen. Wie müsste Digitalisierung aussehen, damit sie nicht zum Faktor wachsender sozialer Ungleichheit wird, sondern das Wohlergehen aller fördert? Wie etwa wollen wir Datenanalysen, KI und algorithmische Entscheidungssysteme in öffentlichen Einrichtungen einsetzen? Bei diesen Fragen steht Deutschland noch am Anfang. Das ist gar nicht so verkehrt, denn noch können wir darüber entscheiden, wie sich der Einsatz von Software, die das Leben und die Teilhabechancen von Menschen beeinflussen kann, angemessen, fair und gerecht gestalten lässt. Diese Aufgabe kann – und sollte – nicht allein der Staat übernehmen. Es braucht unabhängige Gremien, um die Entwicklung zu begleiten, mögliche Folgen abzuschätzen und den Einsatz zu kontrollieren. Und natürlich brauchen wir eine bessere Regulierung und politische Gestaltung der Digitalisierung.[2] #uploadfilter

Aber: Technische oder rechtliche Lösungen alleine reichen nicht. Wir müssen anerkennen, dass Digitalisierung keine Selbstverständlichkeit, sondern mit Lernprozessen und Zugangsmöglichkeiten verbunden ist. In anderen Ländern werden digitale Medien in den Unterricht integriert und die Ausbildung von Programmierer:innen gefördert – hierzulande fehlen uns Fachkräfte, die den digitalen Wandel begleiten. Und ja klar: eine bessere Netzversorgung und faire Datentarife wären auch nicht verkehrt. Das beste Mittel für mehr digitale Mündigkeit ist und bleibt: Bildung. Nicht jede und jeder muss programmieren lernen (obwohl das – kleiner Tipp an dieser Stelle – wahrscheinlich ziemlich schlau wäre). Aber egal ob jung oder alt: Wir müssen uns damit auseinandersetzen, wie die Technologien funktionieren, die unseren Alltag begleiten. Wir müssen uns Kompetenzen aneignen, um selbstbestimmt und verantwortungsvoll mit ihnen umzugehen – statt sie einfach aus Bequemlichkeit zu nutzen. Oder jedem Technik-Trend naiv hinterherzulaufen. #self-tracking

Und wir müssen die Verantwortung für unser digitales Handeln reflektieren. Denn an Hate Speech oder Fake News sind nicht allein die Technik oder Plattformbetreiber schuld – das sind natürlich auch wir. Deshalb müssen wir darüber reden, wie wir miteinander umgehen wollen – im Netz und außerhalb. Wie es gelingen kann, die Informations- und Medienvielfalt zu erhalten, das Vertrauen in demokratische Institutionen und den sozialen Zusammenhalt zu stärken. Das sind große Fragen, die wir nur gemeinsam beantworten können.

Deshalb dürfen wir uns nicht in einem Technik- und schon gar keinem Demokratiepessimismus verlieren. Denn dann würden wir die vielen Chancen, die mit digitalen Technologien verbunden sind, leichtfertig hergeben. Es ist einfach, allein der Technik die Schuld zu geben. Sich den Dystopien von der Allmacht der Maschinen und der Ohnmacht des Menschen hinzugeben.

Dabei hatten wir doch viele Chancen, der Digitalisierung eine andere Richtung zu geben. Die haben wir – zugegebenermaßen – bisher öfter mal verkackt. Aber noch sind die Maschinen eher dumm. Noch haben wir es in der Hand zu entscheiden, welche Aufgaben wir ihnen geben wollen.

Das Menetekel, das kann man auch anders deuten.

DGR. „Digitale Gesellschaft Retten“

Ein Auftrag an uns alle. Vielleicht fehlt uns Erwachsenen, die es sich zwischen Homeoffice, Apple Watch und Lieferando bequem eingerichtet haben, die Fantasie und der Mut, das Digitale neu und radikal anders zu denken. Deshalb brauchen wir euch junge Menschen und eure Ideen für eine lebenswerte digitale Zukunft.

The Future is Unwritten.


[1] Schmidt, J.-H. (2012): Das demokratische Netz? In: Aus Politik und Zeitgeschichte 7/2012, S. 3-8. Online unter: http://www.bpb.de/apuz/75830/das-demokratische-netz?p=all.

[2] Siehe etwa: Chaos Computer Club (2018): „Forderungen für gemeinwohlorientierte und datenschutzfreundliche Digitalpolitik“; veröffentlicht am 18. November 2018 unter https://www.ccc.de/de/updates/2018/bitsundbaeume.