logo-edition.jpg
Inhaltsverzeichnis
Einführung
1. Umbrüche
Moderne Bilderwelten
Das globale Shoppingcenter
Alte und neue Ungleichheiten
Neue Monopole
Das Ich im digitalen Spiegel
2. No Return!
Die neue Industrialisierung
Digitaler Siegeszug
Quantifizierte Welt
High Speed – Fast Crash
Internet of Things
Sharing
3. Die Internetgesellschaft
Frühe Protestkulturen
Revolution per Twitter und Facebook?
Netz-Konterrevolution
4. Auf dem Weg zur digitalen Agora?
Demokratie ist keine Maschine
Politik als Markt
Frag zurück!
Neuland Netzpolitik
Digitale Zivilgesellschaft
Neuer Netzjournalismus
Online-Aktivismus
Elektronische Petitionen
Wahl per Automat?
Online-Wahlen
Mit dem Staat diskutieren?
Braucht der Staat Fans?
5. Die Transparenzgesellschaft
Transparenter Staat
Freedom of Information
Transparenz nicht bloß auf Nachfrage
Blinder Fleck Geheimdienste
Mehr Transparenz – auch bei Unternehmen
Schicksal Überwachung?
Chilling-Effekt
Big Data
Kein Vergessen, kein Vergeben?
Geheimnisverrat als Heldentat?
Digitale Tarnkappen
Böse Verschlüsselung
6. Die Zukunft der Informationsgesellschaft
Gestaltungswille
Werte, Prinzipien, Grundrechte
Machtbegrenzung
Digitale Gerechtigkeit
Mehr Licht!
Demokratisches Potenzial
Fazit
Anmerkungen
Dank
Über den Autor
Impressum
titelei.jpg

2. No Return!

Eine Rückkehr ins analoge Zeitalter wird es nicht geben. Wir können uns den Veränderungen nicht wirklich entziehen, selbst wenn wir digitale Enthaltsamkeit üben und auf Smartphone, Internet und Notebook verzichten. Die elektronische Umwälzung hat längst auch Gerätschaften und Dienste erfasst, die wir alltäglich nutzen und bei denen wir zunächst nicht vermuten, dass sie unser Verhalten aufzeichnen und die Erkenntnisse über das Netz weitergeben. Selbst das auf dem Flohmarkt erworbene oder in Omas Keller gefundene alte analoge Telefon erzeugt wie sein digitaler Nachfolger Verbindungsdaten, wenn man es mit dem digitalen Telekommunikationsnetz verbindet. Fernseher und Autos, Stromzähler, Supermarktkassen und Ticketautomaten im Nahverkehr sind keine eigenständigen Geräte – sie sind vernetzt, erzeugen Daten und geben sie weiter. Wir müssen uns also mit der Digitalisierung auseinandersetzen, unabhängig davon, ob wir den digitalen Wandel positiv oder negativ sehen.

Gab es noch Ende des 20. Jahrhunderts ernst zu nehmende Stimmen, die das Internet für einen vorübergehenden »Hype« erklärten (Microsoft-Gründer Bill Gates 1995) oder für eine »Mode« hielten, die »vielleicht wieder vorbeigehen« würde (Ines Uusmann, schwedische Ministerin für Verkehr und Kommunikation, 1996), hört man solche Ansichten heute kaum noch. In der zweiten Dekade des 21. Jahrhunderts schwanken die Einschätzungen zwischen schwärzesten Dystopien (negativen Utopien)29 und totaler Euphorie30. Es ist nicht mehr zu bestreiten: Der Weg in die Informations- und Transparenzgesellschaft ist unumkehrbar, aber sein genauer Verlauf ist noch nicht endgültig festgelegt.

Die neue Industrialisierung

In ihrem Video-Podcast betonte Bundeskanzlerin Angela Merkel am 21. Februar 2015, Deutschland müsse den »Schritt hin zur Digitalisierung der Produktion gehen«. Der Sprung in die digitalisierte Industrieproduktion (»Industrie 4.0«) sei für den Wohlstand Deutschlands von entscheidender Bedeutung. Sie werde darauf achten, dass »ich auf der einen Seite den Datenschutz beachte, aber auf der anderen Seite die Verarbeitung von großen Mengen an Daten nicht so restriktiv handhabe, dass neue Produkte gar nicht mehr entstehen können«.31

Dass Computer einmal für die Wirtschaft von existenzieller Bedeutung sein würden, war vor 70 Jahren, bei den ersten Schritten ins Computerzeitalter, undenkbar. Die Computertechnik war zunächst ein Nebenprodukt der Kriegsführung im Zweiten Weltkrieg. Mit der ab 1940 gebauten »Turing-Bombe«, einem schrankgroßen, elektromechanisch arbeitenden Rechner, gelang den Alliierten im Zweiten Weltkrieg die Entschlüsselung der militärischen Funksprüche der deutschen Marine. Dieser kriegsentscheidende Durchbruch befähigte die Alliierten, die gefürchtete deutsche U-Boot-Flotte auszuschalten. Lange Zeit – auch nach dem Zweiten Weltkrieg – blieben Computer eine Domäne des Militärs, viele technische Fortschritte gab es nur, weil die amerikanischen Forschungseinrichtungen massiv aus dem Militäretat finanziert wurden. Bis heute werden führende Institute wie das MIT (Massachusetts Institute of Technology) vom US-Verteidigungsministerium gesponsert.32

Erst seit Mitte der 1950er-Jahre sickerte die Digitaltechnik allmählich in Großunternehmen und bei statistischen Ämtern ein. Die Rechner – gewaltige Geräte mit riesigem Energieverbrauch, aber mit aus heutiger Sicht lächerlichen Verarbeitungskapazitäten – wurden in Kellern und in ausgelagerten Rechenzentren aufgestellt. An den meisten Arbeitsplätzen änderte sich dadurch zunächst nichts, und an eine Verwendung von Computern im häuslichen Privatbereich war erst recht nicht zu denken. Erst als in den späten 1960er- Jahren Taschenrechner und zehn Jahre später die ersten Home- und Personalcomputer auf den Markt kamen, begann die Digitaltechnik in unseren Alltag einzusickern. Betroffen waren zunächst vor allem Büroarbeitsplätze. Begeisterung löste die neue Technik auch bei manchen – meist männlichen – Jugendlichen aus, die in der digitalen Maschine eine Möglichkeit zum Ausleben ihres Spiel- und Entdeckungstriebs sahen. Manches von dieser Begeisterung hallt noch in der oben zitierten Barlow’schen »Unabhängigkeitserklärung des Cyberspace«33 wider, die mehr über das Selbstverständnis der Nerds als über die Realität aussagte.

Heute gibt es kaum noch einen Bereich, der von der digitalen Revolution unberührt wäre. Computertechnik steuert alle möglichen Produktionsprozesse. Sie ist die Basis der erfolgreichsten Geschäftsmodelle, und sie entscheidet in immer stärkerem Maße über die Verteilung des erwirtschafteten Reichtums. Dabei ziehen Informationsmonopolisten – die Betreiber von »Sirenenservern«34 – immer mehr Wertschöpfung an sich, denn sie entscheiden zunehmend darüber, welche Dienstleistungen und Produkte erfolgreich sind, und sie verlangen dafür einen immer größeren Anteil des Erlöses. Dies führt zu dramatischen Verschiebungen zu Ungunsten der eigentlichen Urheber und der traditionellen Vermittler.

Trotz aller Unterschiede im Detail steht die Beherrschung der Vermittlungsprozesse im Mittelpunkt der Geschäftsmodelle des Suchmaschinengiganten Google, der Verkaufsplattform Amazon, des sozialen Netzwerks Facebook, des Auktionsdienstes eBay und der Autovermittlung Uber.

Die Digitalisierung verändert die heutigen Lebensverhältnisse ebenso stark, wie es die Industrialisierung getan hat. Standen im 19. und 20. Jahrhundert die Massenproduktion von Gütern und schließlich die Automatisierung ihrer Herstellung im Mittelpunkt, geht es nun um die massenhafte Sammlung und Auswertung von Daten, um deren Verknüpfung und um die Automatisierung des Denkens durch künstliche Intelligenz. Industriell gefertigte Gegenstände waren in hohem Maße standardisiert und unterschieden sich damit von handwerklich erstellten Produkten, in denen sich die individuellen Fähigkeiten und Vorstellungen des jeweiligen Handwerkers widerspiegelten. Ganzheitliche Arbeitsprozesse wurden durch fabrikmäßige Herstellungsverfahren abgelöst, die hochgradig arbeitsteilig organisiert waren. Jeder einzelne Arbeiter musste nur noch wenige Handgriffe beherrschen und hatte allenfalls eine vage Vorstellung von der Schaffung des Gesamtprodukts. Maschinen übernahmen zunehmend schwere körperliche Arbeiten und bestimmten den Takt des Arbeitsprozesses.

Die zunehmend auch in die Produktion eingedrungene Digitaltechnik verändert die industriellen Arbeitsprozesse ebenso dramatisch. Immer leistungsfähigere, digital gesteuerte Maschinen ermöglichen flexible Herstellungsprozesse und individuelle Produktgestaltungen. Während Henry Ford, der erste Fabrikant, der die Automobilherstellung vollständig auf Massenproduktion umgestellt hatte, zu seinem mehrere Millionen Mal produzierten »Modell T« 1909 halb scherzhaft erklärte: »Any customer can have a car painted any color that he wants so long as it is black«35, bekommen die Kunden heute weitgehend individualisierte Fahrzeuge, die sich nicht bloß in der Farbe, sondern auch in allen möglichen technischen Parametern und in der Ausstattung unterscheiden. Dies ist nur möglich, weil die Produktionsprozesse bereits weitestgehend computergesteuert ablaufen. Und schon deutet sich mit der Entwicklung von 3-D-Druckern ein neuer Schritt an, der die Produktionsprozesse abermals revolutionieren wird: Während herkömmliche Drucker zweidimensional arbeiten, indem sie Texte oder Grafiken auf Papier bringen, erzeugen 3-D-Drucker dreidimensionale Gebilde, etwa Figuren, Bauteile oder Gebrauchsgegenstände. Die rein softwaregesteuerte Erstellung beliebiger Produkte mit nahezu unendlichen Varianten rückt damit in greifbare Nähe.

Zum ersten Mal in der Geschichte der Menschheit bekommen wir es mit wirklich intelligenten Maschinen36 zu tun, die in der Lage sind, sich ohne menschliche Einwirkung zu organisieren und – ausgestattet mit »künstlicher Intelligenz« – selbst Entscheidungen zu treffen. Diese neue Qualität zeigt sich in vielen Bereichen, in der Güterproduktion und bei Waffensystemen gleichermaßen wie etwa bei der Bewertung der Kreditwürdigkeit eines Bankkunden oder Versicherungsnehmers. Diese Entwicklung wird kaum aufzuhalten sein, auch wenn die schon vor Jahrzehnten vorgebrachten Warnungen vor den Gefahren einer angeblichen Computerintelligenz heute berechtigter sind denn je.37

Digitaler Siegeszug

Niemals in der Geschichte der Menschheit hat sich eine Innovation so schnell durchgesetzt wie die Computertechnologie – nicht einmal 80 Jahre liegen zwischen ihren Anfängen und ihrer umfassenden Durchsetzung. 1936 erfand der britische Mathematiker Alan Turing das Modell des Universalcomputers, das bis heute den meisten digitalen Systemen zugrunde liegt. Nicht viel später konstruierte der deutsche Tüftler Konrad Zuse 1937 den ersten digitalen Rechner mit elektromechanischem Rechenwerk.

Einen Quantensprung machte die Informationstechnik mit der Möglichkeit der Vernetzung von Computern. Die Voraussetzungen für die digitale Datenkommunikation wurden von amerikanischen Wissenschaftlern Anfang der 1960er-Jahre geschaffen, aber es dauerte bis 1969, bis über das ARPANET die ersten Nachrichten versandt wurden. Wesentliche, noch heute verwendete Standards zur digitalen Kommunikation wurden bis Anfang 1983 entwickelt, der eigentlichen Geburtsstunde des Internets. Auf dieser technischen Basis wurden seither immer mehr Computersysteme vernetzt. Zudem war damit eine Plattform für eine Vielzahl von Kommunikationsdiensten vorhanden, etwa für die Versendung von E-Mails. Erst im Jahr 1989, nahezu zeitgleich mit dem Fall der Berliner Mauer, fiel der seinerzeit kaum beachtete Startschuss für das World Wide Web, die Plattform, mit der bis heute beliebige Informationsressourcen über das Internet bereitgestellt und erschlossen werden können. Dabei hatte seinem Erfinder, dem bei dem schweizerischen Atomforschungszentrum CERN arbeitenden Physiker Tim Berners-Lee, zunächst nichts anderes vorgeschwebt als eine Art auf verschiedene Computer verteilter Zettelkasten, der das Erinnern erleichtern sollte.

Nach den von Gordon Moore 1965 formulierten Erkenntnissen verdoppelte sich die Verarbeitungskapazität elektronischer Komponenten regelmäßig (»Moore’sches Gesetz«) bei unveränderten Komponentenkosten.38 Empirisch hat sich diese These bestätigt. So verdoppeln sich bis heute die Speicherkapazitäten von Festplatten, USB-Sticks und sonstigen Speichermedien alle 18 bis 24 Monate bei unverändertem oder sogar sinkendem Preis. Ebenso schnell beschleunigt sich die Verarbeitungsgeschwindigkeit von Prozessoren, und ähnlich verhält es sich mit den Übertragungskapazitäten in Netzwerken. Es gibt keine Hinweise darauf, dass sich diese Entwicklung verlangsamt. Das anhaltende schnelle digitale Wachstum hat dramatische Folgen: Elektronische Komponenten haben analoge Systeme in nahezu allen Bereichen der Kommunikations-, Antriebs-, Mess- und Steuerungstechnik ersetzt. Informationen werden heute fast durchgängig digital erfasst, gespeichert, übertragen und ausgewertet.

Analoge Telefone, die bis in die 1990er-Jahre in jedem Haushalt und auf jedem Büroschreibtisch standen, findet man heute nur noch auf Flohmärkten. Dabei war der Übergang zur digitalen Übertragungstechnik mit erheblichen Konflikten verbunden. So traf die flächendeckende Einführung des digitalen Telekommunikationssystems ISDN auf Kritik von Datenschützern, die befürchteten, dass damit das Ende der anonymen Kommunikation kommen würde. Die neue Technik ermöglichte die automatisierte Zuordnung jedes einzelnen Kommunikationsvorgangs zu den jeweiligen Teilnehmern, denn parallel zu den Inhalten werden auch die Kennungen des Anrufers und des Angerufenen übertragen. 1993 warnte ich vor den Gefahren, die damit einhergehen, dass die Digitalkommunikation in großem Maßstab überwacht werden kann. Während bei der analogen Kommunikation per Telefon oder Fax das gezielte Abhören nur im unmittelbaren räumlichen Umfeld des Anschlusses erfolgen könne, ermögliche die Digitaltechnik eine »großangelegte Querschnittsüberwachung« im Netz, bei der sowohl die Verbindungsdaten als auch die Inhalte aufgezeichnet würden. Zudem lasse sich mit den Verbindungsdaten jeder Kommunikationsvorgang nachvollziehen und individuelle Kommunikationsprofile würden möglich.39 Diese Warnungen haben wenig bis nichts bewirkt, obwohl Informatiker wie der leider viel zu früh verstorbene Andreas Pfitzmann Wege aufgezeigt hatten, digitale Netze so zu gestalten, dass eine Massenüberwachung unterbunden oder jedenfalls sehr erschwert worden wäre.40 Wie vielfach heute noch wurden solche Vorschläge weder von staatlicher Seite noch von Unternehmen aufgegriffen. Neben befürchteten zusätzlichen Kosten widersprachen (und widersprechen) diese überwachungsfesten Techniken den jeweiligen Interessenlagen, bei denen der Zugriff und die Verwertung von Daten von entscheidender Bedeutung sind.

Smartphones und andere elektronische Geräte, mit denen man dauerhaft erreichbar ist, erscheinen vielen Menschen inzwischen unverzichtbar. Kaum jemand möchte heute darauf verzichten, sich im Internet über die Wetteraussichten oder die neuesten Nachrichten zu informieren oder Reisen über das Netz zu buchen. Alltagsgegenstände werden mit Chips ausgestattet. Jedes moderne Kraftfahrzeug enthält heute Dutzende elektronische Systeme, die nicht bloß den Motor oder das Bremsverhalten steuern, sondern auch die Umwelt lückenlos erfassen und schon heute das autonome, fahrerlose Fahren ermöglichen. Selbst in Kleidung werden Funkchips eingenäht, die jede Hose, jedes Kleid und jede Jacke identifizieren.

Dem Wortsinne nach bedeutet »Digitalisierung« die Überführung analoger Informationen in digitale Daten. Im weiteren Sinne beschreibt der Begriff die Einführung digitaler Technologien und die von ihr ausgelösten Veränderungen. Heute übersteigt die digital gespeicherte Informationsmenge den Umfang der konventionell gespeicherten Informationen um ein Vielfaches. Die Berkeley School of Information schätzt den Umfang sämtlicher Texte, die in der Geschichte der Menschheit jemals in allen Sprachen geschrieben wurden, auf 50 Petabytes (1015 Bytes) – eine Datenmenge, zu deren Verarbeitung Google 2013 nicht einmal drei Tagen benötigte. Das Volumen aller Worte, die von allen Menschen, die bisher gelebt haben, jemals gesprochen wurden, schätzen die Wissenschaftler auf etwa fünf Exabytes (5000 Petabytes) – dies entspricht gerade einmal 0,005 Promille der im gesamten World Wide Web verfügbaren Daten.41 Rein mengenmäßig spielen analog erfasste Informationen kaum noch eine Rolle.

Und doch ist das Bild schief: Auch wenn diese unvorstellbaren Datenmassen digital gespeichert werden, funktionieren wir Menschen nach wie vor analog. Damit wir die in den Daten verkörperten Informationen mit unseren fünf Sinnen (Sehen, Hören, Riechen, Schmecken, Tasten) zur Kenntnis nehmen und interpretieren können, müssen sie in eine analoge Form umgewandelt werden. Auch wäre es vollständiger Blödsinn, das exponentielle Datenwachstum mit einem entsprechenden Erkenntnisgewinn gleichzusetzen. Niemand würde auf die Idee kommen, die künstlerische Qualität eines Gemäldes oder eines Musikstücks aufgrund der darin enthaltenen Datenmenge zu beurteilen. Trotzdem sollte niemand verdrängen, wie dramatisch die Digitalisierung unser Leben und unsere Vorstellung von der Welt verändert.

Quantifizierte Welt

Als eine hessische Angestellte im Herbst 2011 einen Leasingvertrag für ein Auto abschließen wollte, lehnte der Händler dies wegen einer negativen Schufa-Auskunft ab. Wie sich später herausstellte, war der Grund eine schlichte Namensverwechslung. Im zweiten Versuch klappte der Autokauf zwar, allerdings wunderte sich die Käuferin über ihre schlechte »Bonitätsnote«, den sogenannten Scorewert: Die Schufa stufte sie mit 92,9 von 100 gegenüber Banken und 81,1 gegenüber Telekommunikationsunternehmen ein, obwohl sie über ein festes Einkommen verfügte und bisher auch alle Kredite ordnungsgemäß zurückgezahlt hatte. In die Bonitätsnote gehen alle möglichen Informationen ein, um die Kreditwürdigkeit eines (potenziellen) Kunden zu schätzen. Der auf der Grundlage eines mathematisch-statistischen Verfahrens errechnete Scorewert soll Banken, Versandhändlern, Telekommunikationsunternehmen und Vermietern die Wahrscheinlichkeit des künftigen individuellen Zahlungsverhaltens offenbaren. Schlechte Bonitätsnoten führen in aller Regel dazu, dass der Betroffene keinen Kredit erhält oder mehr Zinsen zahlen muss. Um zu erfahren, warum ihre Bonität so schlecht bewertet wurde, zog die Angestellte bis vor den Bundesgerichtshof. Der BGH lehnte das Begehren schließlich Anfang 2014 ab.42 Zwar hätten die Betroffenen ein Recht zu erfahren, welche personenbezogenen, insbesondere kreditrelevanten Daten bei der Kreditauskunftei gespeichert sind, nicht jedoch die Formel, mit denen der Scorewert berechnet wird. Die Berechnungsmethode sei ein Geschäftsgeheimnis der Schufa.

Dieses Urteil hat erhebliche Konsequenzen, weit über den konkreten Fall hinaus. Letztlich geht es darum, ob der Datenschutz auch dort greift, wo aufgrund »bloß« statistischer Zusammenhänge auf individuelles Verhalten geschlossen wird. Denn auch solche statistischen Bewertungen ziehen erhebliche persönliche Konsequenzen nach sich, nicht nur bei der Beantragung eines Kredits, sondern auch beim Versandhandel, beim Abschluss eines Mobilfunkvertrags und zunehmend auch bei der existenziellen Frage, ob ich als Mieter akzeptiert werde. Scorewerte basieren dabei zunehmend auf der Auswertung riesiger Datenmengen, sog. Big-Data-Verfahren43, die uns tagtäglich und überall in unserem Alltag beobachten und bewerten. Selbst wer überhaupt niemals einen Kredit aufgenommen oder ihn pünktlich zurückgezahlt hat, kann einen schlechten Scorewert erhalten. Denn Faktoren wie Alter, Geschlecht oder Wohnort, die Dauer eines Arbeitsverhältnisses können die Bonitätsnote negativ beeinflussen. Während in früheren Zeiten die Kreditwürdigkeit im Wesentlichen anhand nachvollziehbarer Faktoren, etwa dem Einkommen, bewertet wurde, ist das digitale Scoring für den Betroffenen praktisch nicht nachvollziehbar.

Dabei greift das »Scoring« immer weiter um sich: Unser Surfverhalten im Internet wird bewertet, um uns passende Werbebotschaften zuzusenden (»Behavioral Targeting«), Versicherungen werten aus, wie wir mit dem Auto unterwegs sind, und berechnen auf dieser Grundlage unsere Policen (»Pay as you drive«), und US-Sicherheitsbehörden bewerten Fluggastdaten, Telefon- und Internetdaten, um potenzielle Terroristen ausfindig zu machen. Bei solchen Big-Data-Verfahren können wir immer weniger selbst über die Preisgabe und Verwendung unserer Daten bestimmen.

Das BGH-Urteil zeigt, wie wenig Transparenz es hier gibt. Zwar müssen uns Kreditauskunfteien seit 2010 einmal im Jahr auf Anfrage einen kostenlosen »Kontoauszug« über die gespeicherten Daten geben. Auch haben sie uns über wesentliche Faktoren zu informieren, die in Scorewerte eingeflossen sind. Das Urteil des Bundesgerichtshofs verdeutlicht aber, dass dies nicht ausreicht, denn die Scoreformel bleibt geheim. Anders als beim legendären Coca-Cola-Rezept haben wir aber keine Chance, uns zu entziehen und wie bei der Cola etwa zu Pepsi oder Fritz-Kola zu wechseln. Ob bei der Commerzbank oder bei der Sparkasse, ob Vodafone oder Telekom: Wenn ich einen Kredit beantrage oder einen Mobilfunkvertrag abschließen will, kann ich dem Scoring nicht entgehen.

Das allgegenwärtige Scoring ist Ausdruck der Quantifizierung immer weiterer Bereiche. Digitaltechnik macht Gegenstände, Zustände, Prozesse und menschliche Eigenschaften umfassend mess- und quantifizierbar. Im Unterschied zu analogen Informationen lassen sich digitale Daten maschinell erschließen, ordnen und auswerten. Von zentraler Bedeutung ist dabei die Möglichkeit, mittels mathematischer Verfahren statistische Zusammenhänge – Korrelationen – zwischen allen möglichen Merkmalen festzustellen. Die ständig wachsenden Datenmassen und die immer besseren Möglichkeiten zu ihrer Auswertung und zur Simulation zukünftiger Entwicklungen verstärken die schon lange Zeit vorher beobachtbaren Tendenzen zu einem datengetriebenen Reduktionismus: Nur was messbar ist, ist relevant. Was sich nicht zählen (und messen) lässt, zählt nicht. Halb scherzhaft wurde etwa in den 1950er-Jahren hinterfragt, was denn Intelligenz ist. Die Antwort: Intelligenz ist, was der Intelligenztest misst. Der Intelligenzquotient (IQ), vor mehr als 100 Jahren vom deutschen Psychologen William Stern ersonnen, gilt als die entscheidende Messgröße für menschliche Intelligenz. Zu Recht umstritten44 ist aber seine Aussagekraft, denn er enthält lediglich Aussagen zur rationalen Problemlösung. Ob jemand seinen Job gut machen kann oder nicht, beantwortet der Test nicht. Überhaupt nichts sagen der IQ und andere Messgrößen darüber aus, ob ein Handeln moralisch gerechtfertigt ist. Ein effizient durchgeführtes Verbrechen mag Ausdruck der Intelligenz des Täters sein, bleibt aber kriminelles Handeln. Ein Algorithmus zur Errechnung eines Scorewerts mag mathematisch-statistisch gut begründet sein, aber trotzdem zu untragbaren Ergebnissen führen.

Die immer umfassenderen und mit immer leistungsfähigerer Informationstechnik leichter auszuwertenden Datenmassen entbinden uns auch nicht von der Frage, welche Zusammenhänge sich in den Korrelationen ausdrücken, ja ob überhaupt ein Zusammenhang vorliegt. Manche Befürworter einer quantitativen Weltsicht wie der Chefredakteur des Internetmagazins Wired, Chris Anderson, sind der Ansicht, dass es der mühsamen Frage nach dem »Warum« nicht mehr bedürfe. Wissenschaftliche Methoden, die darauf abzielten, Hypothesen anhand eines Kausalitätsmodells zu testen, seien zum Aussterben verurteilt. Alles, was in Zukunft zähle, sei der statistische Zusammenhang.45 Eine solche Sichtweise blendet zum einen aus, dass es auch weiterhin Bereiche geben wird, die sich der Quantifizierung hartnäckig entziehen. Zum anderen stellt sich die Frage nach der in den Daten zum Ausdruck kommenden Sinnstiftung. Die Existenz eines statistischen Zusammenhangs rechtfertigt die Diskriminierung einzelner Menschen oder Angehöriger bestimmter Gruppen nicht.

Trotzdem ist nicht zu übersehen: Die umfassende Vermessung eines jeden Individuums hat dramatische Konsequenzen: Algorithmen entscheiden darüber, welche Informationen uns wie präsentiert werden. Die Kriterien, nach denen die Auswahl erfolgt, sind allein den Betreibern der entsprechenden Plattformen bekannt. Vielfach werden mit den immer zahlreicheren Daten persönliche Profile gebildet, aus denen die Sirenenserver46 unsere vermeintlichen Interessen ableiten. Das Ergebnis ist eine »Filterblase«47, eine Art virtueller Käfig, in dem wir in unseren Haltungen bestärkt werden und in dem wir im Wesentlichen mit Menschen kommunizieren, die uns mehr oder weniger ähnlich sind. Statt einer gibt es viele »Öffentlichkeiten«, im Extremfall so viele, wie es Nutzer gibt. Schon in der Frühphase des Webs begann die Öffentlichkeit sich zu differenzieren, wie etwa der Medienexperte Uwe Jean Heuser bereits 1996 feststellte.48 Heute ist die Auflösung einer gemeinsamen Öffentlichkeit sehr viel weiter vorangeschritten, nicht zuletzt wegen der Personalisierung der Informationen durch Google, Facebook & Co. Je mehr Daten diese Unternehmen über uns verarbeiten, desto aussagekräftiger ist unser Interessenprofil und desto passgenauer können Informationen und Werbebotschaften zugeschnitten und gefiltert werden, die etwa als Ergebnis einer Suchanfrage geliefert werden. Dabei sind allerdings die Kriterien, mit denen Netzwerke und Suchmaschinen bestimmte Informationen herausfiltern, für die Nutzer kaum nachzuvollziehen.49

Algorithmen übernehmen viele Aufgaben, die bis vor Kurzem von Menschen bewältigt wurden. Algorithmen bewerten unsere Persönlichkeit, und sie teilen mit, ob wir kreditwürdig sind. Sie helfen bei der Partnersuche, und sie erleichtern uns die Orientierung in einer fremden Stadt. Und schon wird darüber diskutiert, ob sie uns nicht ganz ersetzen können. Wenn die Maschinenintelligenz nicht nur die weltbesten Schachspieler bezwingt und uns bei Quizwettbewerben aussticht, wie der IBM-Computer »Watson« bereits im Jahr 2011, sondern auch sonst besser funktioniert als menschliche Intelligenz, warum sind dann noch Menschen notwendig? Oder bewegen wir uns auf ein Zeitalter zu, in dem Menschen mit intelligenten Maschinen zusammenleben, wobei Letztere das Sagen haben? Solche Fragen stellt etwa Ray Kurzweil, der Cheftechnologe von Google.50

Für viele Nutzer sind Apps und Algorithmen eine »Black Box«, deren Funktionsweise sie nicht durchschauen. Dabei bewerkstelligt die Software den Informationsaustausch in beide Richtungen: Sie belauscht unsere Lebensäußerungen, und sie gibt uns Feedback. Die eigentliche Datenverarbeitung findet dabei außerhalb unserer Reichweite, auf den Servern der neuen Informationsmachthaber, statt. Auch wenn diese Unternehmen in ihren öffentlichen Statements für umfassende Transparenz eintreten, schotten sie doch ihre Methoden und Datencenter gegen jeden Einblick ab. Wie die von ihnen eingesetzten Algorithmen funktionieren, wie die Daten vernetzt und bewertet werden, gehört nicht nur beim Scoring zu den am besten geschützten Betriebs- und Geschäftsgeheimnissen.

Waren in der Frühphase der Computertechnik lediglich strukturierte, d.h. wohlgeordnete Datenbestände verknüpfbar, ermöglichen neue Softwaretechniken die immer effizientere Auswertung unstrukturierter Daten – eine wichtige Voraussetzung für unfassbar schnelle Recherchen in riesigen Datenbeständen. Google und andere Internetsuchmaschinen machen es vor: Die Suche nach einem Begriff auf global verteilten Servern führt innerhalb weniger Augenblicke zu mannigfachen Ergebnissen. Ob diese Ergebnisse und die ihnen zugrunde liegenden Daten indes richtig oder falsch sind, ist damit nicht gesagt. Ebenso wenig erfahren die Suchenden, nach welchen Kriterien ihnen die Suchergebnisse in welcher Reihenfolge präsentiert werden.

High Speed – Fast Crash

Der Einbruch der Aktienkurse traf die Wallstreet wie ein Blitz aus heiterem Himmel. Am 19. Oktober 1987 trafen waschkörbeweise Verkaufsorders bei den Börsenmaklern ein. Binnen weniger Stunden lösten sich Abermillionen an Aktienwerten in Luft auf, der amerikanische Aktienindex Dow Jones sank innerhalb eines Tages um fast 23%. Der Tag ging als »Black Monday« in die Finanzgeschichte ein. Erstmals seit dem als »Black Friday« bezeichneten 25. Oktober 1929 war der Dow Jones Index so stark eingebrochen. Es war deshalb naheliegend, dass der »schwarze Montag« viele Menschen an den Börsenkrach von 1929 erinnerte, den Ausgangspunkt der Weltwirtschaftskrise, die weltweit viele Millionen Menschen um ihr Vermögen, ihr Einkommen und ihre Arbeitsplätze gebracht hatte.

Sowohl 1929 als auch 1987 hatten die Aktienkurse unmittelbar vor dem Crash immer neue Rekordwerte erreicht, aber anders als 1929 gab es vor dem Zusammenbruch 1987 keine Anzeichen für eine fundamentale Krise. Eine kleine Unsicherheit bezüglich des Dollarkurses reichte aus, um eine fatale Kettenreaktion in Gang zu setzen. Nachdem die Aktienkurse zunächst nur geringfügig gefallen waren, platzierten die automatischen Handelssysteme Verkaufsangebote, um weitere Verluste zu vermeiden, und setzten so die Abwärtsspirale in Gang. Erst nachdem an vielen Börsen der Handel ausgesetzt wurde, stabilisierten sich die Kurse allmählich wieder. Die nachträgliche Analyse der Vorgänge am 19. Oktober 1987 brachte an den Tag, dass die in den Jahren zuvor eingeführten elektronischen Handelssysteme den Kursverfall verursacht hatten. Sie waren sämtlich so programmiert, dass sie bei sinkenden Kursen Verkaufsorders produzierten, um die Aktienbesitzer vor weiteren Verlusten zu bewahren. Nur so erklärt sich die rasende Geschwindigkeit, mit der sich der Kursverfall vollzog. Um ein Haar hätte der Computerhandel die Weltwirtschaft zum Absturz gebracht, wenn nicht im letzten Moment der Stecker gezogen worden wäre. Der Dow Jones brauchte 15 Monate, bis er wieder das Niveau von vor dem ersten Computer-Börsencrash erreichte.

Die daraufhin eingeführten neuen Regeln für den Computerhandel verhinderten nicht, dass sich die Ereignisse des »schwarzen Montags« wiederholten, und zwar mit vergleichbarer Heftigkeit und mit noch größerem Tempo. Am 6. Mai 2010 verlor der Dow Jones innerhalb weniger Minuten 9% an Wert. Innerhalb von zehn Minuten wurden 1,3 Milliarden Aktien gehandelt, wobei manche Aktien 99% ihres Werts einbüßten – zum Vergleich: Das größte Handelsvolumen beim Börsencrash 1929 betrug 16,5 Millionen Aktien an einem Tag. Nun wurden knapp 1 Billion US-Dollar Börsenwert kurzzeitig vernichtet, wie die Börsenaufsichtsbehörde SEC bei der Untersuchung der Ereignisse später feststellte.51 Anders als 1987 konnte dieser Börseneinbruch innerhalb einer halben Stunde gestoppt werden. Transaktionen, bei denen die Aktien mit weniger als 50% des Vortagswertes gehandelt worden waren, wurden für ungültig erklärt. Aufgrund dieser Ereignisse führte die New Yorker Börse neue Regeln für den Computerhandel ein, die unter anderem vorsehen, dass der Handel für fünf Minuten ausgesetzt wird, falls die jeweiligen Aktien in den vorhergehenden fünf Minuten um mehr als 10% an Wert verloren haben. Wegen der ungeheuren Wucht und kurzen Dauer wird dieser Kurseinbruch heute als »Flash Crash« (Blitzeinbruch) bezeichnet.