Big Data, Bits und Bytes, Lesen, Sach- und Fachbuch

Yvonne Hofstetter: Sie wissen alles.

Ich weiß: Indem ich diesen Artikel veröffentliche und gleich an mehreren Stellen bei Facebook auf ihn hinweise, indem ich im Zuge des Lesens von Hofstetters „Sie wissen alles“ nach weiteren Informationen zur Autorin und ihrem Unternehmen  gesucht habe, indem ich den „Wehrt Euch“-Artikel von Enzenzberger in der FAZ gelesen habe, ich bei brasch und buch seine Besprechung des Buches von Hofstetter gelesen und auf Kaffeehaussitzer Uwes Besprechung von Glenn Greenwalds „Die globale Überwachung“ kommentiert  und ebenfalls auf meine aktuelle Buchlektüre hingewiesen habe, habe ich meinen digitalen Fußabdruck wieder einmal deutlich vergrößert. Ich habe den Daten, die Google, Microsoft, Facebook und andere bisher über mich gesammelt haben, weitere hinzugefügt, Informationen darüber, wofür ich mich – und wie lange – interessiere, mit wem ich – und wie oft – in Kontakt stehe. Und diese Daten werden nicht nur gespeichert, sondern mit den vielen anderen, die über mich schon vorliegen, in Beziehung gebracht. Und dienen alle dazu, mich besser kennenzulernen, vielleicht sogar, so wird gemutmaßt, besser, als ich mich selbst zu kennen meine.

Yvonne Hofstetter ist Juristin und arbeitet seit Ende ihres Studiums für IT-Unternehmen. Sie hat seit Jahren beste Einblicke in die Arten und Weisen, wie die vielen Informationen, die wir mit riesigen Füßen im Internet hinterlassen, gesammelt und gespeichert, verarbeitet und aggregiert, ausgewertet, gedeutet und evaluiert werden. Und sie weiß genau um die Folgen, die uns ein weiterhin naiver Umgang mit unseren Daten bescheren kann, Folgen für den Einzelnen genauso wie für die Gesellschaft, bis hin zum Ende der Demokratie, wie wir sie kennen. Dabei zeichnet sie keineswegs ein nur völlig düsteres Szenario, sondern geht sehr detailliert und kenntnisreich auf die positiven sowie auch die negativen Konsequenzen des immer weiter zunehmenden Datenstroms ein, erklärt, ohne zu polemisieren, und versucht, auch die schwierig zu verstehenden technischen Erklärungen so nachvollziehbar und anschaulich wie möglich zu formulieren. Sie schreibt kenntnisreich und vielschichtig, und auch wenn ihre Forderungen und Schlussfolgerungen kontrovers diskutiert werden können, so legt sie doch mit ihrem Buch eine ganz wichtige Basis für Internetnutzer. Zum einen, um Entscheidungen für das eigene Verhalten treffen zu können, zum anderen um sich auch mit Hofstetters Positionen kritisch auseinandersetzen zu können.

Big Data, das ist nicht nur das Sammeln und Archivieren des durch die immer leichtere, immer mobiler werdende Technik entstehenden Datenstroms, den wir im Internet hinterlassen. Es ist auch nicht nur die statistische Auswertung dieser vielen Daten, die dann die Vergangenheit in schönen und bunten Schaubildern erklärt. Bei Big Data geht es vielmehr darum, Prognosen über die Zukunft zu entwickeln, Wissen darüber zu erlangen, wie sich eine Aktie, eine Option in Zukunft entwickeln wird, ja, wie menschliches Verhalten sein wird: Welches Buch könnte mich als nächstes interessieren (noch ist die Auswahl, die Amazon anbietet, meines Erachtens denkbar schlecht), wohin werde ich in Urlaub fahren wollen, welche Kleidung wird mir gefallen, wann werde ich nach Hause kommen und in welchen Räumen soll es angenehm temperiert sein, welche Krankheitsrisiken trage ich in mir, soll sich ein Arbeitgeber für mich entscheiden oder lieber nicht.

Das geschieht durch Datenfusion, indem durch das Zusammenbringen verschiedener und vielfältiger Daten Vorhersagen berechnet werden können. Das ist umso schwieriger, je unstrukturierter diese Daten sind und wir hinterlassen im Internet, z.B. durch Mails, jede Menge unstrukturierter Daten. So werden nun nicht nur Datenbanken mit offenen Strukturen, spaltenorientierte Datenbanken, benötigt, sondern auch komplexe Algorithmen, die „wissen“, WELCHE Daten sie WIE zusammenbringen müssen, um daraus Prognosen ableiten zu können. Diese Algorithmen kann man sich vorstellen wie wissenschaftliche Modelle, die von Spezialisten, Data-Scientists genannt, entwickelt werden. Eine Voraussetzung dafür, dass ein Modell „gut“ ist, ist, dass es einer grundsätzlichen wissenschaftlichen Anforderung entspricht, dass das Modell nämlich zumindest die Vergangenheit restlos erklären kann.

Big Data zielt also auf mit Hilfe von Modellen, aus denen Algorithmen werden, darauf, Prognosen von Entwicklungen aufzustellen. Dabei werden lernende Maschinen entstehen, also solche, die sich selbstständig weiterentwickeln, sich anpassen an die vielen Veränderungen unserer hochkomplexen und sich ständig verändernden Welt. Dies ist schon alleine notwendig, weil Begriffe richtig eingeordnet werden müssen; das, was hinter dem Begriff „Familie“ steht, so führt Hofstetter als Beispiel an, habe sich in den letzten Jahrzehnten ganz deutlich verändert. So entsteht also nun tatsächliche künstliche Intelligenz, nämlich eine Maschine mit der Fähigkeit zu lernen, die sicherlich vieles schneller und besser kann als der Mensch, aber eben nicht alles.

Ob künstliche Intelligenz tatsächlich alles schneller und besser können wird, als wir Menschen es tun, nämlich kreativ, assoziativ, intuitiv, das zweifelt auch Yvonne Hofstetter an. Und ihr Zweifel lässt sich alleine beim Buchkauf leicht nachvollziehen: Welcher Impuls lässt uns ins Regal greifen, um ein Buch hervorzuziehen, von dessen Autor wir bisher noch nie etwas gelesen haben, den wir vielleicht noch gar nicht kennen? Wird uns eine Maschine jemals solch einen Vorschlag machen, uns einen unbekannten Autor mit einem abseitigen Thema in die Hand legen, eines Buches also, das so anders ist als unser bisheriger Lesegeschmack, das sich nun aber, nach dem Besuch des Buchladens, als echter Glücksgriff erweist?

Hofstetter benennt Beispiele, in denen wir künstliche Intelligenz sinnvoll und nutzbringend einsetzen können: für Wettervorhersagen und Klimaprognosen zum Beispiel, für die Lenkung von Verkehrsströmen auf Autobahnen und in Innenstädten, für das Management von Strom und wasser in Abhängigkeit von Überlast- und Unterlastzeiten, für das Militär (aus dessen Bereich die Entwicklung des Big Data auch kommt, wie die Autorin in ihrem ersten Kapitel ausführlich ausführt).
Aber sie zeigt auch Grenzen und Probleme auf, Gefahren, die aus ganz verschiedenen Bereichen kommen können, ganz unabhängig von der gerade angesprochenen Kreativität, Intuition usw.

Zum einen ist es leicht nachvollziehbar, dass die Entwicklung eines Algorithmus, wenn er denn wirklich GUT sein soll, aufwändig ist: Es werden tatsächlich hochdotierte Experten benötigt, die solch ein Modell entwickeln; sie brauchen Zeit, um Thesen über Zusammenhänge aufzustellen und diese zu überprüfen, sie brauchen Zeit, um zu erproben, ob ihr Modell die Vergangenheit erklärt. Nur wenn diese Voraussetzungen erfüllt sind, lassen sich Modelle entwickeln, auf deren Prognosen man sich verlassen kann. Wenn nicht, gerät schnell mancher Internetnutzer in eine ganz falsche Schublade – mit problematischen Konsequenzen: Der Kredit wird nicht bewilligt, die Autoversicherungen und Krankenkassen lehnen den Versicherungsantrag des Kunden ab, der Arbeitgeber ist nicht mehr interessiert.

Und weiter: Es gibt Missbrauch künstlicher Intelligenz, wie wir ihn aus dem Bereich der Finanzindustrie kennen (auch diesem Aspekt widmet die Autorin ein Kapitel); künstliche Intelligenz hat keine Moral – wenn der programmierende Data-Scientist sie nicht hat – und kann zu allen Zwecken eingesetzt werden, im Zweifel also da, wo das meiste Geld fließt.

Und so bestehe die größte Gefahr für unsere Gesellschaften darin, dass freie Märkte Unternehmen die wunderbare Situation beschere, aus unseren Daten Gewinn zu schöpfen. Für das Versprechen von Bequemlichkeit, vielleicht auch Gesundheit und Fitness, für das Versprechen eines vermeintlich günstigeren Tarifs geben wir den Unternehmen alle unsere Daten, unsere privaten Daten, unsere Kontoverbindungen, Informationen zu unserem Schlafverhalten, unseren Aktivitäten und Bewegungen den Tag über und darüber, wann wir in welchen Zimmern unserer Wohnung was machen.
Wenn Unternehmen alles über uns wissen, auch, weil wir ihnen willig per Smartphone, Tablet und allen erdenklichen Sensoren alle Daten hinterlassen, die sie interessieren, wenn sie unser Verhalten vorhersagen, wenn sie uns und unsere Wohnungen kontrollieren und uns Vorschläge für ein „besseres“ Verhalten machen können, dann haben wir unsere Freiheit aufgegeben, die Freiheit, für die viele Menschen viele Jahrhunderte lang gekämpft haben, für die sie gestorben sind, bis Freiheitsrechte in unserem Grundgesetz festgeschrieben wurden. Hofstetter macht hier einen weiten Bogen in die Zeit der Aufklärung und geht der Frage nach, was denn einen freien Menschen kennzeichne. Sie greift auf die Ideen Kants zurück, der festgehalten hat, „dass ein Mensch ´der nun mehr als Maschine ist, seiner Würde gemäß zu behandeln`“ (S. 226) sei.

Entweder besäße etwas eine Würde oder einen Preis, mit dem man Äquivalentes an seine Stelle setzen könne, so Kant im Jahr 1786. Weil der Mensch aber eine Würde besitzt, hat er keinen Preis. Seine Menschenwürde ist grundsätzlich nicht gegen ein anderes Recht, nicht einmal gegen die Würde anderer Menschen, austauschbar. Wer diese philosophischen Wurzeln der Menschenwürde versteht, auf dem auch der erste Artikel des Grundgesetztes für die Bundesrepublik Deutschland ruht: „Die Würde des Menschen ist unantastbar“, wird leicht nachvollziehen können, dass selbst ein „Supergrundrecht“ auf Sicherheit nicht gestatten würde, die Menschenwürde mit den innewohnenden Freiheitsgarantieren zu überschreiben. (S. 226-227)

Da Daten über Personen nicht nur Informationen sind, sondern auch Schlussfolgerungen über Personen zulassen, da sie zudem auch einen schöpferischen Wert haben in dem Sinne, dass sie die „ganze Existenz eines Menschen“ zum Ausdruck bringen, gehören diese Daten, so schlussfolgert Hofstetter, „grundlegend und existenziell zum Menschen“. Sie müssen also, rechtlich-philosophisch gesehen, geschützt werden. Und gelten gar nicht einmal als Eigentum, denn sie sind ja keine Objekte, sondern sie gehören zum Menschen, haben also Subjektcharakter: „Niemand kann Eigentum an persönlichen Daten erlangen, weil ihnen die Objekteigenschaft fehlt.“ (S. 236)

Wenn Hofstetter dann doch davon spricht, dass die Nutzung und Ausbeutung der persönlichen Daten ausdrücklich von den Menschen erlaubt werden müsse, dass es außerdem einen Gegenwert für sie geben müsse, scheint das zwar auf den ersten Blick „gerecht“ zu sein, passt auf den zweiten Blick aber nicht zu ihrer engagiert und sachkundig vorgetragenen juristischen Argumentation. Und erschafft nicht, so gilt es ganz kritisch zu fragen, gerade dieser Ansatz eine Zweiklassengesellschaft, indem diejenigen, die über Kapital oder Arbeit verfügen, einer Nutzung ihrer privaten Daten eben nicht zustimmen werden, während diejenigen, die weder Kapital noch Arbeit haben nunmehr zumindest aus dem „Verkauf“ ihrer Daten versuchen werden, Einnahmen zu erzielen? Und das vor dem Hintergrund, dass Hofstetter ganz nachvollziehbar annimmt, dass der vermehrte Einsatz künstlicher Intelligenz zu einer weiteren Arbeitsplatzreduktion führen wird, nun im Bereich der kaufmännisch-verwaltenden Bereiche.

Aus ihrer Analyse entwickelt sie abschließend zahlreiche Forderungen, die sich zum Teil an den einzelnen Nutzer und sein Verhalten richten, zum Teil aber auch den Gesetzgeber betreffen, denn er ist es schließlich, der den rechtlichen Rahmen setzt. So fordert sie das Recht auf Geheimnisse, denn es müssen eben nicht alle Bereiche unseres Lebens wie in einem Glashaus ausgestellt werden; sie fordert ein Recht auf negative Freiheit, sodass kein Mensch gezwungen werden kann, Staat, Wirtschaft und Gesellschaft alle Daten zu liefern; sie fordert das Recht, dass nicht ausgerechnet derjenige diskriminiert wird, der sich der allgegenwärtigen Überwachung entzieht. Der Staat also solle genau formulieren, wie mit den Daten der Bürger umgegangen werden soll, er soll Machtkonzentrationen bekämpfen und dafür sorgen, dass es internationale Algorithmen-Abkommen gibt. Was von Hofstetters Forderungen zu halten ist vor dem Hintergrund der jüngsten Gesetzesentscheidungen zur Vorratsdatenspeicherung, sei einmal dahingestellt…

Die Menschen selbst, die Nutzer, haben aber auch eine Verantwortung, indem sie „zivilen Widerstand“ leisten und nicht alles mitmachen, was bequem oder „innovativ“ ist, indem sie darauf achten, wem sie ihre privaten Daten überlassen, was sie als Gegenwert haben wollen.

Es gibt viele Vorteile der neuen Technologien, alleine die Möglichkeit der Literaturblogs und des Austausches mit Gleichgesinnten über Literatur ist einer davon. Trotzdem macht Hofstetter sehr deutlich, erschreckend deutlich, dass wir aufpassen müssen, wenn wir unsere Gesellschaft erhalten wollen, wie sie ist, wenn wir nicht mehr und nicht weniger als unsere Demokratie erhalten wollen, deren Handlungsfähigkeit ja schon im Zusammenhang mit der Finanzkrise und ihren Folgen nicht unbedingt unabhängig und von eigenen Zielen gesteuert erschien. Einige Unternehmen haben dann auch tatsächlich so ihre eigenen Vorstellungen, wie Politik in Zukunft sein sollte:

Die Demokratie ist eine veraltete Technologie (…); sie hat Reichtum, Gesundheit und Glück für Milliarden Menschen auf der ganzen Welt gebracht. Aber jetzt wollen wir etwas Neues ausprobieren. (S. 221)

Yvonne Hofstetter (2014): Sie wissen alles. Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen, München, C. Bertelsmann Verlag

5 Kommentare

  1. Gerade habe ich bei Facebook zum Thema Onlinehandel kommentiert. Da passt dieses Buch wunderbar zum Thema. Ich finde es mittlerweile erschreckend, wie im Internet das Kaufverhalten gesteuert wird. Man muss sehr aufpassen, um nicht all jenen Empfehlungen und Kauftipps ausgeliefert zu sein. Selbst bei Büchern…ganz nach dem Motto: Sie haben dieses Buch gelesen, jenes könnte ihnen ebenfalls gefallen.

    • Liebe Constanze,
      dann schau ich mal, was Du auf fb kommentierst hast (ich hoffe, ich finde es). Yvonne Hofstetter meint, dass alle Menschen, die Einblick haben in die Datenanalysen und -prognosen, insgesamt sehr sparsam sind mit ihren Daten im Internet und insofern auch wenig dort kaufen. Bisher finde ich die Angebote, z.B. bei bei Amazon recht einfach gestrickt, da werden bei Sachtiteln thematisch ähnliche angezeigt und bei der Literatur bekommt man, ein bisschen kategorisiert nach Anpsruchsniveau, die Titel angezeigt, die gleichzeitig veröffentlich wurde. Das kann mich kaum zu ungeplanten Käufen bringen. Allerdings scheinen Amazon, Apple und Google gerade personell aufzurüsten, dies berichtet Hofstetter auch. Alle diese Unternehmen haben wohl im letzten Jahr Spezialisten eingestellt, die diese Systeme eben genau verbessern sollen, indem bessere und individuell genauer reagierende Algorithmen entwickelt werden. Da wird also noch einiges auf uns zukommen…
      Viele Grüße, Claudia

  2. Ein bißchen Abhilfe kann man schaffen, indem man gewisse Dienste, die Daten im Hintergrund sammeln abschaltet auf jedem PC, Rechner auf dem man arbeitet (http://www.youronlinechoices.com/de/praferenzmanagement/). Außerdem kann man Google meiden und z. Bsp. auf Ecosia umsteigen … aber klar, wir sind gläsern. Das an sich stört mich jetzt nicht so sehr, aber die Angriffe auf die Demokratie, die allerorten stattfinden, gegen die müssen wir uns wehren. Da gebe ich Dir vollkommen Recht! Danke für diesen auführlichen, fundierten Lesetipp!!

    • Liebe Brigitte,
      aufmerksam zu sein und zu schauen, wo wir welche Daten verschleiern können, ist sicherlich ein erster guter Ansatz (ich werde mir Deinen Link mal anschauen). Vielleicht sollten wir tatsächlich, wie Enzensberger es fordert, unsere Mobiltelefone und Smartphones wegschmeißen, denn die kombinieren ja alle unsere Daten auch noch mit unserer Bewegungen – und können, neue Geräte auf jeden Fall, ständig mithören, wo wir sind, was wir tun, sodass sie vor manchen Meetings schon eingesammelt werden müssen: Spionagegefahr. Die andere Seite, die noch wesentlich bedenklichere aus meiner Sicht, ist die, dass es mehr und mehr Angebote gibt, uns auf Herz und Nieren zu prüfen. Gerade heute habe ich einen Bericht in der Sz gelesen, wie unsere mündliche vorgetragene Sprache analysiert werden kann, um herauszufinden, wie es uns psychisch geht. Krankenkassen sind daran interessiert; sie wollen schauen, wir hoch der Stresspegel ist, um Entspannungsmethoden vorzuschlagen (spannend mal wieder: wir sollen aktiv werden, um uns zu entspannen, nicht der Stressfaktor an sich wird gemildert). Geheimdienste finden diese Art der Analyse natürlich auch ganz spannend, Call-Center interessieren sich und die Personalabteilungen von Unternehmen, um ihre Einstellungsentscheidungen zu unterstützen. Da fängt es mich schon an, ganz heftig zu gruseln. Der SZ-Artikel ist wohl (noch) nicht online, einen ähnlichen hat es aber schon einmal in der ZEIT gegeben: http://www.zeit.de/2014/51/woerter-kommunikation-wortwahl/komplettansicht
      Viele Grüße, Claudia

      • Liebe Claudia, danke für den Link! Ja ich habe kein Smartphone … und werde auch keines anschaffen. Wir haben einen Rechner zuhause, über den wir ins Netz gehen, nicht WLAN … alles eher old-school bei uns 😉 Und das ist gewollt, weil mich die vielen Infos einfach überfordern würden. Ich will das alles nicht. Was die Analyse der Gesundheit / psychischen Stabilität angeht: mein Chef ist da richtig gut, der hat als die Krankendatenab über die Lohnabrechnung (GFK) gespeichert werden sollten einfach gesagt, nö wir nicht, dann lassen wir das Steuerbüro die Abrechnungen machen. Außerdem ist er selbst im Clinch mit seiner Krankenkasse wegen der Speicherung und weigert sich standhaft, ein Bild einzureichen für die Kasse … wodurch er zwar keine Krankenkarte hat, aber wenn er zum Arzt muss, lässt er sich eine Versicherungsbestätigung ausstellen, das reicht für die Abrechnung … also seid Sand, nicht Öl im Getriebe der Welt! Emport euch! Das sind die Dinge, die man tun kann und muss 😉 LG, Bri

Die Kommentarfunktion ist geschlossen.