Internet Publikation für Allgemeine und Integrative Psychotherapie
    (ISSN 1430-6972)
    IP-GIPT DAS=23.01.2014 Internet-Erstausgabe, letzte Änderung 27.01.14
    Impressum: Diplom-Psychologe Dr. phil. Rudolf Sponsel   Stubenlohstr. 20   D-91052 Erlangen
    Mail:_sekretariat@sgipt.org_Zitierung  &  Copyright

    Anfang  Big Data_Überblick  _ Rel. Aktuelles _ Rel. Beständiges _Titelblatt _Konzept _Archiv _Region  __ Service-iec-verlag _ Wichtige Hinweise zu Links und  Empfehlungen

    Willkommen in unserer Internet Publikation für Allgemeine und Integrative Psychotherapie, Abteilung Bücher, Literatur und Links zu den verschiedensten Themen, hier die Buchpräsentation:

    Buch-Präsentationen in der IP-GIPT

    Big Data. Die Revolution, die unser Leben verändern wird


     

    präsentiert von Rudolf Sponsel, Erlangen

    mit einer wissenschaftstheoretische Anmerkung zur Sprechweise von "Big Data" und ihrer Bedeutung

    Bibliographie * Verlagsinfo * Inhaltsverzeichnis * Leseprobe * Ergebnisse * Bewertung * Autor(Innen) * Links * Literatur * Querverweise *

    Nachträge zu Big Data Forschungen. * Medien zu Datenmissbrauch *



    Bibliographie: Mayer-Schönberger, Viktor & Cukier, Kenneth (2013) Big Data. Die Revolution, die unser Leben verändern wird. München: Redline.  [Verlags-Info]

    Autor(Innen).
    "Viktor Mayer-Schönberger gründete im Jahr 1986 die Software-Firma Ikarus mit Entwicklungsschwerpunkt in der Datensicherheit und entwickelte Virus Utilities, eines der am meisten verkauften österreichischen Software-Produkte.
    Kenneth Cukier ist Daten-Editor bei The Economist und einer der prominentesten Experten für Entwicklungen im Bereich Big Data. Er hat 2010 einen der frühesten Artikel über diese Entwicklung geschrieben."



    Verlagsinfo:

    "Welche Farbe verrät am ehesten, ob ein Gebrauchtwagen in einem guten Zustand ist? Wie kommt es, dass die Suchfunktion von Google die Verbreitung der Vogelgrippe H1N1 besser voraussagen kann als jede staatliche Behörde? Der Schlüssel zu den Antworten auf diese und viele weitere Fragen ist: Big Data. Im ersten Fall ist es häufig Orange, denn Fahrer, die diese Farbe kaufen, tauchen weniger in Unfallstatistiken auf. Im zweiten Fall führt die Kombination und Häufigkeit der pro Land eingegebenen Suchbegriffe rund um Grippe und Arzneien schneller ans Ziel als jede Prognose.
        Diese Beispiele machen deutlich: Noch nie gab es eine solche Menge an Daten und noch nie bot sich die Chance, durch Recherche und Kombination in der Datenflut blitzschnell Zusammenhänge zu entschlüsseln. Big Data bedeutet eine Revolution für Gesellschaft, Wirtschaft und Politik. Es wird die Weise, wie wir über Gesundheit, Erziehung, Innovation und vieles mehr denken, völlig umkrempeln. Und Vorhersagen möglich machen, die bisher undenkbar waren.
        Die Experten Viktor Mayer-Schönberger und Kenneth Cukier beschreiben in ihrem brillanten Buch, was Big Data ist, welche Möglichkeiten sich eröffnen – und verschweigen auch die dunkle Seite wie den drohen- den Verlust der Privatsphäre nicht."



    Inhaltsverzeichnis  5  [PDF]

    Kapitel 1 Heute ............................. 7
    Kapitel 2 Mehr .............................. 29
    Kapitel 3 Unscharf ......................... 45
    Kapitel 4 Korrelation ..................... 67
    Kapitel 5 Datafizierung ................... 95
    Kapitel 6 Wert ............................... 125
    Kapitel 7 Folgen ............................ 155
    Kapitel 8 Risiken ........................... 189
    Kapitel 9 Kontrolle ........................ 215
    Kapitel 10 Zukunft ......................... 233

    Danksagungen ............................... 249
    Anmerkungen ................................ 253
    Literaturverzeichnis ........................ 273
    Stichwortverzeichnis ...................... 285



    Leseprobe: [PDF] S. 12f

    Definition "... Es gibt für Big Data keine exakte Definition. Ursprünglich verstand man darunter eine Informationsmenge, die zu groß für den Arbeitsspeicher des verarbeitenden Computers geworden war und von den Entwicklern neue Technologien verlangte. Das war der Anlass für technologische Innovationen wie Google MapReduce und sein Open-Source-Pendant Hadoop von Yahoo. Mit diesen neuen Werkzeugen konnten sehr viel größere Datenmengen als zuvor verarbeitet werden, und zwar – das war ein entscheidender Fortschritt – nicht nur dann, wenn sie bereits sauber in klassischen Datenbanken strukturiert und in einem einheitlichen Format zusammengefasst waren. Neue Werkzeuge, die sich noch weiter von den bislang notwendigen strengen Hierarchien und Strukturen verabschieden, sind gerade im Entstehen. Gleichzeitig kristallisierten sich die Internetanbieter als führende Anwender dieser neuen Werkzeuge heraus, weil sie über die größten Datenmengen verfügten und ein brennendes finanzielles Interesse hatten, aus den gesammelten Daten möglichst großen Nutzen zu ziehen. So überrundeten sie traditionelle Firmen, die mitunter schon mehrere Jahrzehnte Erfahrung auf diesem Gebiet besaßen.
        Man kann sich die Sache so vorstellen, wie wir es in diesem Buch tun wollen: Big Data ist das, was man in großem, aber nicht in kleinem Maßstab tun kann, um neue Erkenntnisse zu gewinnen oder neue Werte zu schaffen, sodass sich Märkte, Organisationen, die Beziehungen zwischen Bürger und Staat und vieles mehr verändern.

        Aber das ist nur der Anfang. Die Ära von Big Data wird sich auch auf unsere Lebensweise und unsere Weltsicht auswirken. Vor allem muss die Gesellschaft sich gewohnter Vorstellungen von Kausalität entledigen und stattdessen vermehrt auf Korrelationen verlassen: Man wird oft nicht mehr wissen warum, sondern nur noch was. Das ist das En[>14]de jahrhundertelang eingeführter Prozesse und verändert tiefgreifend die Art, wie wir Entscheidungen treffen und die Wirklichkeit verstehen.
        Big Data steht am Anfang einer grundlegenden Umwälzung. Wie so viele neue Technologien, wird Big Data ganz sicher auch der Übertreibungsmaschinerie von Silicon Valley zum Opfer fallen: Erst kommen die begeisterten Zeitschriftentitel und Branchentagungen, dann ebbt der Trend wieder ab, und der Glanz vieler Start-up-Gründungen verblasst. Aber sowohl das Hochjubeln wie das anschließende Verdammen verkennen, dass hier etwas Bedeutendes passiert. Genau wie die Erfindung des Fernrohrs das Verständnis des Kosmos und die Erfindung des Mikroskops die Entdeckung der Mikroben ermöglichten, werden uns die neuen Datensammlungs- und Datenanalyse-Werkzeuge in großem Stil dabei helfen, die Welt auf eine Weise neu zu verstehen, die wir erst erahnen können. In diesem Buch sind wir weniger die Evangelisten von Big Data als vielmehr seine Herolde. Die wirkliche Revolution, das sei noch einmal gesagt, findet nicht in der Technik statt, sondern in den Daten selbst und in der Art ihrer Analyse.
        Um zu verstehen, wie weit diese Informationsrevolution bereits fortgeschritten ist, lassen Sie uns einen Blick auf einige Trends aus allen gesellschaftlichen Bereichen werfen. Unser digitales Universum expandiert ständig. Nehmen wir nur die Astronomie. Als im Jahr 2000 das Projekt zur Himmelskartografie Sloan Digital Sky Survey startete, sammelte das damit befasste Teleskop in Neu-Mexiko in den ersten Wochen bereits mehr Daten, als in der gesamten bisherigen Geschichte der Astronomie gesammelt worden waren. Im Jahr 2010 verfügte das Archiv des Survey bereits über 140 Terabyte an Informationen. Ein geplanter Nachfolger, das Large Synoptic Survey Telescope in Chile, soll 2016 in Betrieb gehen und alle fünf Tage dieselbe ungeheure Datenmenge sammeln. ... ... "

    "Mehr, unscharf, gut genug Big Data wird zu einer Quelle für neuen wirtschaftlichen Wert und neue Innovationen werden. Aber es geht um noch viel mehr. Der Aufstieg von Big Data steht für drei Umwälzungen in unserer Art der Informationsanalyse, die sich auf Selbstverständnis und Organisation der Gesellschaft auswirken.

    (2) Die erste Umwälzung wird in Kapitel 2 beschrieben. In dieser neuen Welt können wir sehr viel mehr Daten analysieren. In manchen Fällen können wir sogar alle für ein bestimmtes Phänomen relevanten Daten heranziehen. Seit dem 19. Jahrhundert ist die Gesellschaft auf Stichproben (sog. Samples) angewiesen, wenn es um sehr große Zahlen geht. Dieser Zwang zu repräsentativen Stichproben ist ein Relikt aus einer Zeit, als Information etwas Außergewöhnliches war, ein Ergebnis der Grenzen der Informationsverarbeitung im analogen Zeital[21]ter. Vor der Einführung leistungsfähiger Digitaltechnologien erkannten wir die Samples nicht als Behinderung, sondern nahmen sie als unvermeidlich hin. Aber indem wir alle Daten sammeln, sind wir nun in der Lage, Einzelheiten zu sehen, die vorher nicht erkennbar waren, solange wir nur kleine Datenmengen verarbeiten konnten. Big Datagibt uns einen besonders deutlichen Einblick in Details: Unterkategorien und Marktnischen etwa, die der Stichprobenmethode unzugänglich bleiben.

    (3) Die Verarbeitung einer sehr viel größeren Datenmenge lässt uns auch unser Bedürfnis nach Exaktheit überwinden. Das ist die zweite Umwälzung; mit ihr befassen wir uns in Kapitel 3. Ihr liegt ein Kompromiss zugrunde: Weil wir mehr Daten sammeln, können wir auch eine gewisse Unschärfe in der Datensammlung akzeptieren. Als unsere Fähigkeit zu messen begrenzt war, zählten wir nur das Wichtigste. Es war sinnvoll, die Daten möglichst exakt zu ermitteln. Man kann keine Kuhherde verkaufen, solange man nicht sagen kann, ob sie 100 oder nur 80 Tiere umfasst. Bis vor Kurzem gründeten alle unsere digitalen Werkzeuge auf dieser Exaktheit. Wir wollten, dass Datenbankabfragen exakte Auskunft liefern, die unsere Anfrage genau beantwortet. Diese Denkweise war durch die Welt von »Small Data« (also der Vorbedingung nur weniger verfügbarer Daten) bedingt: Weil das Messen so aufwendig war, wollten wir die wenigen Daten so präzise wie möglich messen. Das ist nachvollziehbar: In einem Geschäft werden die Tageseinnahmen bis auf den Cent genau abgerechnet, beim Bruttoinlandsprodukt eines ganzes Staates ist das hingegen nicht mehr sinnvoll (und auch nicht mehr möglich). Mit der Größe wachsen auch die Ungenauigkeiten. Exaktheit erfordert sorgfältig erhobene Daten. Sie funktioniert bei kleinen Datenmengen und ist für bestimmte Fälle natürlich auch in Zukunft unabdingbar: Entweder man hat genug Geld auf dem Konto für eine bestimmte Überweisung – oder nicht. Aber in einer Big-Data-Welt können wir diesen Fokus auf Genauigkeit im Gegenzug einer umfassenderen Sammlung von Daten zum zum Teil hinter uns lassen. [>22]
        Big Data ist oft unscharf, von sehr verschiedener Qualität und überzahllose Server weltweit verteilt. Big Data gibt uns oft nur eine allgeneine Richtung vor, anstatt uns einen Sachverhalt bis auf den Zentimeter, den Cent oder das Atom genau zu erklären. Wir geben die Exaktheit nicht gänzlich auf, sondern nur unsere Versessenheit darauf. Was wir an Genauigkeit auf der Mikroebene verlieren, gewinnen wir an Erkenntnis auf der Makroebene.

    (4) Diese beiden Umwälzungen führen zu einer dritten, der wir uns im vierten Kapitel zuwenden: Eine Abwendung von der jahrtausendealten Suche nach kausalen Zusammenhängen. Als Menschen sind wir darauf ausgelegt, bei allem nach seiner Ursache zu fragen, auch wenn das oft schwierig ist und uns vielleicht auf eine falsche Fährte führt. In der Big-Data-Welt dagegen müssen wir uns nicht auf Kausalitäten festlegen, sondern können viel öfter nach Mustern und Korrelationen in den vorliegenden Daten Ausschau halten, die uns neuartige und wertvolle Erkenntnisse gewähren. Die Korrelationen sagen uns nicht warum etwas geschieht, aber sie machen uns darauf aufmerksam, dass etwas geschieht.
    Und in vielen Fällen genügt das bereits. Wenn Millionen elektronischer Patientenakten zeigen, dass Krebskranke, die eine bestimmte Kombination von Aspirin und Orangensaft einnehmen, eine Remission der Krankheit erfahren, dann ist die genaue Ursache dieses Phänomens vielleicht nicht so wichtig wie die Tatsache, dass die Patienten überleben. Ebenso wenig müssen wir die Methode hinter dem Wahnsinn der Preisgestaltung von Flugtickets verstehen – es genügt, wenn wir einfach den besten Zeitpunkt zum Kauf ermitteln können. Bei Big Data geht es um das Was. nicht um das Warum. Nicht immer müssen wir die Ursache eines Sachverhalts kennen, sondern können mitunter auch die Daten für sich selbst sprechen lassen.
        Vor Big Data war unsere Analyse oft auf das Prüfen einer bestimmten Hypothese beschränkt, die schon vor der Sammlung der Daten klar sein musste. Wenn wir hingegen die Daten sprechen lassen, ergeben sich Zusammenhänge, an die niemand zuvor gedacht hat. Einige Hedge-Fonds [>23] verfolgen zum Beispiel den Kurznachrichtendienst Twitter, um die Kursentwicklung am Aktienmarkt vorhersagen zu können. Amazon und Netflix gründen ihre Produktempfehlungen auf eine Analyse der
    unzähligen Interaktionen ihrer Kunden auf ihren Webseiten. Twitter, LinkedIn und Facebook zeichnen den »Social Graph« der Beziehungen ihrer Kunden auf, um deren Vorlieben zu erfahren.
    Natürlich analysiert der Mensch schon seit Jahrtausenden Daten. Die Schrift entstand im alten Mesopotamien, weil die Verwaltung sich ein effizientes Instrument zur Aufzeichnung und Verarbeitung von Information wünschte. Schon in der Bibel lesen wir von amtlichen Volkszählungen, mit denen die Regierungen riesige Datenmengen über ihre Bürger erhoben, und die Versicherungsstatistiken sammeln seit 200 Jahren ebenfalls große Datenschätze, um die Risiken, mit denen sie sich befassen, besser verstehen oder wenigstens vermeiden zu können.
    Im analogen Zeitalter war das Sammeln und Analysieren von Daten allerdings sehr kosten- und zeitintensiv. Neue Fragestellungen bedeuteten damals oft auch die Notwendigkeit einer erneuten Datensammlung und -analyse.
    Der große Schritt zu einem besseren Datenmanagement war die Einführung der digitalen Verarbeitung: Indem man analoge Informationen für Computersysteme lesbar macht, kann man sie gleichzeitig leichter und billiger speichern und verarbeiten. Dieser Fortschritt bedeutete eine dramatische Steigerung der Effizienz. Datenanalysen, die früher Jahre gedauert haben, waren jetzt eine Sache von höchstens noch Tagen.
    Sonst aber veränderte sich wenig. Die Menschen, die mit den Daten umgingen, waren allzu oft vom analogen Paradigma geprägt, dass Daten einem speziellen Zweck dienten und darüber hinaus wertlos waren. Unser eigenes Handeln hielt dieses Vorurteil aufrecht. So wichtig die Digitalisierung auch für die Umwälzung durch Big Data war, wurde diese doch nicht von der bloßen Einführung der Computer bewirkt.

    (5) Es gibt keinen wirklich treffenden Begriff, um die gegenwärtig stattfindende Umwälzung zu beschreiben, aber ein pragmatischer Versuch ei[>24]ner Näherung ist das Wort Datafizierung, ein Konzept, das wir im fünften Kapitel vorstellen. Es bezeichnet die Umwandlung von allem nur Vorstellbaren – auch von Dingen, die wir nie als Informationen betrachtet hätten, etwa den Standort eines Menschen, die Vibrationen eines Motors oder die statische Belastung einer Brücke – in Datenform, um sie damit quantifizieren zu können. Dadurch können wir diese Informationen auf ganz neue Arten verwenden, zum Beispiel für Analysen und Vorhersagen. So kann man etwa an der Wärmeabgabe oder den Vibrationsmustern eines Motors erkennen, dass er bald versagen wird. Auf diese Weise gewinnen wir Zugang zum impliziten, latenten Wert einer Information.
        Schon ist eine Schatzsuche ausgebrochen nach den Erkenntnissen, die aus Daten gewonnen werden können, indem man dank einer Abkehr von der Suche nach Ursachen ihren verborgenen Wert freilegt. Nahezu jede Datensammlung, jedes Datenstück hat intrinsische, verborgene, noch unentdeckte Nutzen und damit auch ökonomischen Wert, und das Rennen, alle diese Datenschätze zu heben, ist in vollem Gange.

    (6-7) Big Data bringt eine radikale Veränderung des Geschäftslebens, der Märkte und der Gesellschaft mit sich, wie wir im sechsten und siebten Kapitel schildern. Im 20. Jahrhundert traten zu physischen Werten wie Grund und Boden oder Anlagevermögen immaterielle Güter hinzu, wie Markennamen oder geistiges Eigentum. Diese Entwicklung setzt sich jetzt mit Daten fort, die zu einem bedeutenden Wirtschaftsfaktor werden, indem sie einen unabhängigen ökonomischen Wert erlangen und die Grundlage neuer Geschäftsmodelle bilden. Sie sind das Öl im Getriebe der Informationswirtschaft. Bis jetzt werden Daten selten als Aktivposten in einer Unternehmensbilanz verzeichnet, aber das dürfte sich in Zukunft ändern.
    Obwohl es Verfahren zur Verarbeitung großer Datenmengen schon länger gibt, waren sie bisher nur Geheimdiensten, Forschungseinrichtungen und wirklich großen Konzernen vorbehalten. Schließlich haben Walmart und Capital One den Einsatz von Big Data im Einzelhandel und im Bankgeschäft eingeführt und dadurch ihre Branche jeweils ent-[>25]scheidend neu geprägt. Inzwischen sind viele dieser Verfahren demokratisiert (die Daten allerdings nicht).
        Der größte Schock wird vermutlich die Rückwirkung auf den Einzelnen sein. Fachkenntnisse auf einem spezifischen Gebiet werden weniger wichtig, wenn Wahrscheinlichkeit und Korrelation entscheidend sind. In dem Film Die Kunst zu gewinnen – Moneyball konnte man sehen, wie Baseball-Talentscouts von Statistikern in den Hintergrund gedrängt werden, weil das Bauchgefühl für die Fähigkeiten eines Nachwuchsspielers gegenüber einer ausgefeilten Analysetechnik nicht mehr zählt. Es wird zwar immer Fachleute für einzelne Gebiete geben, aber sie werden sich mit den Urteilen der Big-Data-Analytiker auseinandersetzen müssen. Das wiederum wird eine Anpassung traditioneller Vorstellungen von Management, Entscheidungsfindung, Personalsuche und Ausbildung nach sich ziehen.

    (8) Die meisten unserer Institutionen beruhen auf der Voraussetzung, dass menschliche Entscheidungen auf der Grundlage weniger, exakter und kausaler Informationen getroffen werden. Aber wenn die Datengrundlage extrem umfangreich ist, blitzschnell verarbeitet werden kann und trotz Unschärfe neue Einsichten bietet, dann werden wir unseren Umgang mit Daten grundlegend überdenken müssen. Außerdem werden aufgrund der Menge an Daten Entscheidungen in Zukunft oft nicht mehr von Menschen, sondern von Maschinen getroffen werden. Der daraus resultierenden dunklen Seite von Big Data wenden wir uns im achten Kapitel zu.
        Unsere Gesellschaft hat lange Erfahrung mit der Einschätzung und Regulierung menschlichen Verhaltens. Wie aber reguliert man das Verhalten eines Algorithmus? Schon zu Beginn der Informatik erkannten Fachleute, dass diese neue Technologie zur Aushöhlung der Privatsphäre des Einzelnen führen kann. Inzwischen gibt es gesellschaftliche Regeln zum Schutz personenbezogener Daten. Im Zeitalter von Big Data ist dieser Datenschutz allerdings oftmals genauso nutzlos wie im Zweiten Weltkrieg die Maginot-Linie gegen die feindlichen schnellen Panzerverbände. Denn heute stellen viele Menschen freiwillig persönliche [>26] Informationen ins Netz – das ist ein wichtiges Merkmal der Netzkultur, und kein Fehler, den man verhindern müsste.
    Die Gefahr verlagert sich heute vom Angriff auf die Privatsphäre des Einzelnen hin zur ungewollten Beurteilung des Einzelnen aufgrund von Wahrscheinlichkeiten: Algorithmen sagen vorher, dass man wahscheinlich einen Herzinfarkt erleiden wird (was die Krankenversicherung verteuert), dass man seine Kreditraten nicht zahlen können wird (was zur Ablehnung des Hypothekenantrags führt) oder gar, dass man ein Verbrechen begehen wird (woraufhin man vorbeugend verhaftet
    wird). Das wirft die ethische Frage nach der Rolle des freien Willens gegenüber der Diktatur der Daten auf. Zählt die Entscheidungsfreiheit des Individuums mehr als die Voraussagen von Big Data, auch wenn die Statistik etwas anderes sagt? Genau wie die Erfindung der Druckerpresse letztlich zur Formulierung des Grundrechts auf freie Meinungsäußerung führte – das es vorher nicht gegeben hatte, weil so wenig Möglichkeit bestand, seine Meinung zu verbreiten –, wird es im Zeitalter von Big Data erforderlich sein, neue Regeln zum Schutz der individuellen Freiheit zu finden.
    In vielerlei Hinsicht wird sich unsere Datenverarbeitung und -kontrolle verändern müssen. Wir nähern uns einer Zeit ständiger Vorhersagen aufgrund von Datenbeständen, in der wir unsere Entscheidungen womöglich nicht mehr begründen können. Was bedeutet es, wenn ein Arzt eine medizinische Behandlung nicht mehr rechtfertigen kann, ohne den Patienten aufzufordern, einer »Black Box« zu vertrauen, wie es der Fall sein wird, wenn die Diagnose von Big Data bestimmt wird? Wird die Polizei nicht mehr bei »Gefahr im Verzug«, sondern womöglich schon bei »wahrscheinlicher Gefahr« zugreifen? Wenn ja, was sind die Folgen für die Freiheit und die Würde des Menschen?

    (9) Für dieses neue Zeitalter brauchen wir neue Prinzipien; wir stellen sie in Kapitel 9 vor. Obwohl die Prinzipien sich auf Werte gründen, die für die Welt der wenigen Daten entwickelt und kodifiziert worden sind, sind sie nicht einfach eine neue Version für veränderte Umstände, sondern selbst etwas prinzipiell Neues."
     



    Ergebnisse

    Zum Thema Kontrolle vor Missbrauch werden drei Möglichkeiten erörtert: Datenschutz (217-220),  Menschen gegen Vorhersagen (221-224), die Blackbox öffnen (224-229) und eine Folgerung gezogen: Datenbarone kontrollieren. Inhaltlich lauten die Vorschläge in aller Kürze: Datenschutz, Schutz vor Statistik, Überwachung durch Kontrolleure (Big Data "Algorithmiker")

    Vom Datenschutz zur Verantwortung der Datennutzer (217-220)
    "Seit Jahrzehnten ist ein zentrales Prinzip von Datenschutzgesetzen in aller Welt, dass der Betroffene die Kontrolle haben soll, also selbst entscheiden können soll, ob, wie und von wem seine personenbezogenen Daten verwendet werden dürfen. Im Internetzeitalter ist aus diesem lobenswerten Ideal oftmals ein formalisiertes Ritual von Datenschutzerklärung und Zustimmung des Betroffenen geworden. Im Big-Data-Zeitalter, in dem viel des Wertes von Daten erst durch eine zum Zeitpunkt der Erfassung der Daten noch nicht absehbare Wiederverwendung gewonnen wird, passt dieser Mechanismus nicht mehr.

    Wir stellen uns für das Big-Data-Zeitalter daher einen ganz anderen gesetzlichen Datenschutzrahmen vor, der anstatt auf die Zustimmung des Einzelnen bei der Datenerhebung darauf setzt, die Nutzer der Daten in die Verantwortung zu nehmen. FN191 In einer solchen Welt werden diese Unternehmen eine förmliche Prüfung für jeden neuen Verwendungszweck von personenbezogenen Daten gerade auch im Hinblick auf die Auswirkungen für die Betroffenen durchzuführen haben. Das muss nicht in jedem Fall sehr detailliert geschehen, weil die Datenschutzgesetze der Zukunft grobe Verwendungskategorien festlegen werden, darunter auch solche, die eine Datennutzung ohne oder mit begrenz-[>218]ten, standardisierten Schutzmaßnahmen zulassen. Für risikobehaftetere Vorhaben wird der Gesetzgeber Grundregeln für die Bewertung einer geplanten Datennutzung und die zu treffenden Schutzmaßnahmen festlegen. Dadurch kann die kreative Wiederverwendung von Daten gefördert und gleichzeitig ausreichender Datenschutz für die Betroffenen sichergestellt werden.

    Die korrekte Durchführung einer förmlichen Datenschutzprüfung einer Big-Data-Anwendung und die genaue Umsetzung ihres Ergebnisses bieten dem Datennutzer konkrete Vorteile: In vielen Fällen kann er so Daten für neue Zwecke wiederverwenden, ohne erst die Betroffenen ausdrücklich um Zustimmung bitten zu müssen. Für schlampige Datenschutzprüfungen und mangelhafte Umsetzung der Datenschutzmaßnahmen wird der Datennutzer rechtlich haftbar sein und sich behördlichen Maßnahmen wie Nachbesserungen, Bußgeldern und möglicherweise der Strafverfolgung aussetzen. Verantwortlichkeit für Datennutzung funktioniert nur, wenn sie auch Zähne hat.

    Schauen wir uns anhand des Beispiels der Datafizierung von Hinterteilen aus dem fünften Kapitel an, wie das praktisch aussehen könnte. Angenommen, ein Autohersteller baut eine Diebstahlsicherung in sein Auto ein, die das Hinterteil des Fahrers registriert und ihn so identifiziert. Nehmen wir weiterhin an, dass die Information wiederverwendet werden soll, um aus der Sitzhaltung zu erkennen, ob der Fahrer wach, nüchtern und aufmerksam ist. Stellt das Programm fest, dass der Fahrer betrunken, übermüdet oder auch wütend ist, würden andere Fahrzeuge im engeren Umkreis entsprechend gewarnt. Nach den heutigen Datenschutzbestimmungen müsste das Unternehmen für diese neue Verwendung das Einverständnis der Betroffenen einholen, da eine ausdrückliche Erlaubnis dafür nicht vorliegt. In einem System der Verantwortlichkeit von Datennutzern jedoch müsste das Unternehmen die Gefahren der geplanten Nutzung für die Betroffenen selbst genau prüfen; sollten diese sich als geringfügig herausstellen, könnte das Projekt weiterlaufen - und die Sicherheit im Straßenverkehr verbessert werden. [>219] .... "
     

    Im wesentlichen geht es im folgenden um den Schutz und die Verteidigung der Freiheit und persönlichen Verantwortung. Diese Ausführungen sind besonders auch für forensische Prognosegutachter interessant, weil es gerade ja ihre Kernaufgabe betrifft:

    Menschen gegen Vorhersagen (221-224)

    "Vor Gericht verantworten wir uns für unser Handeln. Wenn ein Richter nach einem fairen Prozess ein unparteiisches Urteil spricht, dann wurde Gerechtigkeit geübt. Im Big-Data-Zeitalter aber müssen wir Gerechtigkeit neu definieren, um den Grundsatz menschlichen Handelns zu bewahren: den freien Willen, mit dem die Menschen ihr Verhalten wählen. Es ist die einfache Vorstellung, dass der Einzelne für sein tatsächliches Verhalten zur Verantwortung gezogen werden kann und soll, nicht aber für seine Absichten.

    Vor Big Data war diese Grundfreiheit offensichtlich, und zwar so sehr, dass man sie kaum explizit machen musste. Schließlich funktioniert unser ganzes Rechtssystem so: Wir beurteilen die Schuld eines Menschen nach seinen Taten. Mit Big Data sind wir in der Lage, die Handlungen eines Menschen immer genauer vorherzusagen. Das verführt uns dazu, Menschen nicht nach den tatsächlichen, sondern nach den vorhergesagten Taten zu beurteilen.

    Im Zeitalter von Big Data müssen wir daher unser Verständnis von Gerechtigkeit erweitern und die Freiheit menschlichen Handelns genauso schützen wie die Verfahrensgerechtigkeit heute. Ohne einen derartigen Schutz könnte das Fundament der Gerechtigkeit untergraben werden.

    Indem wir menschliche Handlungsfreiheit garantieren, stellen wir sicher, dass der Staat unser tatsächliches Handeln beurteilt, und nicht bloß auf Big-Data-Vorhersagen vertraut. Daher darf der Staat uns nur für tatsächliches Handeln, nicht für statistische Vorhersagen zukünftiger Taten zur Verantwortung ziehen. Und wenn der Staat vergangene Taten beurteilt, dann darf er dieses Urteil nicht ausschließlich auf Big Data gründen. Nehmen wir als Beispiel neun Unternehmen, die der illegalen Preisabsprache beschuldigt wurden. FN195 Es ist völlig in Ordnung, Big-Data-Analysen dafür einzusetzen, mögliche Fälle von Preisabsprachen zu identifizieren, aber dann müssen die Kartellbehörden den Beweis dafür mit traditionellen Mitteln führen. Man darf die betreffenden Unternehmen nicht für schuldig erklären, nur weil eine Big-Data-Analyse ihre Schuld vorhersagt. [>222]

    Ein entsprechendes Prinzip sollte auch im Privatsektor gelten, wenn Unternehmen folgenreiche Entscheidungen über uns treffen - etwa über Einstellung und Kündigung, die Gewährung einer Hypothek oder den Entzug einer Kreditkarte. Wenn eine solche Entscheidung vorrangig auf Big-Data-Analysen beruht, dann empfehlen wir Schutzmaßnahmen, und zwar erstens Offenheit: Datenmaterial und Algorithmus der Vorhersage sollten offengelegt werden; zweitens Zertifizierung: ein unabhängiger Gutachter sollte den verwendeten Algorithmus für solche bedeutsamen Einsätze als geeignet erklären; drittens Widerlegbarkeit: es sollten konkrete Wege genannt werden, mit denen der Betroffene die Vorhersage widerlegen kann. (Das entspricht der üblichen Praxis in der Forschung, zu jeder Studie die Faktoren anzuführen, die zu ihrer Widerlegung führen können.)

    Besonders wichtig aber ist, dass die Garantie der Freiheit menschlichen Handelns auch vor der Gefahr einer Datendiktatur schützt, in der wir den Daten mehr Sinn und Wichtigkeit geben als ihnen gebührt.

    Ebenso entscheidend ist, dass wir die Verantwortlichkeit des Einzelnen schützen. Die Gesellschaft wird sich der großen Versuchung gegenübersehen, nicht mehr den Einzelnen für seine Taten verantwortlich zu machen, sondern stattdessen Risikomanagement zu betreiben und die Entscheidungen über Menschen auf der Einschätzung von Möglichkeiten und der Wahrscheinlichkeit von potenziellen Entwicklungen zu gründen. Wenn so viele anscheinend objektive Daten verfügbar sind, klingt es zunächst ganz sinnvoll, die Entscheidungsfindung zu entemotionalisieren und entindividualisieren, und sich auf Algorithmen statt auf die subjektiven Bewertungen von Richtern und Gutachtern zu stützen und Entscheidungen nicht mehr in Begriffen persönlicher Verantwortlichkeit, sondern »objektiverer« Risiken und ihrer Vermeidung zu formulieren.

    Zum Beispiel macht es Big Data sehr verlockend, Vorhersagen darüber zu treffen, welche Personen in Zukunft wahrscheinlich ein Verbrechen begehen werden, und die Betreffenden dann besonders zu behandeln, sie im Namen der Risikominderung schärfer zu überwachen. Die [>223] so Eingestuften würden diese Behandlung wahrscheinlich und sehr zu Recht als eine Strafe empfinden, der sie unterworfen würden, ohne dass sie jemals mit dem Vorwurf konfrontiert wurden, tatsächlich das Gesetz gebrochen zu haben. Stellen wir uns vor, ein Algorithmus würde vorhersagen, dass ein Jugendlicher ein hohes Risiko aufweist, in den nächsten drei Jahren straffällig zu werden. Daraufhin veranlassen die Behörden einen monatlichen Besuch eines Sozialarbeiters, um Schwierigkeiten zu verhindern.

    Wenn der betroffene Jugendliche und seine Verwandten, Freunde, Lehrer oder Arbeitgeber diese Besuche als Stigmatisierung auffassen, was wahrscheinlich ist, dann hat bereits diese Intervention einen Strafeffekt; sie stellt eine Sanktion für etwas dar, was (noch) gar nicht passiert ist. Die Situation ist auch nicht besser, wenn die Besuche des Sozialarbeiters nicht als Strafe, sondern als Bemühung um die Reduzierung möglicher zukünftiger Probleme angesehen werden, als Risikominimierung sozusagen (in diesem Fall des Risikos eines Verbrechens zum Schaden der öffentlichen Sicherheit). Je mehr wir uns von einer Gesellschaft, in der Menschen sich für ihr Handeln zu verantworten haben, hin zu einer Gesellschaft entwickeln, die auf datengestützte Interventionen zur Risikoverminderung baut, desto mehr entwerten wir das Ideal menschlicher Verantwortung. Ein Staat, der nur mehr vorhersagt, ist noch schlimmer als ein Staat, der bevormundet. Den Menschen die Verantwortlichkeit für ihre Handlungen zu nehmen, zerstört ihre Grundfreiheit, selbst über ihr Handeln entscheiden zu können.

    Wenn der Staat viele seiner Entscheidungen auf Voraussagen und dem Wunsch nach Risikovermeidung gründet, dann spielen unsere persönlichen Entscheidungen - und damit unsere Freiheit zu handeln - keine Rolle mehr. Ohne Schuld gibt es auch keine Unschuld. Gäben wir dieser Tendenz nach, würden wir unsere Gesellschaft nicht verbessern, sondern verarmen.

    Ein fundamentaler Eckpfeiler im Umgang mit Big Data muss in der Garantie bestehen, dass wir auch weiterhin Menschen nach ihrer persönli-[>224]chen Verantwortlichkeit und ihrem tatsächlichen Verhalten beurteilen und nicht durch »objektive« Datenanalyse bestimmen, ob sie wahrscheinliche Übeltäter sind. Nur so werden sie als Menschen respektiert, die die Freiheit haben, selbstbestimmt zu handeln, und das Recht haben, nach ihren Taten beurteilt zu werden."

        Die folgende Methode kann kurz und bündig mit Transparenz und Offenlegung der Grundlagen für Überwachung durch Kontrolleure (Big Data "Algorithmiker") beschrieben werden:

    Die Blackbox öffnen (224-229)

    "... ... Bei Big Data geht es um Größenordnungen, die unser Vermögen zu verstehen übersteigen. So fand zum Beispiel Google die Korrelation zwi¬schen einer Handvoll Suchbegriffen und dem Fortschreiten einer Grippewelle durch das Ausprobieren von 450 Millionen mathematischen Modellen heraus. Cynthia Rudin dagegen legte ursprünglich nur 106 Faktoren fest, die möglicherweise voraussagen konnten, ob ein Kabelschacht Feuer fangen würde, und konnte den Managern von Con Edison so erklären, warum ihr Programm bestimmte Schachtdeckel zur Inspektion empfahl. »Erklärbarkeit«, wie das in der Künstliche-Intelligenz-Forschung genannt wird, ist für uns Normalsterbliche wichtig -wir wollen eben nicht nur wissen, was, sondern auch warum. Was aber, wenn das Vorhersagesystem automatisch 601 statt 106 Voraussagefaktoren generiert hätte, die einzeln oft nur ein geringes Gewicht hätten, zusammengenommen aber die Genauigkeit der Vorhersage beträchtlich erhöhten? Die Grundlage jeder Vorhersage wäre dann möglicherweise extrem komplex. Wie hätte Cynthia Rudin dann die Manager überzeugen können, ihren Ergebnissen zu vertrauen?

    Anhand solcher Szenarien können wir die Gefahr sehen, dass Big-Data-Vorhersagen und die Algorithmen und Datenbestände, auf denen sie beruhen, zu einer Black Box werden, ohne klare Verantwortlichkeiten, deren Ergebnisse für die Betroffenen nicht mehr nachvollziehbar sind und denen man daher auch nicht mehr vertrauen kann. Um das zu verhindern, bedürfen Big-Data-Analysen der Überwachung und Transparenz, was wiederum neues Fachwissen und neue Institutionen erfordert. Nur so kann die Gesellschaft die Big-Data-Vorhersagen einer genaueren Prüfung unterziehen und Menschen, die sich durch Big Data geschädigt fühlen, effektive Unterstützung bieten.

    Gesamtgesellschaftlich gesehen sind wir schon oft Zeugen der Entstehung solcher neuer Einrichtungen geworden, wenn ein Komplexitäts- und Spezialisierungssprung in einem Fachgebiet neue Experten erforderte. Bereiche wie Rechtsprechung, Medizin, Buchhaltung und Ingenieurwesen haben diese Verwandlung vor über einem Jahrhundert bereits durchgemacht. In jüngerer Zeit bildeten sich ebenfalls ähnlich Experten für Computersicherheit und Datenschutz heraus, die prüfen [>226] und zertifizieren, dass Unternehmen Standards und bewährte Praktiken auf diesen Gebieten erfüllen, wie sie zum Beispiel von der International Organisation for Standards (die selbst gegründet wurde, weil ein neues Bedürfnis nach Richtlinien entstanden war) vorgegeben werden.

    Für Big Data wird ein ganz neuer Berufsstand erforderlich sein, um diese Rolle auszufüllen. Vielleicht wird man ihn »Algorithmiker« nennen. Diese Fachleute könnten auf zweierlei Art arbeiten - als unabhängige Experten, die Unternehmen extern überprüfen, aber auch als Mitarbeiter oder Abteilungen eines Unternehmens, ähnlich wie es heute schon Firmenbuchhalter und unabhängige Wirtschaftsprüfer gibt.
     

    Der Aufstieg des Algorithmikers

    Diese neuen Spezialisten wären Experten in Informatik, Mathematik und Statistik und würden Big-Data-Analysen und Vorhersagen bewerten. Algorithmiker wären per Eid zu Vertraulichkeit und Unabhängigkeit verpflichtet, ähnlich wie Wirtschaftsprüfer oder die in Österreich verbreiteten Ziviltechniker. Sie würden die Wahl der Daten, die Qualität der Werkzeuge zu Analyse und Vorhersage - einschließlich der Algorithmen und mathematischen Modelle - und die Interpretation der Ergebnisse überprüfen. Im Streitfall bekämen sie Zugang zu den Algorithmen, den statistischen Verfahren und den Datenbeständen, die eine Entscheidung bestimmt haben.

    Hätte das US-Heimatschutzministerium 2004 bereits über Algorithmiker verfügt, dann hätten diese vielleicht verhindert, dass diese Behörde eine Flugverbotsliste herausgab, die so fehlerhaft war, dass Senator Ted Kennedy darauf erschien. Jüngere Fälle, in denen ein Algorithmiker Schlimmes hätte verhüten können, sind etwa Klagen gegen die »Autocomplete«-Funktion der Google-Suche in Japan, Frankreich, Deutschland und Italien, wo Betroffene sich dagegen wehrten, da die durch diese Funktion angezeigten Suchbegriffe sie verleumdet hätten. Die automatische Vervollständigung von Suchanfragen beruht zwar hauptsächlich auf der Häufigkeit des Begriffs in bisherigen Anfragen, und die Begriffe werden nach ihrer mathematischen Wahrscheinlichkeit zusammengestellt, aber wer wäre nicht wütend, wenn hinter dem eigenen Namen plötzlich »Häftling« oder »Prostituierte« erscheint, wenn ein potenzieller Geschäfts- oder Liebespartner einen »googelt«?

    Unsere Vorstellung ist, dass Algorithmiker einen marktorientierten Ansatz zur Lösung von Problemen bieten und so mit stärkeren Einschränkungen verbundene Eingriffe des Gesetzgebers vermeiden. Sie würden eine ähnliche Marktlücke füllen wie es die Wirtschaftsprüfer zu Beginn des 20. Jahrhunderts taten, die kompetente Hilfe bei der Bewältigung der damaligen Informationsflut im Finanzwesen boten. Der Flut an Zahlen standen die meisten Menschen damals relativ hilflos gegenüber; es erforderte Fachleute, die flexibel und selbstreguliert handeln konnten. Der Markt reagierte durch das Aufkommen eines neuen Sektors miteinander im Wettbewerb stehender Unternehmen, die auf die Prüfung von Rechnungsabschlüssen spezialisiert waren. Durch das Angebot dieser Dienstleistung stärkten diese Spezialisten das Vertrauen der Gesellschaft in die Wirtschaft. Big Data sollte und könnte von einem ähnlichen Vertrauensschub durch Algorithmiker profitieren.
     

    Externe Algorithmiker

    Wir stellen uns externe Algorithmiker als unparteiische Prüfer vor, die Genauigkeit und Stichhaltigkeit von Big-Data-Vorhersagen immer dann überprüfen, wenn es staatlich vorgeschrieben wird, etwa auf Anordnung eines Gerichts oder Bescheid einer Behörde. Sie können außerdem Big-Data-Unternehmen, die externe Unterstützung wünschen, auf deren eigenen Wunsch prüfen. Und sie könnten Big-Data-Anwendungen, etwa zur Betrugsaufdeckung oder im Börsenhandel, nach eingehender Prüfung zertifizieren. Schließlich könnten externe Algorithmiker auch als Berater von Behörden für den Einsatz von Big Data im staatlichen Sektor tätig werden.

    Genau wie in der Medizin, der Rechtsprechung und ähnlichen Fachgebieten wird es wohl einen Verhaltenskodex für die neue Profession [>] geben. Unparteilichkeit, Verschwiegenheit, Befähigung und Professio¬nalität der Algorithmiker werden durch strenge Haftungsregeln untermauert sein; wer sie verletzt, muss mit Klage rechnen. Algorithmiker könnten als Gerichtsgutachter tätig werden, die Gerichte in fachlich besonders komplexen Fällen unterstützen.

    Auch Betroffene, die sich durch eine Big-Data-Anwendung geschädigt sehen - etwa ein Patient, dem eine Operation verweigert wurde, ein Strafgefangener, dessen Bewährungsantrag abgelehnt wurde, oder ein Bankkunde, der keine Hypothek erhalten hat -, könnten sich an Algorithmiker wenden, so wie man sich heute einen Anwalt nimmt, um derartige Entscheidungen zu verstehen und zu hinterfragen.
     

    Interne Algorithmiker

    Interne Algorithmiker überwachen als Mitarbeiter eines Unternehmens dessen Big-Data-Aktivitäten. Sie handeln nicht nur im Interesse ihres Arbeitgebers, sondern auch im Interesse der von den Big-Data-Analysen Betroffenen. Sie beaufsichtigen die Big-Data-Aktivitäten und sind der erste Ansprechpartner für jeden durch die Big-Data-Vorhersagen des Unternehmens Geschädigten. Außerdem zertifizieren sie Big-Data-Analysen auf Vollständigkeit und Genauigkeit, bevor die Analysen freigegeben werden. Für die erste dieser beiden Tätigkeiten braucht der interne Algorithmiker eine gewisse Freiheit und Unabhängigkeit innerhalb der Organisation, in der er tätig ist. ... ..."
     
     

    Datenbarone kontrollieren (229-232)

    "Daten sind für die Informationsgesellschaft das, was Rohöl für die Industriegesellschaft war: die entscheidende Ressource für Innovation und Fortschritt. Ohne ein reiches, lebendiges Angebot an Daten und einen robusten Markt für Daten-Dienstleistungen könnten Kreativität und Produktivität des Big-Data-Zeitalters auch wieder zum Erliegen kommen.

    Im diesem Kapitel haben wir drei grundlegende neue Strategien für die Kontrolle von Big Data dargelegt, die Datenschutz, Vorhersagen und das Prüfen von Algorithmen betreffen. Wir sind zuversichtlich, dass diese Strategien die dunkle Seite von Big Data im Zaum halten können. Aber im Zuge der Entwicklung des Big-Data-Wirtschaftssektors wird es auch darauf ankommen, den Wettbewerb auf diesen Märkten zu gewährleisten. Wir müssen verhindern, dass sich Datenbarone des [>230] 21. Jahrhunderts etablieren, so wie es die Eisenbahn-, Stahl- und Telegrafenbarone der USA des 19. Jahrhunderts geschafft haben.

    Um diese Großindustriellen zu kontrollieren, führte die US-Regierung seinerzeit ein äußerst flexibles Kartellrecht ein, die sogenannten Antitrust-Gesetze. Ursprünglich für den Eisenbahnsektor des 19. Jahrhunderts gedacht, wurden die Antitrust-Gesetze später auf Unternehmen angewandt, die die wirtschaftlich wichtigen Informationsflüsse kontrollierten, vom National Cash Register in den 1910er Jahren über IBM in den 1960er und Xerox in den 1970er Jahren bis hin zu AT&T in den 1980er und Microsoft in den 1990er Jahren und schließlich heute Google. Die von den jeweiligen Unternehmen entwickelten Technologien wurden zu Kernbestandteilen der »Informationsinfrastruktur« der Wirtschaft und erforderten die Macht des Gesetzes, um schädliche Monopolbildung zu vermeiden.

    Um die Bedingungen für einen funktionierenden Big-Data-Markt sicherzustellen, werden wir Maßnahmen brauchen, die denen gleichen, die in jener früheren Technikepoche Wettbewerb und Kontrolle garantierten. Wir sollten Transaktionen von Daten durch Lizenzierung und Interoperabilität197 erleichtern. Das freilich führt zu der Frage, ob die Gesellschaft vielleicht von einem sorgfältig formulierten und ausgewogenen »Exklusivrecht« auf Daten profitieren könnte (ähnlich dem Urheberrecht auf geistiges Eigentum, so provozierend das klingen mag!). Zugegebenermaßen wäre das eine schwere Herausforderung für unsere Politiker - und für alle anderen mit hohem Risiko verbunden.

    Es ist sicherlich nicht möglich, die zukünftige Entwicklung einer Technologie vorherzusehen; nicht einmal mit Big Data kann man vorhersagen, was aus Big Data werden wird. Der Gesetzgeber wird einen Mittelweg zwischen Vorsicht und Kühnheit finden müssen - und die Geschichte der Antitrust-Gesetze zeigt uns einen möglichen Weg dafür.

    Die Antitrust-Gesetzgebung verhinderte den Missbrauch wirtschaftlicher Macht. Interessanterweise ließen sich ihre Prinzipien aber mühelos von einem Wirtschaftszweig auf einen anderen übertragen. Gerade eine solche energische Regulierung- die keine bestimmte Technologie bevorzugt - ist sinnvoll, weil sie den  [>231] eine solche energische Regulierung - die keine bestimmte Technologie bevorzugt - ist sinnvoll, weil sie den Wettbewerb schützt, ohne weitergesteckte Ziele zu verfolgen. Die Antitrust-Gesetze aus der Eisenbahnzeit können also auch Big Data auf dem rechten Gleis halten. Außerdem sollte der Staat, der zu den größten Datenbesitzern weltweit zählt, seine eigenen Daten öffentlich zugänglich machen. Es stimmt zuversichtlich, dass einige bereits beides tun - zumindest in gewissem Rahmen.

    Die Lehre aus der Regulierung der Wirtschaftsmonopole in den USA ist, dass Behörden, sobald allgemeine Prinzipien gesetzlich verankert sind, diese anwenden können, um genau das richtige Maß an Schutz vor und Unterstützung für Big-Data-Anwender zu erzielen. Ganz ähnlich könnten auch die drei geschilderten Strategien - die Verschiebung im Datenschutz von der Zustimmung des Einzelnen zur Verantwortlichkeit der Datennutzer, die Garantie des freien Willens in einer Zeit zunehmender Vorhersagen und die Einführung einer neuen Gruppe an Experten, die wir Algorithmiker nennen - als Grundlage für eine effektive und gerechte Steuerung des Umgangs mit Information im Big-Data-Zeitalter dienen.

    Auf vielen Gebieten, von der Nukleartechnik bis zur Gentechnik, haben wir zuerst neuartige Werkzeuge entwickelt, dann deren Gefahren erkannt, und erst danach begonnen, Sicherheitsmechanismen zu entwickeln, um uns zu schützen. In dieser Hinsicht verhält es sich bei Big Data genauso wie auf anderen gesellschaftlichen Gebieten, deren Probleme keine perfekten Lösungen kennen, sondern nur die stete Frage, wie wir uns die Welt einrichten wollen. Jeder Generation stellt sich diese Frage neu. Unsere Aufgabe lautet, die Risiken dieser vielversprechenden Technologie zu erkennen, ihre Weiterentwicklung zu fördern - und uns ihrer Vorteile zu bemächtigen.

    Genau wie die Druckerpresse zu Veränderungen in der Herrschaftsstruktur der Gesellschaft geführt hat, wird das auch bei Big Data der Fall sein. Big Data fordert uns auf, bekannten Herausforderungen auf neue Weise zu begegnen und neue Bedenken durch Rückgriff auf bewährte Prinzipien zu zerstreuen. Um sicherzustellen, dass die Menschen ge-[>232] schützt sind, während die Technologie sich entfalten kann, müssen wir darauf achten, dass Big Data nicht die menschliche Fähigkeit übersteigt, diese Technologie zu gestalten."
     



    Wissenschaftstheoretische Anmerkung zur Sprechweise von "Big Data" und ihrer Bedeutung
    Mit "Big Data" wurde ein neuer Begriff geschaffen, der ein Phänomen unserer Zeit beschreibt. Welchen Realitätsgehalt hat nun "Big Data"? Die Autoren führen ein:
     
      "Es gibt für Big Data keine exakte Definition. Ursprünglich verstand man darunter eine Informationsmenge, die zu groß für den Arbeitsspeicher des verarbeitenden Computers geworden war und von den Entwicklern neue Technologien verlangte. Das war der Anlass für technologische Innovationen wie Google MapReduce und sein Open-Source-Pendant Hadoop von Yahoo. Mit diesen neuen Werkzeugen konnten sehr viel größere Datenmengen als zuvor verarbeitet werden, und zwar – das war ein entscheidender Fortschritt – nicht nur dann, wenn sie bereits sauber in klassischen Datenbanken strukturiert und in einem einheitlichen Format zusammengefasst waren. Neue Werkzeuge, die sich noch weiter von den bislang notwendigen strengen Hierarchien und Strukturen verabschieden, sind gerade im Entstehen. Gleichzeitig kristallisierten sich die Internetanbieter als führende Anwender dieser neuen Werkzeuge heraus, weil sie über die größten Datenmengen verfügten und ein brennendes finanzielles Interesse hatten, aus den gesammelten Daten möglichst großen Nutzen zu ziehen. So überrundeten sie traditionelle Firmen, die mitunter schon mehrere Jahrzehnte Erfahrung auf diesem Gebiet besaßen.
          Man kann sich die Sache so vorstellen, wie wir es in diesem Buch tun wollen: Big Data ist das, was man in großem, aber nicht in kleinem Maßstab tun kann, um neue Erkenntnisse zu gewinnen oder neue Werte zu schaffen, sodass sich Märkte, Organisationen, die Beziehungen zwischen Bürger und Staat und vieles mehr verändern."
    _
    Die Sprechweise von "Big Data" suggeriert Naiven als hätte "Big Data" eine eigene Existenz und Identität, wie etwa die naive Psychoanalyse den verschiedenen "ICHen" eine Homunkulus-artige eigene Existenz zuspricht. "Big Data" ist keine Institution, sondern eine mentale und begriffliche Konstruktion für ein Phänomen, dessen Operationalisierung zur Einflussnahme und Kontrolle sehr wichtig ist. Google, Facebook und Twitter sind nicht  Big Data, aber ein ziemlich großer Teil davon.

    Querverweise zur Sprechweise

    • Definition und definieren.
    • Definitionen, Nominal- und Realdefinitionen.
    • Konstruktivismus: Formen und Varianten.
    • Vulgärkonstruktivismus.
    • Terminologie.
    • Denken - die Sprache des Geistes.

    •  


    Bewertung: Im Zeitalter der Globalisierung und alles dominierenden Suchmaschinen, besonders von Google und der (pseudo-) "sozialen" Netzwerke (> Like mich am Arsch) ein sehr wichtiges Thema. Das Rad dürfte aber nicht mehr zurückzudrehen und die Entwicklung mit ihrer Eigendynamik nicht zu bremsen sein, so dass es im wesentlichen darauf ankommt, die Entwicklung angemessen so zu gestalten, dass die Grundlagen und Entwicklungsmöglichkeiten unserer Gesellschaft nicht unterhöhlt oder gar ausgehebelt werden. Google, Facebook & Co, Big Data müssen kontrolliert werden. Der Umgang mit "Big Data" und den (pseudo-) sozialen Netzwerken sollte sowohl frühzeitig in der Erziehung Berücksichtigung finden (Kindergarten, Vorschule, Schule) als auch medial kritisch begleitet werden.
     
    Die wichtigste politische Forderung ist, dass auf jeder Seite der Big Data Firmen wie z.B. bei Google oder Facebook ein Warnhinweis ähnlich der Aufdrucke bei Zigarettenschachteln erscheint: 
    Achtung! Bedenken Sie bitte, dass Sie nicht nur Ihr verfassungsmäßiges Grundrecht auf informationelle Selbstbestimmung verlieren können, wenn Sie diese Seite nutzen, Sie können auch bloßgestellt, gemobbt und zum gläsernen Menschen erniedrigt werden. Je mehr Daten über Sie öffentlich vorliegen, desto leichter können Sie auch zum Ziel krimineller oder soziopathischer Angriffe werden. 
    Sie können diesen Verlust aber begrenzen, wenn Sie uns mitteilen, was Sie erlauben und was ausdrücklich nicht. Aus der Seite für Datensicherheit ist eine eigene Seite einzurichten, die auf die Gefahren aufmerksam macht und Hinweise gibt, wie man ihnen begegnen kann. 





    Links (Auswahl: beachte)
    • A-Z_ www.
    • Wer profitiert von «Big Data» ?
    _
    Literatur (Auswahl) > A-Z WWW.





    Glossar, Anmerkungen und Endnoten
    GIPT = General and Integrative Psychotherapy, internationale Bezeichnung für Allgemeine und Integrative Psychotherapie.
    ______
    Bewertung. Bewertungen sind immer subjektiv, daher sind wir in unseren Buchpräsentationen bemüht, möglichst viel durch die AutorInnen selbst sagen zu lassen. Die Kombination Inhaltsverzeichnis und Zusammenfassungen sollte jede kundige oder auch interessierte LeserIn in die Lage versetzen selbst festzustellen, ob sie dieses oder jenes genauer wissen will.  Die BuchpräsentatorIn steht gewöhnlich in keiner Geschäftsbeziehung zu Verlag oder den AutorInnen; falls doch wird dies ausdrücklich vermerkt. Die IP-GIPT ist nicht kommerziell ausgerichtet, verlangt und erhält für Buchpräsentationen auch kein Honorar. Meist dürften aber die BuchpräsentatorInnen ein kostenfreies sog. Rezensionsexemplar erhalten. Die IP-GIPT gewinnt durch gute Buchpräsentationen an inhaltlicher Bedeutung und Aufmerksamkeit und für die PräsentatorInnen sind solche Präsentationen auch eine Art Fortbildung - so gesehen haben natürlich alle etwas davon, am meisten, wie wir hoffen Interessenten- und LeserInnen.  Beispiele für Bewertungen: [1,2,3,]
    ___
    Anm. Vorgesehene. Wir präsentieren auch Bücher aus eigenem Bestand, weil wir sie selbst erworben haben oder Verlage sie aus verschiedenen Gründen nicht (mehr) zur Verfügung stellen wollen oder können.
    ___

    Querverweise > A-Z WWW.
    Standort Big Data.
    Nachträge zu Big Data Forschungen. * Medien zu Datenmissbrauch *
    *
    Buch-Präsentationen, Literaturhinweise und Literaturlisten in der IP-GIPT. Überblick und Dokumentation.
    *
    Suchen in der IP-GIPT, z.B. mit Hilfe von "google": <suchbegriff> site:www.sgipt.org
    Buchpräsentation site:www.sgipt.org. 
    *
    Information für Dienstleistungs-Interessierte.
    *


    Zitierung
    Sponsel, Rudolf (DAS). Buchpräsentation: Big Data. Die Revolution, die unser Leben verändern wird. München: Redline. Internet Publikation  für Allgemeine und Integrative Psychotherapie  IP-GIPT. Erlangen: https://www.sgipt.org/lit/sonstige/BigData.htm
    Copyright & Nutzungsrechte
    Diese Seite darf von jeder/m in nicht-kommerziellen Verwertungen frei aber nur original bearbeitet und nicht  inhaltlich verändert und nur bei vollständiger Angabe der Zitierungs-Quelle benutzt werden. Das Einbinden in fremde Seiten oder Rahmen, die die Urheberschaft der IP-GIPT nicht jederzeit klar erkennen lassen, ist nicht gestattet. Sofern die Rechte anderer berührt sind, sind diese dort zu erkunden. Sollten wir die Rechte anderer unberechtigt genutzt haben, bitten wir um Mitteilung. Soweit es um (längere) Zitate aus  ...  geht, sind die Rechte bei/m ... zu erkunden oder eine Erlaubnis einzuholen.


     Ende  Big Data _Überblick  _ Rel. Aktuelles _ Rel. Beständiges _Titelblatt _Konzept _Archiv _Region  __ Service-iec-verlag _ Wichtige Hinweise zu Links und  Empfehlungen



    Änderungen Kleinere Änderungen werden nicht extra ausgewiesen; wird gelegentlich überarbeitet und ergänzt.
    24.01.14    Nachträge zu Big Data Forschungen.