Buch-Präsentationen in der IP-GIPT
Big Data. Die Revolution, die unser Leben verändern wird
präsentiert von Rudolf Sponsel, Erlangen
mit einer wissenschaftstheoretische Anmerkung zur Sprechweise von "Big Data" und ihrer Bedeutung
Bibliographie * Verlagsinfo * Inhaltsverzeichnis * Leseprobe * Ergebnisse * Bewertung * Autor(Innen) * Links * Literatur * Querverweise *
Nachträge zu Big Data Forschungen. * Medien zu Datenmissbrauch *
Autor(Innen).
"Viktor Mayer-Schönberger gründete im Jahr
1986 die Software-Firma Ikarus mit Entwicklungsschwerpunkt in der Datensicherheit
und entwickelte Virus Utilities, eines der am meisten verkauften österreichischen
Software-Produkte.
Kenneth Cukier ist Daten-Editor bei The Economist und
einer der prominentesten Experten für Entwicklungen im Bereich Big
Data. Er hat 2010 einen der frühesten Artikel über diese Entwicklung
geschrieben."
"Welche Farbe verrät am ehesten, ob ein Gebrauchtwagen in einem
guten Zustand ist? Wie kommt es, dass die Suchfunktion von Google die Verbreitung
der Vogelgrippe H1N1 besser voraussagen kann als jede staatliche Behörde?
Der Schlüssel zu den Antworten auf diese und viele weitere Fragen
ist: Big Data. Im ersten Fall ist es häufig Orange, denn Fahrer, die
diese Farbe kaufen, tauchen weniger in Unfallstatistiken auf. Im zweiten
Fall führt die Kombination und Häufigkeit der pro Land eingegebenen
Suchbegriffe rund um Grippe und Arzneien schneller ans Ziel als jede Prognose.
Diese Beispiele machen deutlich: Noch nie gab es
eine solche Menge an Daten und noch nie bot sich die Chance, durch Recherche
und Kombination in der Datenflut blitzschnell Zusammenhänge zu entschlüsseln.
Big Data bedeutet eine Revolution für Gesellschaft, Wirtschaft und
Politik. Es wird die Weise, wie wir über Gesundheit, Erziehung, Innovation
und vieles mehr denken, völlig umkrempeln. Und Vorhersagen möglich
machen, die bisher undenkbar waren.
Die Experten Viktor Mayer-Schönberger und Kenneth
Cukier beschreiben in ihrem brillanten Buch, was Big Data ist, welche Möglichkeiten
sich eröffnen – und verschweigen auch die dunkle Seite wie den drohen-
den Verlust der Privatsphäre nicht."
Kapitel 1 Heute ............................. 7
Kapitel 2 Mehr .............................. 29
Kapitel 3 Unscharf ......................... 45
Kapitel 4 Korrelation ..................... 67
Kapitel 5 Datafizierung ................... 95
Kapitel 6 Wert ............................... 125
Kapitel 7 Folgen ............................ 155
Kapitel 8 Risiken ........................... 189
Kapitel 9 Kontrolle ........................
215
Kapitel 10 Zukunft ......................... 233
Danksagungen ............................... 249
Anmerkungen ................................ 253
Literaturverzeichnis ........................ 273
Stichwortverzeichnis ...................... 285
Definition "... Es gibt für Big
Data keine exakte Definition. Ursprünglich verstand man darunter eine
Informationsmenge, die zu groß für den Arbeitsspeicher des verarbeitenden
Computers geworden war und von den Entwicklern neue Technologien verlangte.
Das war der Anlass für technologische Innovationen wie Google MapReduce
und sein Open-Source-Pendant Hadoop von Yahoo. Mit diesen neuen Werkzeugen
konnten sehr viel größere Datenmengen als zuvor verarbeitet
werden, und zwar – das war ein entscheidender Fortschritt – nicht nur dann,
wenn sie bereits sauber in klassischen Datenbanken strukturiert und in
einem einheitlichen Format zusammengefasst waren. Neue Werkzeuge, die sich
noch weiter von den bislang notwendigen strengen Hierarchien und Strukturen
verabschieden, sind gerade im Entstehen. Gleichzeitig kristallisierten
sich die Internetanbieter als führende Anwender dieser neuen Werkzeuge
heraus, weil sie über die größten Datenmengen verfügten
und ein brennendes finanzielles Interesse hatten, aus den gesammelten Daten
möglichst großen Nutzen zu ziehen. So überrundeten sie
traditionelle Firmen, die mitunter schon mehrere Jahrzehnte Erfahrung auf
diesem Gebiet besaßen.
Man kann sich die Sache so vorstellen, wie wir es
in diesem Buch tun wollen: Big Data ist das, was man in großem, aber
nicht in kleinem Maßstab tun kann, um neue Erkenntnisse zu gewinnen
oder neue Werte zu schaffen, sodass sich Märkte, Organisationen, die
Beziehungen zwischen Bürger und Staat und vieles mehr verändern.
Aber das ist nur der Anfang. Die Ära von Big
Data wird sich auch auf unsere Lebensweise und unsere Weltsicht auswirken.
Vor allem muss die Gesellschaft sich gewohnter Vorstellungen von Kausalität
entledigen und stattdessen vermehrt auf Korrelationen verlassen: Man wird
oft nicht mehr wissen warum, sondern nur noch was. Das ist das En[>14]de
jahrhundertelang eingeführter Prozesse und verändert tiefgreifend
die Art, wie wir Entscheidungen treffen und die Wirklichkeit verstehen.
Big Data steht am Anfang einer grundlegenden Umwälzung.
Wie so viele neue Technologien, wird Big Data ganz sicher auch der Übertreibungsmaschinerie
von Silicon Valley zum Opfer fallen: Erst kommen die begeisterten Zeitschriftentitel
und Branchentagungen, dann ebbt der Trend wieder ab, und der Glanz vieler
Start-up-Gründungen verblasst. Aber sowohl das Hochjubeln wie das
anschließende Verdammen verkennen, dass hier etwas Bedeutendes passiert.
Genau wie die Erfindung des Fernrohrs das Verständnis des Kosmos und
die Erfindung des Mikroskops die Entdeckung der Mikroben ermöglichten,
werden uns die neuen Datensammlungs- und Datenanalyse-Werkzeuge in großem
Stil dabei helfen, die Welt auf eine Weise neu zu verstehen, die wir erst
erahnen können. In diesem Buch sind wir weniger die Evangelisten von
Big Data als vielmehr seine Herolde. Die wirkliche Revolution, das sei
noch einmal gesagt, findet nicht in der Technik statt, sondern in den Daten
selbst und in der Art ihrer Analyse.
Um zu verstehen, wie weit diese Informationsrevolution
bereits fortgeschritten ist, lassen Sie uns einen Blick auf einige Trends
aus allen gesellschaftlichen Bereichen werfen. Unser digitales Universum
expandiert ständig. Nehmen wir nur die Astronomie. Als im Jahr 2000
das Projekt zur Himmelskartografie Sloan Digital Sky Survey startete, sammelte
das damit befasste Teleskop in Neu-Mexiko in den ersten Wochen bereits
mehr Daten, als in der gesamten bisherigen Geschichte der Astronomie gesammelt
worden waren. Im Jahr 2010 verfügte das Archiv des Survey bereits
über 140 Terabyte an Informationen. Ein geplanter Nachfolger, das
Large Synoptic Survey Telescope in Chile, soll 2016 in Betrieb gehen und
alle fünf Tage dieselbe ungeheure Datenmenge sammeln. ... ... "
"Mehr, unscharf, gut genug Big Data wird zu einer Quelle für neuen wirtschaftlichen Wert und neue Innovationen werden. Aber es geht um noch viel mehr. Der Aufstieg von Big Data steht für drei Umwälzungen in unserer Art der Informationsanalyse, die sich auf Selbstverständnis und Organisation der Gesellschaft auswirken.
(2) Die erste Umwälzung wird in Kapitel 2 beschrieben. In dieser neuen Welt können wir sehr viel mehr Daten analysieren. In manchen Fällen können wir sogar alle für ein bestimmtes Phänomen relevanten Daten heranziehen. Seit dem 19. Jahrhundert ist die Gesellschaft auf Stichproben (sog. Samples) angewiesen, wenn es um sehr große Zahlen geht. Dieser Zwang zu repräsentativen Stichproben ist ein Relikt aus einer Zeit, als Information etwas Außergewöhnliches war, ein Ergebnis der Grenzen der Informationsverarbeitung im analogen Zeital[21]ter. Vor der Einführung leistungsfähiger Digitaltechnologien erkannten wir die Samples nicht als Behinderung, sondern nahmen sie als unvermeidlich hin. Aber indem wir alle Daten sammeln, sind wir nun in der Lage, Einzelheiten zu sehen, die vorher nicht erkennbar waren, solange wir nur kleine Datenmengen verarbeiten konnten. Big Datagibt uns einen besonders deutlichen Einblick in Details: Unterkategorien und Marktnischen etwa, die der Stichprobenmethode unzugänglich bleiben.
(3) Die Verarbeitung einer sehr viel größeren
Datenmenge lässt uns auch unser Bedürfnis nach Exaktheit überwinden.
Das ist die zweite Umwälzung; mit ihr befassen wir uns in Kapitel
3. Ihr liegt ein Kompromiss zugrunde: Weil wir mehr Daten sammeln, können
wir auch eine gewisse Unschärfe in der Datensammlung akzeptieren.
Als unsere Fähigkeit zu messen begrenzt war, zählten wir nur
das Wichtigste. Es war sinnvoll, die Daten möglichst exakt zu ermitteln.
Man kann keine Kuhherde verkaufen, solange man nicht sagen kann, ob sie
100 oder nur 80 Tiere umfasst. Bis vor Kurzem gründeten alle unsere
digitalen Werkzeuge auf dieser Exaktheit. Wir wollten, dass Datenbankabfragen
exakte Auskunft liefern, die unsere Anfrage genau beantwortet. Diese Denkweise
war durch die Welt von »Small Data« (also der Vorbedingung
nur weniger verfügbarer Daten) bedingt: Weil das Messen so aufwendig
war, wollten wir die wenigen Daten so präzise wie möglich messen.
Das ist nachvollziehbar: In einem Geschäft werden die Tageseinnahmen
bis auf den Cent genau abgerechnet, beim Bruttoinlandsprodukt eines ganzes
Staates ist das hingegen nicht mehr sinnvoll (und auch nicht mehr möglich).
Mit der Größe wachsen auch die Ungenauigkeiten. Exaktheit erfordert
sorgfältig erhobene Daten. Sie funktioniert bei kleinen Datenmengen
und ist für bestimmte Fälle natürlich auch in Zukunft unabdingbar:
Entweder man hat genug Geld auf dem Konto für eine bestimmte Überweisung
– oder nicht. Aber in einer Big-Data-Welt können wir diesen Fokus
auf Genauigkeit im Gegenzug einer umfassenderen Sammlung von Daten zum
zum Teil hinter uns lassen. [>22]
Big Data ist oft unscharf, von sehr verschiedener
Qualität und überzahllose Server weltweit verteilt. Big Data
gibt uns oft nur eine allgeneine Richtung vor, anstatt uns einen Sachverhalt
bis auf den Zentimeter, den Cent oder das Atom genau zu erklären.
Wir geben die Exaktheit nicht gänzlich auf, sondern nur unsere Versessenheit
darauf. Was wir an Genauigkeit auf der Mikroebene verlieren, gewinnen wir
an Erkenntnis auf der Makroebene.
(4) Diese beiden Umwälzungen führen zu einer
dritten, der wir uns im vierten Kapitel zuwenden: Eine Abwendung von der
jahrtausendealten Suche nach kausalen Zusammenhängen. Als Menschen
sind wir darauf ausgelegt, bei allem nach seiner Ursache zu fragen, auch
wenn das oft schwierig ist und uns vielleicht auf eine falsche Fährte
führt. In der Big-Data-Welt dagegen müssen wir uns nicht auf
Kausalitäten festlegen, sondern können viel öfter nach Mustern
und Korrelationen in den vorliegenden Daten Ausschau halten, die uns neuartige
und wertvolle Erkenntnisse gewähren. Die Korrelationen sagen uns nicht
warum etwas geschieht, aber sie machen uns darauf aufmerksam, dass etwas
geschieht.
Und in vielen Fällen genügt das bereits. Wenn Millionen elektronischer
Patientenakten zeigen, dass Krebskranke, die eine bestimmte Kombination
von Aspirin und Orangensaft einnehmen, eine Remission der Krankheit erfahren,
dann ist die genaue Ursache dieses Phänomens vielleicht nicht so wichtig
wie die Tatsache, dass die Patienten überleben. Ebenso wenig müssen
wir die Methode hinter dem Wahnsinn der Preisgestaltung von Flugtickets
verstehen – es genügt, wenn wir einfach den besten Zeitpunkt zum Kauf
ermitteln können. Bei Big Data geht es um das Was. nicht um das Warum.
Nicht immer müssen wir die Ursache eines Sachverhalts kennen, sondern
können mitunter auch die Daten für sich selbst sprechen lassen.
Vor Big Data war unsere Analyse oft auf das Prüfen
einer bestimmten Hypothese beschränkt, die schon vor der Sammlung
der Daten klar sein musste. Wenn wir hingegen die Daten sprechen lassen,
ergeben sich Zusammenhänge, an die niemand zuvor gedacht hat. Einige
Hedge-Fonds [>23] verfolgen zum Beispiel den Kurznachrichtendienst Twitter,
um die Kursentwicklung am Aktienmarkt vorhersagen zu können. Amazon
und Netflix gründen ihre Produktempfehlungen auf eine Analyse der
unzähligen Interaktionen ihrer Kunden auf ihren Webseiten. Twitter,
LinkedIn und Facebook zeichnen den »Social Graph« der Beziehungen
ihrer Kunden auf, um deren Vorlieben zu erfahren.
Natürlich analysiert der Mensch schon seit Jahrtausenden Daten.
Die Schrift entstand im alten Mesopotamien, weil die Verwaltung sich ein
effizientes Instrument zur Aufzeichnung und Verarbeitung von Information
wünschte. Schon in der Bibel lesen wir von amtlichen Volkszählungen,
mit denen die Regierungen riesige Datenmengen über ihre Bürger
erhoben, und die Versicherungsstatistiken sammeln seit 200 Jahren ebenfalls
große Datenschätze, um die Risiken, mit denen sie sich befassen,
besser verstehen oder wenigstens vermeiden zu können.
Im analogen Zeitalter war das Sammeln und Analysieren von Daten allerdings
sehr kosten- und zeitintensiv. Neue Fragestellungen bedeuteten damals oft
auch die Notwendigkeit einer erneuten Datensammlung und -analyse.
Der große Schritt zu einem besseren Datenmanagement war die Einführung
der digitalen Verarbeitung: Indem man analoge Informationen für Computersysteme
lesbar macht, kann man sie gleichzeitig leichter und billiger speichern
und verarbeiten. Dieser Fortschritt bedeutete eine dramatische Steigerung
der Effizienz. Datenanalysen, die früher Jahre gedauert haben, waren
jetzt eine Sache von höchstens noch Tagen.
Sonst aber veränderte sich wenig. Die Menschen, die mit den Daten
umgingen, waren allzu oft vom analogen Paradigma geprägt, dass Daten
einem speziellen Zweck dienten und darüber hinaus wertlos waren. Unser
eigenes Handeln hielt dieses Vorurteil aufrecht. So wichtig die Digitalisierung
auch für die Umwälzung durch Big Data war, wurde diese doch nicht
von der bloßen Einführung der Computer bewirkt.
(5) Es gibt keinen wirklich treffenden Begriff, um
die gegenwärtig stattfindende Umwälzung zu beschreiben, aber
ein pragmatischer Versuch ei[>24]ner Näherung ist das Wort Datafizierung,
ein Konzept, das wir im fünften Kapitel vorstellen. Es bezeichnet
die Umwandlung von allem nur Vorstellbaren – auch von Dingen, die wir nie
als Informationen betrachtet hätten, etwa den Standort eines Menschen,
die Vibrationen eines Motors oder die statische Belastung einer Brücke
– in Datenform, um sie damit quantifizieren zu können. Dadurch können
wir diese Informationen auf ganz neue Arten verwenden, zum Beispiel für
Analysen und Vorhersagen. So kann man etwa an der Wärmeabgabe oder
den Vibrationsmustern eines Motors erkennen, dass er bald versagen wird.
Auf diese Weise gewinnen wir Zugang zum impliziten, latenten Wert einer
Information.
Schon ist eine Schatzsuche ausgebrochen nach den
Erkenntnissen, die aus Daten gewonnen werden können, indem man dank
einer Abkehr von der Suche nach Ursachen ihren verborgenen Wert freilegt.
Nahezu jede Datensammlung, jedes Datenstück hat intrinsische, verborgene,
noch unentdeckte Nutzen und damit auch ökonomischen Wert, und das
Rennen, alle diese Datenschätze zu heben, ist in vollem Gange.
(6-7) Big Data bringt eine radikale Veränderung
des Geschäftslebens, der Märkte und der Gesellschaft mit sich,
wie wir im sechsten und siebten Kapitel schildern. Im 20. Jahrhundert traten
zu physischen Werten wie Grund und Boden oder Anlagevermögen immaterielle
Güter hinzu, wie Markennamen oder geistiges Eigentum. Diese Entwicklung
setzt sich jetzt mit Daten fort, die zu einem bedeutenden Wirtschaftsfaktor
werden, indem sie einen unabhängigen ökonomischen Wert erlangen
und die Grundlage neuer Geschäftsmodelle bilden. Sie sind das Öl
im Getriebe der Informationswirtschaft. Bis jetzt werden Daten selten als
Aktivposten in einer Unternehmensbilanz verzeichnet, aber das dürfte
sich in Zukunft ändern.
Obwohl es Verfahren zur Verarbeitung großer Datenmengen schon
länger gibt, waren sie bisher nur Geheimdiensten, Forschungseinrichtungen
und wirklich großen Konzernen vorbehalten. Schließlich haben
Walmart und Capital One den Einsatz von Big Data im Einzelhandel und im
Bankgeschäft eingeführt und dadurch ihre Branche jeweils ent-[>25]scheidend
neu geprägt. Inzwischen sind viele dieser Verfahren demokratisiert
(die Daten allerdings nicht).
Der größte Schock wird vermutlich die
Rückwirkung auf den Einzelnen sein. Fachkenntnisse auf einem spezifischen
Gebiet werden weniger wichtig, wenn Wahrscheinlichkeit und Korrelation
entscheidend sind. In dem Film Die Kunst zu gewinnen – Moneyball konnte
man sehen, wie Baseball-Talentscouts von Statistikern in den Hintergrund
gedrängt werden, weil das Bauchgefühl für die Fähigkeiten
eines Nachwuchsspielers gegenüber einer ausgefeilten Analysetechnik
nicht mehr zählt. Es wird zwar immer Fachleute für einzelne Gebiete
geben, aber sie werden sich mit den Urteilen der Big-Data-Analytiker auseinandersetzen
müssen. Das wiederum wird eine Anpassung traditioneller Vorstellungen
von Management, Entscheidungsfindung, Personalsuche und Ausbildung nach
sich ziehen.
(8) Die meisten unserer Institutionen beruhen auf
der Voraussetzung, dass menschliche Entscheidungen auf der Grundlage weniger,
exakter und kausaler Informationen getroffen werden. Aber wenn die Datengrundlage
extrem umfangreich ist, blitzschnell verarbeitet werden kann und trotz
Unschärfe neue Einsichten bietet, dann werden wir unseren Umgang mit
Daten grundlegend überdenken müssen. Außerdem werden aufgrund
der Menge an Daten Entscheidungen in Zukunft oft nicht mehr von Menschen,
sondern von Maschinen getroffen werden. Der daraus resultierenden dunklen
Seite von Big Data wenden wir uns im achten Kapitel zu.
Unsere Gesellschaft hat lange Erfahrung mit der
Einschätzung und Regulierung menschlichen Verhaltens. Wie aber reguliert
man das Verhalten eines Algorithmus? Schon zu Beginn der Informatik erkannten
Fachleute, dass diese neue Technologie zur Aushöhlung der Privatsphäre
des Einzelnen führen kann. Inzwischen gibt es gesellschaftliche Regeln
zum Schutz personenbezogener Daten. Im Zeitalter von Big Data ist dieser
Datenschutz allerdings oftmals genauso nutzlos wie im Zweiten Weltkrieg
die Maginot-Linie gegen die feindlichen schnellen Panzerverbände.
Denn heute stellen viele Menschen freiwillig persönliche [>26] Informationen
ins Netz – das ist ein wichtiges Merkmal der Netzkultur, und kein Fehler,
den man verhindern müsste.
Die Gefahr verlagert sich heute vom Angriff auf die Privatsphäre
des Einzelnen hin zur ungewollten Beurteilung des Einzelnen aufgrund von
Wahrscheinlichkeiten: Algorithmen sagen vorher, dass man wahscheinlich
einen Herzinfarkt erleiden wird (was die Krankenversicherung verteuert),
dass man seine Kreditraten nicht zahlen können wird (was zur Ablehnung
des Hypothekenantrags führt) oder gar, dass man ein Verbrechen begehen
wird (woraufhin man vorbeugend verhaftet
wird). Das wirft die ethische Frage nach der Rolle des freien Willens
gegenüber der Diktatur der Daten auf. Zählt die Entscheidungsfreiheit
des Individuums mehr als die Voraussagen von Big Data, auch wenn die Statistik
etwas anderes sagt? Genau wie die Erfindung der Druckerpresse letztlich
zur Formulierung des Grundrechts auf freie Meinungsäußerung
führte – das es vorher nicht gegeben hatte, weil so wenig Möglichkeit
bestand, seine Meinung zu verbreiten –, wird es im Zeitalter von Big Data
erforderlich sein, neue Regeln zum Schutz der individuellen Freiheit zu
finden.
In vielerlei Hinsicht wird sich unsere Datenverarbeitung und -kontrolle
verändern müssen. Wir nähern uns einer Zeit ständiger
Vorhersagen aufgrund von Datenbeständen, in der wir unsere Entscheidungen
womöglich nicht mehr begründen können. Was bedeutet es,
wenn ein Arzt eine medizinische Behandlung nicht mehr rechtfertigen kann,
ohne den Patienten aufzufordern, einer »Black Box« zu vertrauen,
wie es der Fall sein wird, wenn die Diagnose von Big Data bestimmt wird?
Wird die Polizei nicht mehr bei »Gefahr im Verzug«, sondern
womöglich schon bei »wahrscheinlicher Gefahr« zugreifen?
Wenn ja, was sind die Folgen für die Freiheit und die Würde des
Menschen?
(9) Für dieses neue Zeitalter brauchen wir neue
Prinzipien; wir stellen sie in Kapitel 9 vor. Obwohl die Prinzipien sich
auf Werte gründen, die für die Welt der wenigen Daten entwickelt
und kodifiziert worden sind, sind sie nicht einfach eine neue Version für
veränderte Umstände, sondern selbst etwas prinzipiell Neues."
Zum Thema Kontrolle vor Missbrauch werden drei Möglichkeiten erörtert: Datenschutz (217-220), Menschen gegen Vorhersagen (221-224), die Blackbox öffnen (224-229) und eine Folgerung gezogen: Datenbarone kontrollieren. Inhaltlich lauten die Vorschläge in aller Kürze: Datenschutz, Schutz vor Statistik, Überwachung durch Kontrolleure (Big Data "Algorithmiker")
Vom
Datenschutz zur Verantwortung der Datennutzer (217-220)
"Seit Jahrzehnten ist ein zentrales Prinzip von Datenschutzgesetzen
in aller Welt, dass der Betroffene die Kontrolle haben soll, also selbst
entscheiden können soll, ob, wie und von wem seine personenbezogenen
Daten verwendet werden dürfen. Im Internetzeitalter ist aus diesem
lobenswerten Ideal oftmals ein formalisiertes Ritual von Datenschutzerklärung
und Zustimmung des Betroffenen geworden. Im Big-Data-Zeitalter, in dem
viel des Wertes von Daten erst durch eine zum Zeitpunkt der Erfassung der
Daten noch nicht absehbare Wiederverwendung gewonnen wird, passt dieser
Mechanismus nicht mehr.
Wir stellen uns für das Big-Data-Zeitalter daher einen ganz anderen gesetzlichen Datenschutzrahmen vor, der anstatt auf die Zustimmung des Einzelnen bei der Datenerhebung darauf setzt, die Nutzer der Daten in die Verantwortung zu nehmen. FN191 In einer solchen Welt werden diese Unternehmen eine förmliche Prüfung für jeden neuen Verwendungszweck von personenbezogenen Daten gerade auch im Hinblick auf die Auswirkungen für die Betroffenen durchzuführen haben. Das muss nicht in jedem Fall sehr detailliert geschehen, weil die Datenschutzgesetze der Zukunft grobe Verwendungskategorien festlegen werden, darunter auch solche, die eine Datennutzung ohne oder mit begrenz-[>218]ten, standardisierten Schutzmaßnahmen zulassen. Für risikobehaftetere Vorhaben wird der Gesetzgeber Grundregeln für die Bewertung einer geplanten Datennutzung und die zu treffenden Schutzmaßnahmen festlegen. Dadurch kann die kreative Wiederverwendung von Daten gefördert und gleichzeitig ausreichender Datenschutz für die Betroffenen sichergestellt werden.
Die korrekte Durchführung einer förmlichen Datenschutzprüfung einer Big-Data-Anwendung und die genaue Umsetzung ihres Ergebnisses bieten dem Datennutzer konkrete Vorteile: In vielen Fällen kann er so Daten für neue Zwecke wiederverwenden, ohne erst die Betroffenen ausdrücklich um Zustimmung bitten zu müssen. Für schlampige Datenschutzprüfungen und mangelhafte Umsetzung der Datenschutzmaßnahmen wird der Datennutzer rechtlich haftbar sein und sich behördlichen Maßnahmen wie Nachbesserungen, Bußgeldern und möglicherweise der Strafverfolgung aussetzen. Verantwortlichkeit für Datennutzung funktioniert nur, wenn sie auch Zähne hat.
Schauen wir uns anhand des Beispiels der Datafizierung von Hinterteilen
aus dem fünften Kapitel an, wie das praktisch aussehen könnte.
Angenommen, ein Autohersteller baut eine Diebstahlsicherung in sein Auto
ein, die das Hinterteil des Fahrers registriert und ihn so identifiziert.
Nehmen wir weiterhin an, dass die Information wiederverwendet werden soll,
um aus der Sitzhaltung zu erkennen, ob der Fahrer wach, nüchtern und
aufmerksam ist. Stellt das Programm fest, dass der Fahrer betrunken, übermüdet
oder auch wütend ist, würden andere Fahrzeuge im engeren Umkreis
entsprechend gewarnt. Nach den heutigen Datenschutzbestimmungen müsste
das Unternehmen für diese neue Verwendung das Einverständnis
der Betroffenen einholen, da eine ausdrückliche Erlaubnis dafür
nicht vorliegt. In einem System der Verantwortlichkeit von Datennutzern
jedoch müsste das Unternehmen die Gefahren der geplanten Nutzung für
die Betroffenen selbst genau prüfen; sollten diese sich als geringfügig
herausstellen, könnte das Projekt weiterlaufen - und die Sicherheit
im Straßenverkehr verbessert werden. [>219] .... "
Im wesentlichen geht es im folgenden um den Schutz und die Verteidigung der Freiheit und persönlichen Verantwortung. Diese Ausführungen sind besonders auch für forensische Prognosegutachter interessant, weil es gerade ja ihre Kernaufgabe betrifft:
Menschen gegen Vorhersagen (221-224)
"Vor Gericht verantworten wir uns für unser Handeln. Wenn ein Richter nach einem fairen Prozess ein unparteiisches Urteil spricht, dann wurde Gerechtigkeit geübt. Im Big-Data-Zeitalter aber müssen wir Gerechtigkeit neu definieren, um den Grundsatz menschlichen Handelns zu bewahren: den freien Willen, mit dem die Menschen ihr Verhalten wählen. Es ist die einfache Vorstellung, dass der Einzelne für sein tatsächliches Verhalten zur Verantwortung gezogen werden kann und soll, nicht aber für seine Absichten.
Vor Big Data war diese Grundfreiheit offensichtlich, und zwar so sehr, dass man sie kaum explizit machen musste. Schließlich funktioniert unser ganzes Rechtssystem so: Wir beurteilen die Schuld eines Menschen nach seinen Taten. Mit Big Data sind wir in der Lage, die Handlungen eines Menschen immer genauer vorherzusagen. Das verführt uns dazu, Menschen nicht nach den tatsächlichen, sondern nach den vorhergesagten Taten zu beurteilen.
Im Zeitalter von Big Data müssen wir daher unser Verständnis von Gerechtigkeit erweitern und die Freiheit menschlichen Handelns genauso schützen wie die Verfahrensgerechtigkeit heute. Ohne einen derartigen Schutz könnte das Fundament der Gerechtigkeit untergraben werden.
Indem wir menschliche Handlungsfreiheit garantieren, stellen wir sicher, dass der Staat unser tatsächliches Handeln beurteilt, und nicht bloß auf Big-Data-Vorhersagen vertraut. Daher darf der Staat uns nur für tatsächliches Handeln, nicht für statistische Vorhersagen zukünftiger Taten zur Verantwortung ziehen. Und wenn der Staat vergangene Taten beurteilt, dann darf er dieses Urteil nicht ausschließlich auf Big Data gründen. Nehmen wir als Beispiel neun Unternehmen, die der illegalen Preisabsprache beschuldigt wurden. FN195 Es ist völlig in Ordnung, Big-Data-Analysen dafür einzusetzen, mögliche Fälle von Preisabsprachen zu identifizieren, aber dann müssen die Kartellbehörden den Beweis dafür mit traditionellen Mitteln führen. Man darf die betreffenden Unternehmen nicht für schuldig erklären, nur weil eine Big-Data-Analyse ihre Schuld vorhersagt. [>222]
Ein entsprechendes Prinzip sollte auch im Privatsektor gelten, wenn Unternehmen folgenreiche Entscheidungen über uns treffen - etwa über Einstellung und Kündigung, die Gewährung einer Hypothek oder den Entzug einer Kreditkarte. Wenn eine solche Entscheidung vorrangig auf Big-Data-Analysen beruht, dann empfehlen wir Schutzmaßnahmen, und zwar erstens Offenheit: Datenmaterial und Algorithmus der Vorhersage sollten offengelegt werden; zweitens Zertifizierung: ein unabhängiger Gutachter sollte den verwendeten Algorithmus für solche bedeutsamen Einsätze als geeignet erklären; drittens Widerlegbarkeit: es sollten konkrete Wege genannt werden, mit denen der Betroffene die Vorhersage widerlegen kann. (Das entspricht der üblichen Praxis in der Forschung, zu jeder Studie die Faktoren anzuführen, die zu ihrer Widerlegung führen können.)
Besonders wichtig aber ist, dass die Garantie der Freiheit menschlichen Handelns auch vor der Gefahr einer Datendiktatur schützt, in der wir den Daten mehr Sinn und Wichtigkeit geben als ihnen gebührt.
Ebenso entscheidend ist, dass wir die Verantwortlichkeit des Einzelnen schützen. Die Gesellschaft wird sich der großen Versuchung gegenübersehen, nicht mehr den Einzelnen für seine Taten verantwortlich zu machen, sondern stattdessen Risikomanagement zu betreiben und die Entscheidungen über Menschen auf der Einschätzung von Möglichkeiten und der Wahrscheinlichkeit von potenziellen Entwicklungen zu gründen. Wenn so viele anscheinend objektive Daten verfügbar sind, klingt es zunächst ganz sinnvoll, die Entscheidungsfindung zu entemotionalisieren und entindividualisieren, und sich auf Algorithmen statt auf die subjektiven Bewertungen von Richtern und Gutachtern zu stützen und Entscheidungen nicht mehr in Begriffen persönlicher Verantwortlichkeit, sondern »objektiverer« Risiken und ihrer Vermeidung zu formulieren.
Zum Beispiel macht es Big Data sehr verlockend, Vorhersagen darüber zu treffen, welche Personen in Zukunft wahrscheinlich ein Verbrechen begehen werden, und die Betreffenden dann besonders zu behandeln, sie im Namen der Risikominderung schärfer zu überwachen. Die [>223] so Eingestuften würden diese Behandlung wahrscheinlich und sehr zu Recht als eine Strafe empfinden, der sie unterworfen würden, ohne dass sie jemals mit dem Vorwurf konfrontiert wurden, tatsächlich das Gesetz gebrochen zu haben. Stellen wir uns vor, ein Algorithmus würde vorhersagen, dass ein Jugendlicher ein hohes Risiko aufweist, in den nächsten drei Jahren straffällig zu werden. Daraufhin veranlassen die Behörden einen monatlichen Besuch eines Sozialarbeiters, um Schwierigkeiten zu verhindern.
Wenn der betroffene Jugendliche und seine Verwandten, Freunde, Lehrer oder Arbeitgeber diese Besuche als Stigmatisierung auffassen, was wahrscheinlich ist, dann hat bereits diese Intervention einen Strafeffekt; sie stellt eine Sanktion für etwas dar, was (noch) gar nicht passiert ist. Die Situation ist auch nicht besser, wenn die Besuche des Sozialarbeiters nicht als Strafe, sondern als Bemühung um die Reduzierung möglicher zukünftiger Probleme angesehen werden, als Risikominimierung sozusagen (in diesem Fall des Risikos eines Verbrechens zum Schaden der öffentlichen Sicherheit). Je mehr wir uns von einer Gesellschaft, in der Menschen sich für ihr Handeln zu verantworten haben, hin zu einer Gesellschaft entwickeln, die auf datengestützte Interventionen zur Risikoverminderung baut, desto mehr entwerten wir das Ideal menschlicher Verantwortung. Ein Staat, der nur mehr vorhersagt, ist noch schlimmer als ein Staat, der bevormundet. Den Menschen die Verantwortlichkeit für ihre Handlungen zu nehmen, zerstört ihre Grundfreiheit, selbst über ihr Handeln entscheiden zu können.
Wenn der Staat viele seiner Entscheidungen auf Voraussagen und dem Wunsch nach Risikovermeidung gründet, dann spielen unsere persönlichen Entscheidungen - und damit unsere Freiheit zu handeln - keine Rolle mehr. Ohne Schuld gibt es auch keine Unschuld. Gäben wir dieser Tendenz nach, würden wir unsere Gesellschaft nicht verbessern, sondern verarmen.
Ein fundamentaler Eckpfeiler im Umgang mit Big Data muss in der Garantie bestehen, dass wir auch weiterhin Menschen nach ihrer persönli-[>224]chen Verantwortlichkeit und ihrem tatsächlichen Verhalten beurteilen und nicht durch »objektive« Datenanalyse bestimmen, ob sie wahrscheinliche Übeltäter sind. Nur so werden sie als Menschen respektiert, die die Freiheit haben, selbstbestimmt zu handeln, und das Recht haben, nach ihren Taten beurteilt zu werden."
Die folgende Methode kann kurz und bündig mit Transparenz und Offenlegung der Grundlagen für Überwachung durch Kontrolleure (Big Data "Algorithmiker") beschrieben werden:
"... ... Bei Big Data geht es um Größenordnungen, die unser Vermögen zu verstehen übersteigen. So fand zum Beispiel Google die Korrelation zwi¬schen einer Handvoll Suchbegriffen und dem Fortschreiten einer Grippewelle durch das Ausprobieren von 450 Millionen mathematischen Modellen heraus. Cynthia Rudin dagegen legte ursprünglich nur 106 Faktoren fest, die möglicherweise voraussagen konnten, ob ein Kabelschacht Feuer fangen würde, und konnte den Managern von Con Edison so erklären, warum ihr Programm bestimmte Schachtdeckel zur Inspektion empfahl. »Erklärbarkeit«, wie das in der Künstliche-Intelligenz-Forschung genannt wird, ist für uns Normalsterbliche wichtig -wir wollen eben nicht nur wissen, was, sondern auch warum. Was aber, wenn das Vorhersagesystem automatisch 601 statt 106 Voraussagefaktoren generiert hätte, die einzeln oft nur ein geringes Gewicht hätten, zusammengenommen aber die Genauigkeit der Vorhersage beträchtlich erhöhten? Die Grundlage jeder Vorhersage wäre dann möglicherweise extrem komplex. Wie hätte Cynthia Rudin dann die Manager überzeugen können, ihren Ergebnissen zu vertrauen?
Anhand solcher Szenarien können wir die Gefahr sehen, dass Big-Data-Vorhersagen und die Algorithmen und Datenbestände, auf denen sie beruhen, zu einer Black Box werden, ohne klare Verantwortlichkeiten, deren Ergebnisse für die Betroffenen nicht mehr nachvollziehbar sind und denen man daher auch nicht mehr vertrauen kann. Um das zu verhindern, bedürfen Big-Data-Analysen der Überwachung und Transparenz, was wiederum neues Fachwissen und neue Institutionen erfordert. Nur so kann die Gesellschaft die Big-Data-Vorhersagen einer genaueren Prüfung unterziehen und Menschen, die sich durch Big Data geschädigt fühlen, effektive Unterstützung bieten.
Gesamtgesellschaftlich gesehen sind wir schon oft Zeugen der Entstehung solcher neuer Einrichtungen geworden, wenn ein Komplexitäts- und Spezialisierungssprung in einem Fachgebiet neue Experten erforderte. Bereiche wie Rechtsprechung, Medizin, Buchhaltung und Ingenieurwesen haben diese Verwandlung vor über einem Jahrhundert bereits durchgemacht. In jüngerer Zeit bildeten sich ebenfalls ähnlich Experten für Computersicherheit und Datenschutz heraus, die prüfen [>226] und zertifizieren, dass Unternehmen Standards und bewährte Praktiken auf diesen Gebieten erfüllen, wie sie zum Beispiel von der International Organisation for Standards (die selbst gegründet wurde, weil ein neues Bedürfnis nach Richtlinien entstanden war) vorgegeben werden.
Für Big Data wird ein ganz neuer Berufsstand erforderlich sein,
um diese Rolle auszufüllen. Vielleicht wird man ihn »Algorithmiker«
nennen. Diese Fachleute könnten auf zweierlei Art arbeiten - als unabhängige
Experten, die Unternehmen extern überprüfen, aber auch als Mitarbeiter
oder Abteilungen eines Unternehmens, ähnlich wie es heute schon Firmenbuchhalter
und unabhängige Wirtschaftsprüfer gibt.
Der Aufstieg des Algorithmikers
Diese neuen Spezialisten wären Experten in Informatik, Mathematik und Statistik und würden Big-Data-Analysen und Vorhersagen bewerten. Algorithmiker wären per Eid zu Vertraulichkeit und Unabhängigkeit verpflichtet, ähnlich wie Wirtschaftsprüfer oder die in Österreich verbreiteten Ziviltechniker. Sie würden die Wahl der Daten, die Qualität der Werkzeuge zu Analyse und Vorhersage - einschließlich der Algorithmen und mathematischen Modelle - und die Interpretation der Ergebnisse überprüfen. Im Streitfall bekämen sie Zugang zu den Algorithmen, den statistischen Verfahren und den Datenbeständen, die eine Entscheidung bestimmt haben.
Hätte das US-Heimatschutzministerium 2004 bereits über Algorithmiker verfügt, dann hätten diese vielleicht verhindert, dass diese Behörde eine Flugverbotsliste herausgab, die so fehlerhaft war, dass Senator Ted Kennedy darauf erschien. Jüngere Fälle, in denen ein Algorithmiker Schlimmes hätte verhüten können, sind etwa Klagen gegen die »Autocomplete«-Funktion der Google-Suche in Japan, Frankreich, Deutschland und Italien, wo Betroffene sich dagegen wehrten, da die durch diese Funktion angezeigten Suchbegriffe sie verleumdet hätten. Die automatische Vervollständigung von Suchanfragen beruht zwar hauptsächlich auf der Häufigkeit des Begriffs in bisherigen Anfragen, und die Begriffe werden nach ihrer mathematischen Wahrscheinlichkeit zusammengestellt, aber wer wäre nicht wütend, wenn hinter dem eigenen Namen plötzlich »Häftling« oder »Prostituierte« erscheint, wenn ein potenzieller Geschäfts- oder Liebespartner einen »googelt«?
Unsere Vorstellung ist, dass Algorithmiker einen marktorientierten Ansatz
zur Lösung von Problemen bieten und so mit stärkeren Einschränkungen
verbundene Eingriffe des Gesetzgebers vermeiden. Sie würden eine ähnliche
Marktlücke füllen wie es die Wirtschaftsprüfer zu Beginn
des 20. Jahrhunderts taten, die kompetente Hilfe bei der Bewältigung
der damaligen Informationsflut im Finanzwesen boten. Der Flut an Zahlen
standen die meisten Menschen damals relativ hilflos gegenüber; es
erforderte Fachleute, die flexibel und selbstreguliert handeln konnten.
Der Markt reagierte durch das Aufkommen eines neuen Sektors miteinander
im Wettbewerb stehender Unternehmen, die auf die Prüfung von Rechnungsabschlüssen
spezialisiert waren. Durch das Angebot dieser Dienstleistung stärkten
diese Spezialisten das Vertrauen der Gesellschaft in die Wirtschaft. Big
Data sollte und könnte von einem ähnlichen Vertrauensschub durch
Algorithmiker profitieren.
Wir stellen uns externe Algorithmiker als unparteiische Prüfer vor, die Genauigkeit und Stichhaltigkeit von Big-Data-Vorhersagen immer dann überprüfen, wenn es staatlich vorgeschrieben wird, etwa auf Anordnung eines Gerichts oder Bescheid einer Behörde. Sie können außerdem Big-Data-Unternehmen, die externe Unterstützung wünschen, auf deren eigenen Wunsch prüfen. Und sie könnten Big-Data-Anwendungen, etwa zur Betrugsaufdeckung oder im Börsenhandel, nach eingehender Prüfung zertifizieren. Schließlich könnten externe Algorithmiker auch als Berater von Behörden für den Einsatz von Big Data im staatlichen Sektor tätig werden.
Genau wie in der Medizin, der Rechtsprechung und ähnlichen Fachgebieten wird es wohl einen Verhaltenskodex für die neue Profession [>] geben. Unparteilichkeit, Verschwiegenheit, Befähigung und Professio¬nalität der Algorithmiker werden durch strenge Haftungsregeln untermauert sein; wer sie verletzt, muss mit Klage rechnen. Algorithmiker könnten als Gerichtsgutachter tätig werden, die Gerichte in fachlich besonders komplexen Fällen unterstützen.
Auch Betroffene, die sich durch eine Big-Data-Anwendung geschädigt
sehen - etwa ein Patient, dem eine Operation verweigert wurde, ein Strafgefangener,
dessen Bewährungsantrag abgelehnt wurde, oder ein Bankkunde, der keine
Hypothek erhalten hat -, könnten sich an Algorithmiker wenden, so
wie man sich heute einen Anwalt nimmt, um derartige Entscheidungen zu verstehen
und zu hinterfragen.
Interne Algorithmiker überwachen als Mitarbeiter eines Unternehmens
dessen Big-Data-Aktivitäten. Sie handeln nicht nur im Interesse ihres
Arbeitgebers, sondern auch im Interesse der von den Big-Data-Analysen Betroffenen.
Sie beaufsichtigen die Big-Data-Aktivitäten und sind der erste Ansprechpartner
für jeden durch die Big-Data-Vorhersagen des Unternehmens Geschädigten.
Außerdem zertifizieren sie Big-Data-Analysen auf Vollständigkeit
und Genauigkeit, bevor die Analysen freigegeben werden. Für die erste
dieser beiden Tätigkeiten braucht der interne Algorithmiker eine gewisse
Freiheit und Unabhängigkeit innerhalb der Organisation, in der er
tätig ist. ... ..."
Datenbarone kontrollieren (229-232)
"Daten sind für die Informationsgesellschaft das, was Rohöl für die Industriegesellschaft war: die entscheidende Ressource für Innovation und Fortschritt. Ohne ein reiches, lebendiges Angebot an Daten und einen robusten Markt für Daten-Dienstleistungen könnten Kreativität und Produktivität des Big-Data-Zeitalters auch wieder zum Erliegen kommen.
Im diesem Kapitel haben wir drei grundlegende neue Strategien für die Kontrolle von Big Data dargelegt, die Datenschutz, Vorhersagen und das Prüfen von Algorithmen betreffen. Wir sind zuversichtlich, dass diese Strategien die dunkle Seite von Big Data im Zaum halten können. Aber im Zuge der Entwicklung des Big-Data-Wirtschaftssektors wird es auch darauf ankommen, den Wettbewerb auf diesen Märkten zu gewährleisten. Wir müssen verhindern, dass sich Datenbarone des [>230] 21. Jahrhunderts etablieren, so wie es die Eisenbahn-, Stahl- und Telegrafenbarone der USA des 19. Jahrhunderts geschafft haben.
Um diese Großindustriellen zu kontrollieren, führte die US-Regierung seinerzeit ein äußerst flexibles Kartellrecht ein, die sogenannten Antitrust-Gesetze. Ursprünglich für den Eisenbahnsektor des 19. Jahrhunderts gedacht, wurden die Antitrust-Gesetze später auf Unternehmen angewandt, die die wirtschaftlich wichtigen Informationsflüsse kontrollierten, vom National Cash Register in den 1910er Jahren über IBM in den 1960er und Xerox in den 1970er Jahren bis hin zu AT&T in den 1980er und Microsoft in den 1990er Jahren und schließlich heute Google. Die von den jeweiligen Unternehmen entwickelten Technologien wurden zu Kernbestandteilen der »Informationsinfrastruktur« der Wirtschaft und erforderten die Macht des Gesetzes, um schädliche Monopolbildung zu vermeiden.
Um die Bedingungen für einen funktionierenden Big-Data-Markt sicherzustellen, werden wir Maßnahmen brauchen, die denen gleichen, die in jener früheren Technikepoche Wettbewerb und Kontrolle garantierten. Wir sollten Transaktionen von Daten durch Lizenzierung und Interoperabilität197 erleichtern. Das freilich führt zu der Frage, ob die Gesellschaft vielleicht von einem sorgfältig formulierten und ausgewogenen »Exklusivrecht« auf Daten profitieren könnte (ähnlich dem Urheberrecht auf geistiges Eigentum, so provozierend das klingen mag!). Zugegebenermaßen wäre das eine schwere Herausforderung für unsere Politiker - und für alle anderen mit hohem Risiko verbunden.
Es ist sicherlich nicht möglich, die zukünftige Entwicklung einer Technologie vorherzusehen; nicht einmal mit Big Data kann man vorhersagen, was aus Big Data werden wird. Der Gesetzgeber wird einen Mittelweg zwischen Vorsicht und Kühnheit finden müssen - und die Geschichte der Antitrust-Gesetze zeigt uns einen möglichen Weg dafür.
Die Antitrust-Gesetzgebung verhinderte den Missbrauch wirtschaftlicher Macht. Interessanterweise ließen sich ihre Prinzipien aber mühelos von einem Wirtschaftszweig auf einen anderen übertragen. Gerade eine solche energische Regulierung- die keine bestimmte Technologie bevorzugt - ist sinnvoll, weil sie den [>231] eine solche energische Regulierung - die keine bestimmte Technologie bevorzugt - ist sinnvoll, weil sie den Wettbewerb schützt, ohne weitergesteckte Ziele zu verfolgen. Die Antitrust-Gesetze aus der Eisenbahnzeit können also auch Big Data auf dem rechten Gleis halten. Außerdem sollte der Staat, der zu den größten Datenbesitzern weltweit zählt, seine eigenen Daten öffentlich zugänglich machen. Es stimmt zuversichtlich, dass einige bereits beides tun - zumindest in gewissem Rahmen.
Die Lehre aus der Regulierung der Wirtschaftsmonopole in den USA ist, dass Behörden, sobald allgemeine Prinzipien gesetzlich verankert sind, diese anwenden können, um genau das richtige Maß an Schutz vor und Unterstützung für Big-Data-Anwender zu erzielen. Ganz ähnlich könnten auch die drei geschilderten Strategien - die Verschiebung im Datenschutz von der Zustimmung des Einzelnen zur Verantwortlichkeit der Datennutzer, die Garantie des freien Willens in einer Zeit zunehmender Vorhersagen und die Einführung einer neuen Gruppe an Experten, die wir Algorithmiker nennen - als Grundlage für eine effektive und gerechte Steuerung des Umgangs mit Information im Big-Data-Zeitalter dienen.
Auf vielen Gebieten, von der Nukleartechnik bis zur Gentechnik, haben wir zuerst neuartige Werkzeuge entwickelt, dann deren Gefahren erkannt, und erst danach begonnen, Sicherheitsmechanismen zu entwickeln, um uns zu schützen. In dieser Hinsicht verhält es sich bei Big Data genauso wie auf anderen gesellschaftlichen Gebieten, deren Probleme keine perfekten Lösungen kennen, sondern nur die stete Frage, wie wir uns die Welt einrichten wollen. Jeder Generation stellt sich diese Frage neu. Unsere Aufgabe lautet, die Risiken dieser vielversprechenden Technologie zu erkennen, ihre Weiterentwicklung zu fördern - und uns ihrer Vorteile zu bemächtigen.
Genau wie die Druckerpresse zu Veränderungen in der Herrschaftsstruktur
der Gesellschaft geführt hat, wird das auch bei Big Data der Fall
sein. Big Data fordert uns auf, bekannten Herausforderungen auf neue Weise
zu begegnen und neue Bedenken durch Rückgriff auf bewährte Prinzipien
zu zerstreuen. Um sicherzustellen, dass die Menschen ge-[>232] schützt
sind, während die Technologie sich entfalten kann, müssen wir
darauf achten, dass Big Data nicht die menschliche Fähigkeit übersteigt,
diese Technologie zu gestalten."
Suchen in der IP-GIPT,
z.B. mit Hilfe von "google": <suchbegriff>
site:www.sgipt.org
Buchpräsentation site:www.sgipt.org. |