(Durchschnitts-) Menschen sind berechenbar…

Menschliches Verhalten, Denken und menschliche Ausdrucksweisen sind statistisch auswertbar, stochastisch beweisbar und mit Hilfe der Wahrscheinlichkeitsrechnung auch berechenbar. Nicht zwangsläufig jeder einzelne Mensch, nicht zu jeder Zeit und in jedem seiner Gedanken und Handlungen. Aber doch in vielen seiner Handlungen und Denkweisen und in seinen Verhaltensweisen in Gruppen oder wenn er auf sich allein gestellt ist. Der „statistische Durchschnittsmensch“ verhält sich nach einem vorhersagbaren Muster in einer genau definierten Situation und Umgebung.
Abweichungen davon sind die Ausnahme deren Verteilung ebenfalls mithilfe von statistischen Mitteln vorhergesagt werden kann. Diese Ausnahme und das damit verbundene nicht standardmäßige Verhalten lassen sich ebenfalls genauer eingrenzen, je mehr Daten über die Person, die Situation und die Umgebung verfügbar sind. Mit jedem Datenpunkt wächst die Präzision dieser Vorhersagen exponentiell. Das ist die Macht von Big Data. Millionen von Informationsfragmenten ergeben mit und mit ein klares Bild.
Die Systeme, die dem zugrunde liegen, arbeiten mit Algorithmen, die Muster bei der Auswertung bisheriger Verhaltensweisen von Menschen in ähnlichen Situationen und Umgebungen erkennen und dadurch Aussagen für zukünftige, ähnliche Ereignisse ermöglichen.
Eingesetzt werden diese Algorithmen auf Social Media-Plattformen, um unser Verhalten zu tracken und zu erkennen, welche Inhalte besonders interessant für uns sind, damit wir weiterhin genau eben diese Inhalte ausgespielt bekommen. Ebenfalls im Einsatz sind Algorithmen auf Verkaufsplattformen wie zum Beispiel Amazon, wo sie dazu dienen uns Produktvorschläge zu unterbreiten, die zu unseren bisher bekannten Interessen passen. Oder Zu Produkten, die andere Käufer mit ähnlichen Interessen und Aktivitäten zuvor ebenfalls gekauft haben.
Auch im Marketing wird unser Verhalten durch Apps, Kameraaufnahmen, unser Klick- und Surfverhalten, Abonnements, Standortangaben und technische Geräteinformationen gescannt und ausgewertet. Diese Erfassung ist so automatisiert und unsichtbar geworden, dass wir sie nicht mehr bewusst wahrnehmen. Sie läuft im Hintergrund ab, während wir leben.
Verbunden mit einer Vielzahl von persönlichen Daten – die wir freiwillig oder unfreiwillig preisgeben, wenn wir im Internet surfen, an der Ladenkasse mit Karte bezahlen oder Bonuspunkte einlösen – entsteht ein digitales Abbild von uns. Mit jeder neuen Datenspur, die eindeutig unserer Person zugeordnet werden kann, wird dieses Abbild präziser und spiegelt die Realität immer genauer wider.
Diese Systeme erlauben aber auch, das Verhalten von Massen zu untersuchen und Vorhersagen darüber zu treffen, wie sich eine Gruppe oder eine große Menschenansammlung in einer bestimmten Situation verhalten wird. Das hilft zum Beispiel, Evakuierungspläne für Großveranstaltungen passgenauer und sicherer zu machen oder den Individualverkehr so zu steuern, dass Staus vermieden werden.
Der Einsatz kann vielfältig sein. Von der besseren Auslastung einer LKW-Flotte, von Bussen oder der Bahn, über die Optimierung des Personalbedarfs in Spitzenzeiten, bis hin zur Vorhaltung von optimierten Lagerbeständen.
Wenn Algorithmen manipulieren wird es gefährlich
Kritisch wird der Einsatz von Algorithmen dort wo versucht wird, Menschen mithilfe der Erkenntnisse der Algorithmen zu manipulieren. Dies kann, wie im Beispiel der Werbung oder der Social Media, zum Zwecke des wirtschaftlichen Vorteils geschehen; es kann aber auch zum Beispiel für politische oder kriminelle Instrumentalisierung von Menschen verwendet werden.
Hinzu kommt ein entscheidender Aspekt: Der Einsatz dieser Mittel kostet inzwischen kaum noch Geld oder zeitlichen Aufwand. So können tausende oder zehntausende von potentiellen Zielen innerhalb kurzer Zeit gezielt ausgespäht, infiltriert oder zu bestimmten Handlungen veranlasst werden. Allein die schiere Masse der Kontakte, die mithilfe der Algorithmen gezielt gesteuert werden, führt dazu, dass diese Aktionen, selbst wenn sie schlecht durchgeführt werden, stets ein gewisses Maß an Erfolg haben. Selbst wenn beispielsweise nur ein kleiner Prozentsatz der Phishing-E-Mail-Empfänger sich ködern lässt, ergibt sich in Summe dennoch ein rentables Geschäftsmodell für die Versender.
Preisdiskriminierung und gleichgültiges Nutzerverhalten
Auch die legale Auswertung von Nutzerdaten zur Beeinflussung des Kaufverhaltens ist diesem Zusammenhang sehr kritisch zu betrachten. Vielen Nutzern ist nicht bewusst, dass große Onlineshops und Plattformen inzwischen Preise stündlich und teilweise minütlich anpassen und dies auch aufgrund der ausgewerteten Nutzerdaten geschieht. Flugpreise, Reiseangebote und der Preis für Unterwäsche hängen davon ab, welche Geräte Nutzer bei der Suche verwenden, wo Sie wohnen und welcher Einkommensgruppe Sie zugeordnet werden. Werbung wird alters- und geschlechtsspezifisch ausgespielt. Die 30-jährige sieht die neuesten Bikini-Modelle, der 60-jährige erhält Angebote für Inkontinenzhilfen.
Allerdings muss auch konstatieren, dass die Menschen heute erheblich freizügiger und unsensibler bei der Herausgabe ihrer persönlichen Daten geworden sind. Bei der Volkszählung in den achtziger Jahren protestierten Bürgerinitiativen und Parteien gegen die Erhebung. Sie sahen darin den Weg zu einem „gläsernen Bürger“, der es dem Staat erlaubt, das Privatleben bis ins hinterste Eck zu durchleuchten. Die Menschen sind dagegen auf die Straße gegangen und haben demonstriert.
Heutzutage geben wir nicht nur unsere dem Staat unsere Fingerabdrücke, wenn wir einen neuen Pass beantragen. Wir sind in Hinsicht auf unsere persönlichen Daten mit nichtstaatlichen Stellen noch erheblich freizügiger. Vor allem junge Menschen haben keine Scheu davor, in Online-Formularen oder bei Anmeldung auf Websites oder Social-Media-Seiten umfangreichere persönliche Informationen preiszugeben, um dadurch irgendeinen Vorteil zu erlangen.
Wir verraten Meta, LinkedIn oder Byte Dance, wer unsere Freunde sind, was unsere Interessen, unser Lieblingsessen und unser Lieblingsverein ist. Meta und jeder, der unseren Account anschauen kann, kennt unseren Beziehungsstatus und unter Umständen auch den Namen unseres Partners. Wir verraten, wo wir Urlaub machen, wer mit uns zusammen feiert und was wir beruflich erreichen. Über Smart Home Geräte offenbaren wir noch mehr über unser Privatleben. Alexa weiß welche Musik wir gerne hören, welche Geräte von welchen Marken mit ihr verbunden sind und über welche Themen wir uns unterhalten. Der Anbieter des smarten Lichtschalters weiß wann im Schlafzimmer das Licht an und ausgeht.
Das, wogegen die Menschen in den achtziger Jahren auf die Straße gegangen sind und was sie als ihre intimsten Geheimnisse für sich behalten wollten, geben wir jetzt aus freien Stücken preis.
Wir machen uns gläsern!
Die Konsequenzen der Transparenz
Und indem wir uns gläsern machen, machen wir uns auch auswertbar und berechenbar. Wir können bewertet werden als potentieller Kunde, als potentieller Sympathisant, als potentielles Opfer. Wir können kategorisiert werden und je nachdem, um welche Fragestellung es geht, landen wir mal in der einen, mal in der anderen Schublade. Fein sortiert mit all den anderen, die ebenfalls unserem Profilbild entsprechen.
Die Offenheit, mit der viele ihre persönlichen Daten preisgeben, und die technischen Möglichkeiten, die die großen Tech-Firmen inzwischen haben, um uns auszuspionieren, machen uns nackt und verwundbar. Nicht nur die großen Tech-Firmen und Plattformen können diese Daten verwenden, auch Kriminelle und selbst der Staat können auf viele dieser Daten zugreifen und für ihre Zwecke ge- oder missbrauchen. Und diese Daten sind für immer verfügbar. Sie werden laufend aktualisiert.
Dein digitaler Zwilling zieht um, wenn du umziehst. Wechselt den Partner, wenn du das tust. Er ist auf Teneriffa, wenn Du dort bist. Er bekommt Kinder, wird krank, verliert seinen Job, parallel zu dir, Sekunde für Sekunde. Und dein digitaler Zwilling ist so gläsern wie man nur sein kann. Und alle, die den Zugang zu den Daten haben, die deinen digitalen Zwilling ausmachen, können ihn im wörtlichen Sinne „durchschauen“.
Dein Zwilling besteht aus hunderten oder tausenden kleinen Datenschnipsel, die irgendwer irgendwann im Netz herausgefischt hat. Diese Datenfragmente kann man kaufen. Sie werden in Sätzen von mehreren Tausend oder zehntausend Stück angeboten und bieten teils anonymisiert, teils detailliert auslesbar, wertvolle Erkenntnisse über Offensichtliches und über tiefste Geheimnisse einzelner Personen, die eigentlich niemand wissen soll.
Daten als Ware
Datenhändler gleichen unsere geheimen und öffentlich zugänglichen Daten miteinander ab und gehen damit in der Welt des Marketings und der Werbung hausieren. Firmen wie Meta, Amazon oder Google werten Millionen von verfügbaren Daten aus um unser Konsumverhalten zu erforschen und ihre Angebote passgenau auszuspielen.
Dabei geht es nicht um die Maximierung unseres Wohls und Seins, sondern einzig um die Maximierung der Unternehmensgewinne. Dazu bohren sich die Datenkraken immer tiefer in unsere intimsten Privatbereiche, um auch das letzte Quäntchen an Information herauszupressen. Wer hinter die Kulissen schaut, wird zutiefst erschreckt: Werber können ihre Zielgruppe mit erschreckender Präzision eingrenzen. Sie können potentielle Kunden zum richtigen Zeitpunkt, an der richtigen Stelle mit exakt zugeschnittenen Angeboten ansprechen. Dafür nutzen sie Informationen über uns, von denen wir nicht wissen, dass sie existieren.
Wie ein Bekannter es einmal formulierte: „Diese Instrumente zielen auf die Jungen und die Dummen“. Ich würde es weniger drastisch, aber ebenso kritisch formulieren: Sie zielen auf die Schwachen und die Ahnungslosen. Und schwach und ahnungslos sind – im Verhältnis zu den Tech-Giganten, zu kriminellen Organisationen und zum Staat – die meisten von uns.
Die wenigsten machen sich die Mühe, sich über die technischen Möglichkeiten der Verhaltensanalyse zu informieren. Kaum jemand weiß, in wie vielen Bereichen unseres Lebens Profiling bereits eingesetzt wird, um unser Verhalten zu prognostizieren oder zu beeinflussen. Kaum jemand ist sich der Fragilität und Angreifbarkeit der Datensammlung bewusst, die sein Leben in tausenden kleinen Facetten digital widerspiegelt.
Predictive Policing und Überwachunsgstaat
Besonders kritisch ist der Einsatz solcher Algorithmen dort, wo es um Überwachung des Einzelnen geht oder man versucht unerwünschtes Verhalten zu sanktionieren. Nicht ohne Grund sehen Datenschützer und Aktivisten den Einsatz von Systemen wie Gotham der US-amerikanischen Firma Palantir oder der deutschen Predictive Policing Software Precobs sehr kritisch.
Diese Systeme fördern nicht nur Stigmatisierung und Diskriminierung – sie sind fehlerbehaftet und liefern unter Umständen falsche Ergebnisse. Mit dramatischen Konsequenzen: Menschen werden aufgrund falscher Vorhersagen beschuldigt oder nur deshalb unter Verdacht geraten, weil sie zur falschen Zeit am falschen Ort waren
Außerdem ist das Missbrauchspotential solcher Programme immens, wenn sie in den falschen Händen zum Einsatz kommt. Wenn Daten, die eigentlich für einen ganz anderen Zweck gesammelt wurden, plötzlich zur Identifizierung und Lokalisierung bestimmter Personen oder Personengruppen missbraucht werden, hat das fatale Folgen für die Betroffenen.
Jüngstes Beispiel ist der Missbrauch von Daten der US Steuerbehörden zur Verfolgung von Immigranten. Die US-Einwanderungsbehörde (Immigration and Customs Enforcement, ICE) hat sich kürzlich Zugriff auf vertrauliche Steuerdaten gesichert, um gezielt nach Menschen ohne legalen Aufenthaltsstatus zu fahnden und diese festzunehmen.
Dies ist ein massiver Bruch mit grundlegenden Datenschutzprinzipien. ICE soll in der Vergangenheit auch Überweisungsdaten von Zahlungen ins Ausland überwacht haben, um so Immigranten aufzuspüren. Doch wir müssen gar nicht über die Grenzen unseres Landes schauen. Auch bei uns in Deutschland gibt es Skandale um missbräuchlichen Gebrauch von Polizeidatenbanken und Racial profiling.
Wenn Prinzipien wie das Steuer- oder Bankgeheimnis keine Gültigkeit mehr haben und Behörden den Zugriff auf jegliche Information über die Bürger haben, ist ein Missbrauch quasi vorprogrammiert. Amerika ist zurzeit ein gutes Beispiel dafür, was passiert, wenn Behörden, Polizei, Gerichte und vor allem die Regierung geltendes Recht einfach in die Tonne treten und jegliche Grenzen – egal ob juristische oder humanitäre – ignorieren. Wenn solche Datenmengen über jeden Einzelnen verfügbar sind – und die heutige Technologie macht das möglich – wird ein Überwachungsstaat Realität, der unser Leben in jeder Sekunde durchleuchten kann.
Lösungsansätze auf individueller und gesellschaftlicher Ebene
Politische Einflussnahme wie im Cambridge-Analytica-Skandal im Jahr 2018 hat gezeigt, wie große Datensätze gezielt für psychologische Ansprache missbraucht werden können. Wahrscheinlich war dies nur die Spitze des Eisbergs und es ist davon auszugehen, dass diese Aktionen an anderer Stelle im Verborgenen weiter vorangetrieben werden.
Wie können wir uns als Einzelne und auch als Gesellschaft vor dem Missbrauch unserer Daten schützen und eine Einflussnahme, ob politisch, wirtschaftlich oder in Bezug auf unsere Menschenrechte wirksam bekämpfen? Als Einzelne haben wir nur begrenzte Hebel, die wir einsetzen können. Aber wir sind nicht wehrlos. In Deutschland und auch in der EU hat uns der Gesetzgeber mit den Datenschutzrechten wirksame Werkzeuge an die Hand gegeben, um Entscheidungen, die rein auf Profiling basieren, anzufechten.
Die DSGVO spricht uns Rechte zu, wie das Recht auf Auskunft, das Recht auf Berichtigung, das Recht auf Vergessenwerden sowie das Recht, nicht Gegenstand automatisierter Entscheidungen zu sein. Diese Rechte sollten wir nutzen. Wir sollten Einstellungen überprüfen und Auskunft fordern, wo Abläufe nicht transparent sind. Wir sollten technische Hilfsmittel nutzen und fördern, die uns unsere Anonymität bewahren oder sie zumindest stärker schützen; und wir sollten bewusst und äußerst sparsam im Netz mit unseren persönlichen Daten umgehen.
Soziale Netze neu denken und aufbauen
In Bezug auf soziale Netzwerke bedeutet dies, bewusster mit persönlichen Daten und der Möglichkeit umzugehen, wie andere unser Verhalten und Denken tracken und beeinflussen. Wir sollten solche soziale Netze fördern und nutzen, die Empfehlungsalgorithmen nutzen, die in erster Linie den Nutzern dienen. Solche, die nicht darauf ausgerichtet sind unsere Verweildauer und die Werbeeinnahmen der Plattform zu maximieren. Plattformen, die sich bewusst gegen Fragmentierung und Polarisierung wenden und dadurch weniger verblendete Echo-Chambers generieren. Netzwerke, denen das körperlich und mentale Wohl ihrer Nutzer am Herzen liegt, anstatt kommerzielles Mikrotargeting voranzutreiben.
Sicher, diese Netzwerke brauchen auch Einnahmen und es ist fraglich, ob Nutzer bereit sind, dafür einen Preis in barer Münze zu bezahlen. An dieser Stelle ist sicherlich viel Aufklärungsarbeit nötig. Denn vielen Nutzern ist nicht bewusst, welchen Preis sie bereits zahlen – nicht in Euro, sondern in Form ihrer persönlichen Daten. Dieser Preis beinhaltet das Risiko der Offenbarung ihrer intimsten Details, der kommerziellen oder politischen Manipulation oder der ständigen Überwachung.
In Bezug auf die Gesamtgesellschaft bedeute dies, dass wir weiterhin auf den Schutz und die Regulierung unserer Datenschutzrechte pochen sollten. Wir brauchen verpflichtend mehr Transparenz in Bezug auf die Nutzung von KI und das Profiling mithilfe von Algorithmen. Wir brauchen Risiko-Audits ebenfalls für KI und für Profiling-Aktivitäten, damit Quellcodes von unabhängigen Fachleuten geprüft werden können. Und wir brauchen Behörden, die dies sowohl im Einzelfall als auch bei der Aufsicht der Global-Tech-Player überwachen und durchsetzen.
Des Weiteren benötigen wir mutige Unternehmer, die sich für den Schutz des Einzelnen einsetzen und technische Möglichkeiten schaffen, die Privatsphäre besser zu schützen, persönliche Daten geschützt zu speichern und dafür zu sorgen, dass diese nur zweckgebunden, sicher und transparent genutzt werden – durch sogenannte Daten-Treuhänder.
Und letztlich brauchen wir eine neue Form der Medienkompetenz, die bereits in der Schule beginnen muss. Denn nur so lernen wir, sensibler mit unseren Daten umzugehen und das Profiling aufgrund unserer persönlichen Daten zu hinterfragen.
Auf politischer Ebene müssen wir außerdem dafür sorgen, dass die Algorithmus- und Datenmacht nicht allein durch privaten Profitinteressen bestimmt werden kann und wir auch die Abhängigkeit und Einflussnahme von ausländischen kommerziellen oder politischen Interessenten einschränken. Denn eines ist sicher: Die Technologie wird sich nicht selber regulieren und die Big-Tech-Unternehmen haben ebenfalls kein Interesse daran. Die Verantwortung liegt bei uns – als Nutzer, als Gesellschaft und als demokratische Gemeinschaft.
Das könnte dich auch interessieren
Wir brauchen den Crash der KI-Blase
15. November 2025
Die überforderte Gesellschaft
2. November 2025