Publikationen

Herrschaft der Algorithmen Michael Bader

Portrait Michael Bader

Wie „Künstliche Intelligenz“ unsere Freiheit bedroht.

Moderne Künstliche Intelligenz basiert u. a. auf den Forschungen von Geoffrey Hinton und sogenannten „Neuronalen Netzen“[1], die Gehirnstrukturen abbilden und sich durch zwei Merkmale auszeichnen, nämlich Mustererkennung und Prognoseerstellung. Mustererkennung und Prognoseerstellung sind ideale Bausteine für den Einsatz Künstlicher Intelligenz in der Wirtschaft. Von der Gesichts- und Stimmungserkennung bis zur mobilen Werbeschaltung aufgrund punktgenauer GPS-Positionsdaten im Drogeriemarkt, genau bei dem richtigen Regal mit der betreffenden Ware, von der Ermittlung des richtigen Moments für Werbeeinblendungen bei Online-Spielern, bis zur Spielertypen-Erkennung bei Offline-Gamblern im Spielcasino – immer geht es um dieselbe Problematik: Zum Preis einer immer weiter perfektionierten Totalüberwachung mit anschließender KI-Bearbeitung können gewaltige Geschäfte gemacht werden. KI‑Instanzen haben größten Einfluss auf das internationale Finanzmarktgeschehen; aktuelle Schätzungen gehen davon aus, dass circa 70 % aller Finanztransaktionen in den USA von Algorithmen gesteuert werden[2]. KI‑Instanzen entscheiden über Personaleinstellungen, Bankkredite und den Abschluss von Versicherungspolicen sowie vieles andere mehr.

Ein ausgewiesener Experte auf diesem Gebiet ist Michal Kosinski. Er lehrt in Cambridge und erbrachte bereits 2012 den Beweis, dass über statistische Analyseverfahren anhand der Likes von seinerzeit 58.000 Probanden sensible Daten mit Details aus deren Leben ermittelt werden konnten. Über durchschnittlich 68 ausgewertete Likes konnten recht hohe Trefferquoten erzielt werden, die eine Unterscheidung in männliche und weibliche User sowie in Christen und Muslime – ebenso wie etwa die Zugehörigkeit zu den Demokraten oder Republikanern – ermöglichen, und dies mit Trefferraten von über 80 %[3]. Dieses Wissen wird nunmehr vermehrt auch zur hochpräzisen Zielgruppenansprache von Konsumenten sowie Wahlbürgern eingesetzt. Psychometrische Daten können gemeinsam mit Daten von Informationshändlern wie Acxiom[4] sowie mit Informationen aus Telefonbüchern oder – ganz einfach – direkt von Facebook bezogen werden, um eine möglichst individualisierte Ansprache der Bürger zu ermöglichen: „Jedem Wähler seine individuelle Botschaft.“ KI braucht man in diesem Falle, um die riesigen Datenmengen (aus eigenen Adressbeständen, zugekauften Informationen, selbst erhobenen Daten, psychometrischen Daten etc.) überhaupt handhabbar zu machen und – vor allem – um gemeinsame Muster in diesen Daten zu ermitteln.

Eine Firma, die sich damit brüstete, die Wahl von Donald Trump zum US-amerikanischen Präsidenten massiv beeinflusst zu haben, ist Cambridge Analytica[5] – ein mittlerweile pleitegegangenes Beratungsunternehmen, in dessen Vorstand Steve Bannon saß (damals Herausgeber des ultrarechten Online-Portals „Breitbart News“). Früher nur für Experten ein Begriff, ist Cambridge Analytica wegen des Datenskandals um Facebook‑Nutzerdaten recht bekannt geworden. Insgesamt waren etwa 87 Mio. Nutzer vom Facebook‑Datenskandal betroffen, 310.000 davon aus Deutschland[6]. Und wie sich später herausstellte, könnten insgesamt noch deutlich mehr als 87 Mio. Nutzer betroffen gewesen sein[7]. Wegen des exemplarischen Charakters des Vorgangs folgt kurz der Ablauf des Skandals: Am 03.12.16 berichtete die schweizerische Zeitschrift „Das Magazin“ über die Arbeit von Kosinski und rückte diesen in die Nähe potentieller Wahlmanipulation im Kontext der Trump‑Wahl. Dieser verteidigte sich in dem betreffenden Interview damit, dass er die „Bombe“ nur entdeckt, nicht aber gezündet habe. Psychometrie ja, Wahlmanipulation nein![8] Nun war Kosinski interessanterweise seinerzeit von dem heutigen Cambridge‑Analytica‑Whistleblower Christopher Wylie wegen einer Zusammenarbeit angesprochen worden, was dieser jedoch ablehnte. Wylie ging daraufhin zu Alexander Kogan, einem Kollegen von Kosinski, der auch unter dem Namen „Spectre“ publizierte und in die Zusammenarbeit einwilligte. Kogan kupferte in der Folge kurzerhand Kosinskis Psychometrie‑Modell und gleich auch noch dessen dazugehörige Sammel-App „mypersonality“ ab und ließ sich anschließend bei Facebook als App‑Entwickler zu wissenschaftlichen Zwecken akkreditieren.

Über eine hierfür vorgesehene Entwicklerschnittstelle platzierte Kogan seine Version der Datensammel‑App unter dem Namen „this is your digital life“ und konnte auf diesem Wege 270.000 freiwillige User als Mitwirkende seines Persönlichkeitstests gewinnen. Über diese 270.000 Teilnehmer seines Tests konnten – dank der Facebook‑Datenstruktur – insgesamt 87 Mio. Profile ausgelesen werden, die als „Freunde der Freunde“ im FB‑Universum verdatet waren, darunter 300.000 deutsche User.

All dies geschah im Auftrag von Cambridge Analytica, die dafür 800.000 $ an die Datensammler bezahlten. Cambridge Analytica, ein Tochterunternehmen der SCL‑Group, war eigens zum Zweck der Wahlkampfunterstützung des ultrarechten Milliardärs Mercer und dessen Tochter Rebekah gegründet und mit 15 Mio. $ ausgestattet worden; Geschäftsführer war der mittlerweile abgesetzte Alexander Nix.

Über die beschriebenen Datensammlungen wurden ab 2015 entsprechende Kampagnen von Cambridge Analytica umgesetzt – wie etwa Wahlkampfunterstützungen für Ted Cruz, den rechten Republikaner aus Texas, der einen ordentlichen Vorwahlerfolg in kurzer Zeit erzielen konnte und als einer der letzten Konkurrenten zu Trump im Rennen verblieb[9]. Nachdem 2015 durch den Guardian die Aktivitäten von Cambridge Analytica (etwa die genannte Wahlkampfunterstützung für Ted Cruz) offiziell bekannt wurden, griff Facebook im Dezember 2015 ein, entzog Kogan und Co. sämtliche Zugangsrechte und verordnete die komplette Löschung aller erhobenen Daten. (Daten, die allerdings bis heute nicht gelöscht wurden und die kürzlich vom Observer und der New York Times eingesehen werden konnten.)

Facebook – bekannt für seinen sorglosen Umgang mit dem Thema Datenschutz – hatte die Löschung nicht überprüft und keinerlei Anstrengungen zum Schutz der Userdaten unternommen. Und so nahm im März 2018 das Finale des Datenskandals seinen Lauf: Enthüllungen des britischen TV-Senders Channel 4, auch mit versteckter Kamera dokumentiert, belegen aberwitzige Prahlereien des Cambridge‑Analytica‑CEO Nix zum versuchten Wahlbetrug mit allen Mitteln[10]. Aus verständlichen Gründen musste Alexander Nix umgehend abgesetzt werden; es gab spektakuläre Hausdurchsuchungen und schließlich den lautlosen Konkurs der Firma. Rebekah Mercer und Technologiechef Alexander Tayler sowie weiteres Personal wurden bei einer entsprechenden Nachfolge‑Firma – mit Sitz an der ehemaligen Adresse des bisherigen New Yorker Büros von Cambridge Analytica – untergebracht.

Dass es sich bei der Arbeit von Cambridge Analytica um völlig undiskutable Geschäftspraktiken gehandelt hat, dürfte mittlerweile jedem klar geworden sein; offen bleibt jedoch die Frage, welche Rolle eigentlich Facebook bei der Sache spielte. Wurden tatsächlich Userdaten gehackt – handelt es sich also um den vielbeschworenen Datenmissbrauch? Wie es scheint, fand fast alles im Rahmen der Facebook‑Richtlinien statt, die die Zusammenarbeit mit App‑Entwicklern, Wissenschaftlern und sonstigen Partnern regeln. Es handelt sich also nicht um das vielbeschworene Datenleck – also um einen beklagenswerten Missbrauch der Daten –, sondern um den Einsatz eines Facebook‑Features, das zumindest bis 2015 auch das Absaugen von Informationen über Freunde von Facebook‑Nutzern ermöglichte. Abgesehen vom Verkauf der durch Kogan erhobenen Daten an Cambridge Analytica und deren Weigerung, diese schlussendlich zu löschen, fand alles auf völlig legalem Wege statt.

Das Ausspionieren von Nutzerdaten, das Erstellen von Nutzerprofilen und die Kategorisierung der Menschen in vermarktbare Zielgruppen – all das ist das erfolgreiche Geschäftsmodell von Facebook, mit dem täglich unglaubliche Gewinne erwirtschaftet werden.

Natürlich gibt es geeignete Schnittstellen für Drittanbieter, die sich entsprechende Informationen bedienen und dafür einen Anteil ihrer Erträge wieder an Facebook abgeben – beispielsweise in einem Jahr, in dem Facebook bei einem Umsatz von 40,65 Mrd. $ und einem Gewinn von 16 Mrd. $ lag.

Eigentlich sollte es jedem klar sein: Die scheinbare Gratis‑Dienstleistung von Facebook wird mit den Daten der User bezahlt – das ist die Währung, mit der wir das größte soziale Netzwerk täglich „bezahlen“. Natürlich – und da hatte Zuckerberg in seiner Senatsvorsprache recht – werden Nutzerdaten nicht einfach an andere Werbetreibende verkauft, sondern der Zugang zu entsprechenden Nutzerprofilen wird vermietet. Wirtschaftlich gesehen war und ist die Datenweitergabe an App‑Entwickler sogar eine potenzielle Gefahr für das eigene Geschäftsmodell, mit dem ansonsten auch die ungewöhnlichsten Nutzergruppen erschlossen werden können[11].

So war es z. B. möglich, eine Zielgruppe „Judenhasser“ aufgrund von Nutzerangaben zu identifizieren und gezielt anzusprechen[12]. Sicherlich geschah dies in diesem Fall ohne Wissen und Billigung des Unternehmens Facebook, das dieses „Feature“ nach Bekanntwerden zwar abschaltete – jedoch, bedingt durch die selbstständig arbeitenden Algorithmen, den Vorgang offensichtlich nicht verhindern konnte. Auch hier spielen also die Algorithmen eine entscheidende Rolle, weil sie es ermöglichen, entsprechende Zielgruppen automatisch zu identifizieren und ohne weitere Kontrolle durch Facebook abrufbar zu machen. Genau darin liegt das Geschäftsmodell von Facebook: die Aufzeichnung, Bevorratung und Verwertung privater Nutzerdaten[13]. Ein Geschäftsmodell, das – im Übrigen auch nach der jüngsten Affäre – konsequent weiter ausgebaut wird. So wird in Zukunft nicht nur User‑Info über vorhandene Persönlichkeitsmerkmale für Werbezwecke verfügbar sein, sondern es wird ein kürzlich angekündigtes neues Werkzeug namens „FBLearner Flow“ geben, das eine hochentwickelte Künstliche Intelligenz bereitstellt, welche zukünftige Entscheidungen hochrechnet – inklusive Features wie „Loyalty‑Prediction“ und „Protective‑Surveillance“[14]. Außerdem ist die Empörung von Facebook bezüglich politischer Manipulationsbemühungen durch Cambridge Analytica höchst scheinheilig, da Facebook selbst auf seinen Success‑Story‑Seiten von Erfolgen bei politischen Kampagnen berichtete – etwa über die Erfolge des republikanischen Gouverneurs von Florida, Rick Scott, oder der Scottish National Party –, die im Zuge des Cambridge‑Skandals jedoch von der offiziellen Facebook‑Seite entfernt wurden[15]. Bleibt die Frage, ob es bei dem Cambridge‑Analytica‑Spektakel nur um Prahlerei ging oder ob tatsächlich etwas bewirkt werden konnte. Tatsächlich gibt es keine wirklichen Beweise, dass Cambridge Analytica wahlentscheidend agierte, dass aber Micro‑Targeting grundsätzlich funktioniert – was unumstritten ist und zuletzt unter anderem durch eine Studie (u. a. im Bereich Kosmetik) belegt wurde, die eine Steigerung von 50 % mehr Verkäufen bei gezieltem Einsatz von Micro‑Targeting nachwies[16]. Die Wirksamkeit von Micro‑Targeting in der Werbung lässt sich zudem beispielsweise durch eine Mini‑Kampagne belegen, die 2017 in Zusammenarbeit mit dem Wirtschaftspsychologen Prof. Joost van Treeck von der Fresenius‑Hochschule Hamburg gestaltet wurde – hier brachten auf die jeweiligen potentiellen Käufer abgestimmte Anzeigenprofile bis zu 200 % mehr Conversion Rates[17].

Dass nun über die Produktwerbung hinaus auch die gezielte Wähleransprache und damit die Beeinflussung von Wahlen und Abstimmungen möglich ist, erscheint sehr wahrscheinlich. Dies kann z. B. durch zielgenaues Schalten von Anzeigen („Ads“) bei Facebook und anderen Kanälen sowie durch perfekt vorbereitete, ständig rückgekoppelte Hausbesuche bei den Wählern vor Ort erfolgen. Beliebt ist dabei das Vorgehen, bestimmte Personengruppen mit gezielten Inhalten so anzusprechen, dass sie vom Urnengang abgehalten werden – mit dem Ziel, den Wahlausgang zu beeinflussen.

Bedenklich ist vor allem, dass User durch ihre Mitwirkung an Sozialen Netzen – oft ohne es zu merken – persönliche Informationen preisgeben, die dann zur Beeinflussung ihrer Kauf- und Wahlentscheidungen herangezogen werden können[18]. Sicherlich entscheidet nicht allein Micro‑Targeting über den Ausgang von Wahlen, aber es ist ein wichtiges Werkzeug unter vielen, das an Bedeutung weiter zunehmen wird.

Wenig überraschend häufen sich die Meldungen über Facebook‑Datenmissbrauch – Facebook selbst gab an, ca. 200 Apps mit ähnlichen Funktionen suspendiert zu haben[19]. Außerdem verweist Facebook in seiner Antwort an das US‑Repräsentantenhaus darauf, dass es in den vergangenen Jahren Daten seiner Nutzer mit 52 Unternehmen geteilt hat[20]. So zieht die Facebook‑Datenaffäre immer weitere Kreise: Unlängst wurde das kanadische Unternehmen AggregateIQ von der Plattform ausgeschlossen – dieses hatte laut „Guardian“ im Brexit‑Wahlkampf mit der „Vote‑Leave“-Kampagne zusammengearbeitet und war vom britischen Außenminister Boris Johnson für 6,8 Mio. £ engagiert worden. Das Unternehmen prahlte noch vor Kurzem mit dem Zitat des Vote‑Leave‑Wahlkampfleiters Dominic Cummings: „Ohne Zweifel schuldet die Vote‑Leave‑Kampagne einen großen Teil ihres Erfolgs der Arbeit von AggregateIQ – ohne sie hätten wir es nicht schaffen können“[21]. Nach AggregateIQ wurde auch das kalifornische Datenanalyse-Unternehmen CubeYou von Facebook suspendiert – dieses nutzte Zensusdaten und diverse Apps auf Facebook und Twitter, um persönliche Informationen von Nutzern zu sammeln, die von mehr als 1.500 Werbefirmen verwertet wurden[22]. Welche Beziehungen diese beiden Firmen zu Cambridge Analytica unterhalten, bleibt offen. Allerdings gibt es noch viele weitere Unternehmen mit einem ähnlichen Dienstleistungsangebot wie Cambridge Analytica – etwa Civis Analytics, Clarity Campaign Labs, Blue Labs, Optimus, TargetPoint, Grassroots Consulting und i360[23] sowie große Datensammler wie Peter Thiels Firma Palantir, die nach Aussage des Whistleblowers Christopher Wylie sehr wohl direkt mit Cambridge Analytica zusammenarbeiteten[24].

Grundsätzlich betrachtet waren alle Facebook‑Datenskandale keine Hacks, sondern ein Weckruf in Bezug auf den mittlerweile als normal angesehenen Umgang mit persönlichen Nutzerdaten. Zur Diskussion steht ein übergriffiger Daten‑Kapitalismus, der den großen Informationsanbietern enorme Profite ermöglicht – und nach gesundem Menschenverstand sollte keine private Firma über die persönlichen Daten von 2 Mrd. Nutzern verfügen und diese verwerten können, selbst wenn die Nutzer dem zustimmen. Dies gilt auch, wenn Facebook Besserung gelobt:

„In der Vergangenheit sind wir unserer Verantwortung nicht immer gerecht geworden. Wir haben uns stark auf Innovationen und das Positive unserer Plattform fokussiert und dabei wichtigen Themen – wie der Sicherheit – nicht immer genügend Aufmerksamkeit geschenkt. Aber wir hören zu. Wir lernen. Und wir handeln.“[25]

Nett gemeint, aber es darf nicht allein vom guten Willen eines Unternehmens abhängen, was mit unseren Daten passiert. Für die Beeinflussung von Wahlen sind derzeit auch sogenannte Fake News das Mittel der Wahl – also das absichtliche Streuen von Falschmeldungen. Diese Meldungen werden so komponiert, dass sie die Mechanismen der Sozialen Netze optimal ausnutzen. Das bedeutet, dass zur maximalen viralen Verbreitung vor allem auf Reflexe wie Empörung, „gefühlte“ Wahrheit und auf Reizthemen wie Flüchtlinge, Missbrauch, Krieg und Gewalt gesetzt wird. Die Facebook‑Algorithmen befeuern – gerade aufgrund ihres hohen Aufmerksamkeits‑potenzials – diese Form von Meldungen. Deshalb werden auch die schrillsten Links zu angeblichen Nachrichtenseiten (etwa zur Ermordung des für eine E‑Mail‑Affäre verantwortlichen FBI‑Beamten, zur vermeintlichen Wahlunterstützung Trumps durch den Papst oder zur Behauptung, Hillary habe Waffen an den IS verkauft) massiv verbreitet und in den Sozialen Medien verstärkt angezeigt[26]. Vieles davon ist sicher nicht von Facebook so gewollt, wirkt aber dennoch enorm.

Neben dieser Desinformation durch gezielte Falschmeldungen stellen vor allem auch die sogenannten Social Bots ein Problem dar. Social Bots sind Software‑Roboter – Programme, die menschliches Verhalten simulieren – und interagieren in sozialen Netzwerken wie Facebook oder Twitter. Sie kommunizieren mit echten Nutzern, antworten auf Kommentare und verfassen eigene Beiträge. Dank realistisch wirkender Profile, ausgewogenem Tag‑und‑Nacht‑Verhalten und einer gezielten Hashtag-Nutzung fallen sie nicht als Bots auf.

Weltweit soll es mehr als 100 Mio. Fake‑Accounts geben – also Profile, hinter denen kein realer Mensch, sondern ein Bot steckt[27]. Diese nisten sich in Facebook-, Twitter-, Instagram- und Tumblr-Profilen ein und treiben ihr Unwesen. Eine Studie der Universität von Kalifornien zeigte, dass sich knapp 400.000 Bots in die Präsidentschaftswahl‑Debatte auf Twitter einmischten; es gingen etwa 3,8 Mio. Tweets ein, was rund 20 % der gesamten Twitter‑Kommunikation im Wahlkontext entspricht – davon entfielen 75 % der Tweets auf Trump und 25 % auf Clinton[28]. So stieg beispielsweise der Hashtag „#Trumpwon“ sehr rasch in die Twitter‑Trends – maßgeblich durch Bots, obwohl Presse und Meinungsforschung nach dem ersten TV‑Debüt eher für Clinton warben[29]. Und so entstehen plötzlich durch Algorithmen gesteuerte Trends, die ohne den Einsatz von Bots gar nicht zustande gekommen wären. Dies ist im Kontext von Wahlen besonders bedenklich, da Social Bots ein künstlich erzeugtes, falsches Meinungsbild verbreiten und Wähler beeinflussen können – etwa wenn der Eindruck entsteht, Trump habe alle TV‑Debatten gewonnen[30]. Social Bots sind somit eine Gefahr für die Demokratie, da sie ein verzerrtes Meinungsbild erzeugen und unsere Wahrnehmung des politischen Geschehens (wenn auch indirekt) beeinflussen. Zudem verdrängen sie – allein durch ihre schiere Masse – andere Meinungen in den Sozialen Medien. Fake News, die sich durch Social Bots millionenfach verbreiten, verstärken zudem die sogenannte Filter Bubble[31] bzw. Echo‑Kammer, in der man nur das sieht und hört, was einem ohnehin vertraut ist und was man gerne konsumiert. Dieser Umstand würde zu einer massiven Einschränkung der Wirklichkeitswahrnehmung führen – angefangen bei personalisierten Suchergebnissen bis hin zur individuellen Nachrichtenpräsentation bei Facebook und Twitter[32]. Eine neue Studie des „Reuters Institute for the Study of Journalism“ widerspricht dieser Einschätzung und behauptet sogar, dass Social‑Media‑Nutzer mehr unterschiedliche Nachrichtenquellen nutzen als Personen, die sich außerhalb sozialer Netzwerke bewegen – basierend auf einer vergleichsweise geringen Datenlage[33]. Unabhängig davon, inwieweit Filterblasen den persönlichen Horizont einschränken oder weitere Medien genutzt werden, steht fest: Nicht allein Facebook, Twitter, Google oder Cambridge Analytica haben Donald Trump zum Präsidenten gemacht[34]. Viele Ursachen spielen eine Rolle – etwa das Fernsehen, das für die Mehrheit der Amerikaner die primäre Quelle politischer Information darstellt[35] (ein Medium, das Trump optimal für sich nutzte). Laut einer Umfrage der Pew Foundation, einem liberalen Thinktank, war für 57 % der Amerikaner das Fernsehen die wichtigste Quelle politischer Nachrichten – gefolgt von digitalen Angeboten der Verlage, dem Radio, gedruckten Zeitungen und (mit 18 %) den Sozialen Medien, meist Facebook[36].

Allerdings deuten Untersuchungen von AlgorithmWatch darauf hin, dass sich digitale Suchergebnisse – etwa bei Google – in den USA tendenziell zugunsten der Demokraten verzerren[37]. Daraus folgt: Auch wenn nicht ausschließlich oder unmittelbar wahlentscheidende Eingriffe stattfinden, tragen Fake News, Social Bots etc. eindeutig zum Wahlergebnis bei[38]. In Deutschland gingen im Vorfeld der Bundestagswahl 2017 Befürchtungen auf, dass auch hier Bots, Fake News und weiteres digitales Manipulationspotenzial die Wahl beeinflussen könnten. Es folgten diverse Selbstverpflichtungen der Parteien – der Einsatz von KI im Wahlkampf wurde weitgehend unterbunden, abgesehen von der AfD, die mit Fake News und Social Bots kräftig mitmischte[39]. Ganz offensichtlich haben rechte Kreise mit emotional aufgeladenen Themen wie Kriminalität und Flüchtlingen sowie künstlich aufgeblähter Online‑Aktivität den politischen Diskurs in den Sozialen Medien massiv mitbestimmt – unterstützt durch ein langfristig aufgebautes Bot‑Netzwerk. Sogar der Empfehlungsalgorithmus von Facebook, der kurzfristig überproportional viele rechte Positionen anzeigte, musste angepasst werden[40]. Falsche Freunde und Falschmeldungen können zudem relativ preiswert eingekauft werden – so ermittelte der Bayerische Rundfunk, dass 100.000 Fake News für 269,00 € und 200.000 Fake News zu 489,90 € erworben werden können[41]. Andererseits deuten aktuelle Untersuchungen von AlgorithmWatch in Verbindung mit sechs Landesmedienanstalten darauf hin, dass es in Deutschland kaum politik‑spezifische Personalisierungen bei Google‑Suchanfragen gibt – bei Suchen nach Politikern liegen die Ergebnisse überwiegend sehr ähnlich, während nur in kleineren Clustern von stark individualisierten Listen wenige (2–3) Unterschiede zu verzeichnen sind[42]. Ein großes Problem ist jedoch die gezielte, nur für den Empfänger sichtbare Informationszuspielung in Form sogenannter „Dark‑Posts“, gegen die kein Widerspruch eingelegt werden kann. Dies führt zwangsläufig zu gesellschaftlicher Fragmentierung und weiter anwachsenden sozialen Verwerfungen.

Insgesamt – trotz großer Anstrengungen am rechten Rand – scheint der faktische Einfluss digitaler Manipulation bei der Bundestagswahl 2017 überschaubar gewesen zu sein. Das Hauptproblem zukünftiger Wahlen und Abstimmungen liegt jedoch nicht nur in der direkten Manipulation durch Algorithmen, sondern auch in wachsenden Zweifeln an der Legitimität demokratischer Prozesse, was zu Verunsicherung und Angst führt – und somit dem rechten Spektrum in die Hände spielt.

In Anbetracht potentieller und realer Manipulation in Wirtschaft und Politik durch Künstliche Intelligenz muss diese Technologie kritisch hinterfragt werden – vor allem angesichts ihrer immer weiterreichenden Anwendungen im zivilen sowie militärischen Bereich. Die Chancen und Risiken dieser Technologien müssen gesamtgesellschaftlich abgewogen werden – und zwar nicht allein von den wirtschaftlich profitierenden Unternehmen. Es bedarf eines öffentlichen Diskurses sowie rascher, tragfähiger Schutzmechanismen, wo Gefahren drohen.

Namhafte Wissenschaftler wie Nick Bostrom[43], bekannte Unternehmer wie Elon Musk[44] und Bill Gates[45] mahnen eindringlich vor einer Entwicklung, die sich zu einem unkontrollierbaren Selbstläufer entwickeln könnte. Vor allem der verstorbene Stephen Hawking zählte zu den warnenden Stimmen[46]. In den letzten Jahren haben sich zahlreiche Experten mit Vorschlägen zur Abwehr dieser Risiken gemeldet.

Dies nicht zuletzt durch:

– Herstellung von Algorithmen‑Transparenz, wie von Angela Merkel angemahnt.

– Regelmäßige Überprüfung wichtiger Algorithmen durch einen „Algorithmen‑TÜV“[47] und/oder die Einrichtung einer neu zu gründenden Aufsichtsbehörde, wie von Yvonne Hofstetter gefordert („Wir brauchen eine Treuhandstelle, eine Aufsicht für Algorithmen.“)[48]

– Definition von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen sowie deren Durchsetzung durch Inspektionen über ein geeignetes Beobachtungsinstitut[49]

– Berufung von Algorithmen‑Beauftragten analog zu Datenschutz‑Beauftragten

– Staatliche Aufsicht, Regulation und Kontrolle, wie von Bill Gates und Elon Musk gefordert

– Kontrolle von Algorithmen im Einsatz bei Google, Facebook, Twitter etc. – speziell im Vorfeld von Wahlen und Abstimmungen[50], ergänzt durch den Vorschlag von Gerald Häfner[51], die Algorithmen so einzurichten, dass bei jedem zustimmenden Votum eines Users auch eine anderslautende Meinung angezeigt wird, um so der Echokammer entgegenzuwirken.

Bei aller Berechtigung dieser Vorschläge darf nicht davon ausgegangen werden, dass nationale oder europäische Behörden und Parlamente KI-Technologie wirkungsvoll kontrollieren können – ohne dabei die Rechte der Hersteller anzutasten. Vielmehr erscheint es erforderlich, die Verwertungsbedingungen der neuen KI-Technologien grundsätzlich neu zu definieren und gesellschaftlich vertretbare, zukunftsfähige Alternativen zu schaffen.

Ohne jeden Zweifel kann der Maßstab für den richtigen Umgang mit KI nur der Nutzen für alle Menschen – also das Gemeinwohl – sein. Daher sollte überlegt werden, alle wichtigen KI‑Forschungsergebnisse in „Kulturelles Gemeingut“ zu überführen. Kulturelles Gemeingut umfasst menschliches Wissen, Kulturtechniken, Kulturleistungen, Sprache, Software‑Quellcodes, elektromagnetische Wellen und Frequenzbereiche oder beispielsweise auch das Internet – und damit auch die Algorithmen, die Künstliche Intelligenz steuern.

Dies sollte schon aus den Entstehungsbedingungen solcher Commons selbstverständlich sein, denn die Entwicklung kultureller Gemeingüter beruht selten allein auf der Leistung einzelner Urheber, sondern auf einem über Jahrhunderte gewachsenen Schatz gemeinschaftlichen Wissens – unterstützt durch öffentliche Finanzierung, die eine rein privatwirtschaftliche Verwertung ohne gesellschaftliche Mitsprache ausschließt. Deshalb wären alle KI‑Forschungsergebnisse als Gemeingut anzusehen und in autonome Organisationen zur treuhänderischen Verwaltung zu überführen – damit Künstliche Intelligenz als Gemeinwohl‑KI in den Dienst der Vielen gestellt und nicht den Profitinteressen einiger Weniger überlassen wird.

Gedacht wird beispielsweise eine kombinierte Schutz‑ und Verwaltungslösung für KI‑Technologien, die zum einen aus einer globalen Treuhandgesellschaft im Besitz aller Menschen besteht und – etwa gemäß dem „American Permanent Fund“-Konzept von Peter Barnes, dem „Alaska Permanent Fund“ oder dem „Pacific Forest Trust“ – die Rechte an systemkritischen Algorithmen verwaltet und die daraus erzielten Erträge gerecht an alle Länder (vorzugsweise auch an ärmere) ausschüttet[52][53][54]. Diese Schutzfunktion könnte darüber hinaus in einer UN‑nahe, aber autonomen Organisation realisiert werden, wie es etwa die Internationale Atomenergie‑Organisation (IAEO) für den friedlichen Umgang mit Kernmaterial tut[55].

Mit einer solchen Doppelregelung – bei der Eigentums- und Verwertungsfunktionen strikt von der Kontrollfunktion getrennt werden – ließe sich dem unkontrollierten Privatbesitz und einem immer weniger überblickbaren Wirken von KI möglicherweise Einhalt gebieten. Zugleich müssen die ethischen Grundlagen für den Einsatz von Algorithmen gesellschaftlich diskutiert und gesetzlich verankert werden – damit die Zivilgesellschaft selbst bestimmen kann, welche KI‑Anwendungen gewünscht sind und welche besonderen Schutzmaßnahmen verdienen.

Dabei geht es insbesondere um Anwendungen, deren Wirkungen wir nicht mehr vollständig verstehen, deren Effekte schwer abzuschätzen sind und die sich kaum noch vollständig kontrollieren lassen. Beispiele hierfür sind:

– Finanz‑Algorithmen zum Kauf und Verkauf von Wertpapieren, deren „unerklärliche“ Micro‑Flashs an den Börsen zeigen, dass sie nicht vollständig von den Eigentümern kontrolliert werden können.

– Autonome Drohnen, Panzer, U‑Boote und Roboter, die über die Tötung von Menschenleben entscheiden können – auch wenn dies regulatorisch bislang nicht vorgesehen ist, technisch jedoch längst umgesetzt wurde.

– Autonome Automobile, die u. U. tödliche Fahrentscheidungen treffen und deren ethische Priorisierung politisch statt wirtschaftlich geregelt werden muss.

– Kommunikationsroboter, die mit Menschen interagieren, ohne als solche erkannt zu werden, und die Wahlen beeinflussen können.

– Steuerungssysteme für Serverfarmen oder Energieressourcen, die ohne menschliche Kontrolle und Einblick autonom arbeiten und sich möglicherweise unbemerkt verselbstständigen.

– Intelligente Manipulationssoftware in Wirtschaft und Politik, die unbemerkt Einfluss auf menschliches Verhalten ausübt – etwa durch Gesichts-, Ausdrucks- und Stimmungserkennung, Psychometrie oder Filter Bubbles.

– Künstliche Intelligenz, die sich selbst programmiert – wie bei Google erprobt – und damit den Übergang zur „Singularity“ herbeiführen könnte[56][57].

Zumindest diese Typologie von Anwendungen sollte unverzüglich unter gesellschaftliche Kontrolle gestellt und strengen Regulierungen unterworfen werden. Für alle nicht unmittelbar systemkritischen sowie für die Zivilgesellschaft direkt weniger gefährlichen Anwendungen gilt es, konsequent auf Gemeinwohlorientierung zu achten.

Wem solche Überlegungen sozialromantisch erscheinen, sei darauf hingewiesen, dass selbst einige der großen Hightech‑Tycoons in den USA in eine ähnliche Richtung denken. So existiert beispielsweise das „Allen Institute for Artificial Intelligence“ in Seattle – finanziert mit über einer Milliarde Dollar – bei dem sämtliche Forschungsergebnisse kostenlos veröffentlicht werden[58]. Beispielhaft ist auch die OpenAI‑Initiative von Elon Musk, die als Non‑Profit‑Organisation gegründet wurde und ebenfalls mit rund einer Milliarde Dollar ausgestattet ist[59]. OpenAI befasst sich mit der Erforschung von Künstlicher Intelligenz und deren potenzieller Bedrohung für die Menschheit. Ziel von OpenAI ist es, KI auf Open‑Source‑Basis zu entwickeln und zu vermarkten, sodass sie der Gesellschaft Vorteile bringt statt zu schaden. Auch diese Organisation macht ihre Patente und Forschungsergebnisse öffentlich zugänglich und sieht darin einen gewissen Schutz vor den Gefahren der KI – durch Gemeinwohlorientierung und Transparenz.

Obwohl häufig behauptet wird, dass ohne Eigennutz kein wirtschaftlicher Fortschritt möglich sei, zeigt sich, dass Gemeinwohlorientierung und gemeinschaftlicher Besitz immer mehr an Bedeutung gewinnen – etwa im Kontext der Commons‑Bewegung, vertreten durch den US‑Soziologen Peter Barnes[60], die Heinrich‑Böll‑Stiftung[61], Silke Helfrich[62] sowie weitere Initiativen (z. B. unter https://commons.blog/about/, letzter Zugriff: 17. Oktober 2017) und – natürlich – auch Professorin Elinor Ostrom, Trägerin des Alfred‑Nobel‑Gedächtnispreises für Wirtschaftswissenschaften[63]. Die 2012 verstorbene Elinor Ostrom zählte zu den führenden Autoritäten auf dem Gebiet der Commons und beschrieb detailliert die wesentlichen Voraussetzungen für das erfolgreiche Management gemeinschaftlicher Güter. Sie widerlegte die These des uneingeschränkten Egoismus (bekannt als „Tragödie der Allmende“[64]) und zeigte, dass es einen „dritten Weg“ zwischen privatem und staatlichem Eigentum gibt.

Herausgeber: Stiftung Media, Stuttgart – www.stiftung-media.de

Copyright © 2017–18 by Michael W. Bader, Göppingen

Fußnoten

[1] Yann LeCun, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.

[2] Focus, „Börsencrash in Millisekunden: So reißen Roboter die Aktienkurse in den Abgrund.“ Focus online (09.02.2016).

http://www.focus.de/finanzen/boerse/roboter-als-haendler-wenn-millisekunden-entscheiden-was-loest-einen-boersencrash-aus_id_5205415.html (letzter Zugriff: 18. Oktober 2017).

[3] Die Studie belegt, dass durch Analyse der Facebook‑Likes auf die ethnische Zugehörigkeit, politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung oder Nikotin-, Alkohol- und Drogenkonsum von Personen geschlossen werden kann; siehe Michal Kosinski, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013).

http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).

[4] http://www.acxiom.com (letzter Zugriff: 18. Oktober 2017).

[5] Julian Wheatland, „Personalised marketing in the age of big data: How big data and psychographics are changing the persuasion game“ – Keynote, 16. Zukunftskongress von 2b AHEAD Think Tank, Schloss Wolfsburg, 2017.

https://kongress.zukunft.business/fileadmin/content/videos/2017/Zukunftskongress_2017/170620_Keynote_Wheatland_Julian.mp4?utm_source=Newsletter_DE_170906&utm_medium=Link (letzter Zugriff: 17. Oktober 2017).

[6] Redaktion SZ, „Etwa 87 Millionen Nutzer von Facebook-Datenskandal betroffen: Cambridge Analytica.“ Süddeutsche Zeitung SZ.de (04.04.2018).

https://www.sueddeutsche.de/digital/cambridge-analytica-etwa-millionen-nutzer-von-facebook-datenskandal-betroffen-1.3932186 (letzter Zugriff: 8. April 2018).

[7] Redaktion FAZ, „Frühere Managerin: Es geht um viel mehr als 87 Millionen Nutzer: Cambridge Analytica.“ Frankfurter Allgemeine faz.net (17.04.2018).

http://www.faz.net/aktuell/wirtschaft/facebook-datenskandal-doch-mehr-als-87-millionen-betroffen-15546851.html (letzter Zugriff: 19. April 2018).

[8] Hannes Grassegger und Mikael Krogerus, „Ich habe nur gezeigt, dass es die Bombe gibt.“ Das Magazin, Nr. 48 (2016).

https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ (letzter Zugriff: 18. Oktober 2017).

[9] Carole Cadwalladr und Emma Graham-Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[10] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[11] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/news/facebook-skandal-sortiert-1012101/ (letzter Zugriff: 31. Juli 2018).

[12] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018)

[13] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[14] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[15] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[16] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[17] Mit Singularity (Technische Singularität) wird der Zeitpunkt bezeichnet, an dem sich selbstoptimierende Roboter bzw. Algorithmen die menschlichen Fähigkeiten überflügeln. Einige Forscher gehen davon aus, dass KI ab diesem Zeitpunkt von Menschen nicht mehr kontrolliert werden kann und die Welt selbstständig weiterentwickelt. Andere wiederum erwarten, dass dieser Punkt erst in ferner Zukunft oder gar nie erreicht wird.

[18] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

https://motherboard.vice.com/de/article/ae7wwa/google-forscher-erschaffen-ki-die-selbststndig-ki-programmieren-kann (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017). http://t3n.de/news/ki-ai-software-787665/ (letzter Zugriff: 19. Oktober 2017). Siehe ferner Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603387 (letzter Zugriff: 19. Oktober 2017).

[19] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[20] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[21] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[22] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[23] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[24] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[25] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[26] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[27] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[28] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, hat der Autor beschrieben in Michael W. Bader, Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[29] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[30] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[31] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[32] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[33] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[34] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[35] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[36] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[37] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[38] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[39] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[40] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[41] Mit Singularity (Technische Singularität) … (siehe [17]).

[42] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

Siehe auch: Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017); Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

[43] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[44] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[45] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[46] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[47] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[48] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch: Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[49] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[50] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[51] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[52] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, beschrieb Michael W. Bader in Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[53] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In: Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[54] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[55] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[56] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[57] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[58] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[59] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[60] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[61] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[62] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[63] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[64] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[65] Siehe [17] (Singularity‑Definition, vgl. technische Erläuterung).

Publikationen

Herrschaft der Algorithmen Michael Bader

Portrait Michael Bader

Wie „Künstliche Intelligenz“ unsere Freiheit bedroht.

Moderne Künstliche Intelligenz basiert u. a. auf den Forschungen von Geoffrey Hinton und sogenannten „Neuronalen Netzen“[1], die Gehirnstrukturen abbilden und sich durch zwei Merkmale auszeichnen, nämlich Mustererkennung und Prognoseerstellung. Mustererkennung und Prognoseerstellung sind ideale Bausteine für den Einsatz Künstlicher Intelligenz in der Wirtschaft. Von der Gesichts- und Stimmungserkennung bis zur mobilen Werbeschaltung aufgrund punktgenauer GPS-Positionsdaten im Drogeriemarkt, genau bei dem richtigen Regal mit der betreffenden Ware, von der Ermittlung des richtigen Moments für Werbeeinblendungen bei Online-Spielern, bis zur Spielertypen-Erkennung bei Offline-Gamblern im Spielcasino – immer geht es um dieselbe Problematik: Zum Preis einer immer weiter perfektionierten Totalüberwachung mit anschließender KI-Bearbeitung können gewaltige Geschäfte gemacht werden. KI‑Instanzen haben größten Einfluss auf das internationale Finanzmarktgeschehen; aktuelle Schätzungen gehen davon aus, dass circa 70 % aller Finanztransaktionen in den USA von Algorithmen gesteuert werden[2]. KI‑Instanzen entscheiden über Personaleinstellungen, Bankkredite und den Abschluss von Versicherungspolicen sowie vieles andere mehr.

Ein ausgewiesener Experte auf diesem Gebiet ist Michal Kosinski. Er lehrt in Cambridge und erbrachte bereits 2012 den Beweis, dass über statistische Analyseverfahren anhand der Likes von seinerzeit 58.000 Probanden sensible Daten mit Details aus deren Leben ermittelt werden konnten. Über durchschnittlich 68 ausgewertete Likes konnten recht hohe Trefferquoten erzielt werden, die eine Unterscheidung in männliche und weibliche User sowie in Christen und Muslime – ebenso wie etwa die Zugehörigkeit zu den Demokraten oder Republikanern – ermöglichen, und dies mit Trefferraten von über 80 %[3]. Dieses Wissen wird nunmehr vermehrt auch zur hochpräzisen Zielgruppenansprache von Konsumenten sowie Wahlbürgern eingesetzt. Psychometrische Daten können gemeinsam mit Daten von Informationshändlern wie Acxiom[4] sowie mit Informationen aus Telefonbüchern oder – ganz einfach – direkt von Facebook bezogen werden, um eine möglichst individualisierte Ansprache der Bürger zu ermöglichen: „Jedem Wähler seine individuelle Botschaft.“ KI braucht man in diesem Falle, um die riesigen Datenmengen (aus eigenen Adressbeständen, zugekauften Informationen, selbst erhobenen Daten, psychometrischen Daten etc.) überhaupt handhabbar zu machen und – vor allem – um gemeinsame Muster in diesen Daten zu ermitteln.

Eine Firma, die sich damit brüstete, die Wahl von Donald Trump zum US-amerikanischen Präsidenten massiv beeinflusst zu haben, ist Cambridge Analytica[5] – ein mittlerweile pleitegegangenes Beratungsunternehmen, in dessen Vorstand Steve Bannon saß (damals Herausgeber des ultrarechten Online-Portals „Breitbart News“). Früher nur für Experten ein Begriff, ist Cambridge Analytica wegen des Datenskandals um Facebook‑Nutzerdaten recht bekannt geworden. Insgesamt waren etwa 87 Mio. Nutzer vom Facebook‑Datenskandal betroffen, 310.000 davon aus Deutschland[6]. Und wie sich später herausstellte, könnten insgesamt noch deutlich mehr als 87 Mio. Nutzer betroffen gewesen sein[7]. Wegen des exemplarischen Charakters des Vorgangs folgt kurz der Ablauf des Skandals: Am 03.12.16 berichtete die schweizerische Zeitschrift „Das Magazin“ über die Arbeit von Kosinski und rückte diesen in die Nähe potentieller Wahlmanipulation im Kontext der Trump‑Wahl. Dieser verteidigte sich in dem betreffenden Interview damit, dass er die „Bombe“ nur entdeckt, nicht aber gezündet habe. Psychometrie ja, Wahlmanipulation nein![8] Nun war Kosinski interessanterweise seinerzeit von dem heutigen Cambridge‑Analytica‑Whistleblower Christopher Wylie wegen einer Zusammenarbeit angesprochen worden, was dieser jedoch ablehnte. Wylie ging daraufhin zu Alexander Kogan, einem Kollegen von Kosinski, der auch unter dem Namen „Spectre“ publizierte und in die Zusammenarbeit einwilligte. Kogan kupferte in der Folge kurzerhand Kosinskis Psychometrie‑Modell und gleich auch noch dessen dazugehörige Sammel-App „mypersonality“ ab und ließ sich anschließend bei Facebook als App‑Entwickler zu wissenschaftlichen Zwecken akkreditieren.

Über eine hierfür vorgesehene Entwicklerschnittstelle platzierte Kogan seine Version der Datensammel‑App unter dem Namen „this is your digital life“ und konnte auf diesem Wege 270.000 freiwillige User als Mitwirkende seines Persönlichkeitstests gewinnen. Über diese 270.000 Teilnehmer seines Tests konnten – dank der Facebook‑Datenstruktur – insgesamt 87 Mio. Profile ausgelesen werden, die als „Freunde der Freunde“ im FB‑Universum verdatet waren, darunter 300.000 deutsche User.

All dies geschah im Auftrag von Cambridge Analytica, die dafür 800.000 $ an die Datensammler bezahlten. Cambridge Analytica, ein Tochterunternehmen der SCL‑Group, war eigens zum Zweck der Wahlkampfunterstützung des ultrarechten Milliardärs Mercer und dessen Tochter Rebekah gegründet und mit 15 Mio. $ ausgestattet worden; Geschäftsführer war der mittlerweile abgesetzte Alexander Nix.

Über die beschriebenen Datensammlungen wurden ab 2015 entsprechende Kampagnen von Cambridge Analytica umgesetzt – wie etwa Wahlkampfunterstützungen für Ted Cruz, den rechten Republikaner aus Texas, der einen ordentlichen Vorwahlerfolg in kurzer Zeit erzielen konnte und als einer der letzten Konkurrenten zu Trump im Rennen verblieb[9]. Nachdem 2015 durch den Guardian die Aktivitäten von Cambridge Analytica (etwa die genannte Wahlkampfunterstützung für Ted Cruz) offiziell bekannt wurden, griff Facebook im Dezember 2015 ein, entzog Kogan und Co. sämtliche Zugangsrechte und verordnete die komplette Löschung aller erhobenen Daten. (Daten, die allerdings bis heute nicht gelöscht wurden und die kürzlich vom Observer und der New York Times eingesehen werden konnten.)

Facebook – bekannt für seinen sorglosen Umgang mit dem Thema Datenschutz – hatte die Löschung nicht überprüft und keinerlei Anstrengungen zum Schutz der Userdaten unternommen. Und so nahm im März 2018 das Finale des Datenskandals seinen Lauf: Enthüllungen des britischen TV-Senders Channel 4, auch mit versteckter Kamera dokumentiert, belegen aberwitzige Prahlereien des Cambridge‑Analytica‑CEO Nix zum versuchten Wahlbetrug mit allen Mitteln[10]. Aus verständlichen Gründen musste Alexander Nix umgehend abgesetzt werden; es gab spektakuläre Hausdurchsuchungen und schließlich den lautlosen Konkurs der Firma. Rebekah Mercer und Technologiechef Alexander Tayler sowie weiteres Personal wurden bei einer entsprechenden Nachfolge‑Firma – mit Sitz an der ehemaligen Adresse des bisherigen New Yorker Büros von Cambridge Analytica – untergebracht.

Dass es sich bei der Arbeit von Cambridge Analytica um völlig undiskutable Geschäftspraktiken gehandelt hat, dürfte mittlerweile jedem klar geworden sein; offen bleibt jedoch die Frage, welche Rolle eigentlich Facebook bei der Sache spielte. Wurden tatsächlich Userdaten gehackt – handelt es sich also um den vielbeschworenen Datenmissbrauch? Wie es scheint, fand fast alles im Rahmen der Facebook‑Richtlinien statt, die die Zusammenarbeit mit App‑Entwicklern, Wissenschaftlern und sonstigen Partnern regeln. Es handelt sich also nicht um das vielbeschworene Datenleck – also um einen beklagenswerten Missbrauch der Daten –, sondern um den Einsatz eines Facebook‑Features, das zumindest bis 2015 auch das Absaugen von Informationen über Freunde von Facebook‑Nutzern ermöglichte. Abgesehen vom Verkauf der durch Kogan erhobenen Daten an Cambridge Analytica und deren Weigerung, diese schlussendlich zu löschen, fand alles auf völlig legalem Wege statt.

Das Ausspionieren von Nutzerdaten, das Erstellen von Nutzerprofilen und die Kategorisierung der Menschen in vermarktbare Zielgruppen – all das ist das erfolgreiche Geschäftsmodell von Facebook, mit dem täglich unglaubliche Gewinne erwirtschaftet werden.

Natürlich gibt es geeignete Schnittstellen für Drittanbieter, die sich entsprechende Informationen bedienen und dafür einen Anteil ihrer Erträge wieder an Facebook abgeben – beispielsweise in einem Jahr, in dem Facebook bei einem Umsatz von 40,65 Mrd. $ und einem Gewinn von 16 Mrd. $ lag.

Eigentlich sollte es jedem klar sein: Die scheinbare Gratis‑Dienstleistung von Facebook wird mit den Daten der User bezahlt – das ist die Währung, mit der wir das größte soziale Netzwerk täglich „bezahlen“. Natürlich – und da hatte Zuckerberg in seiner Senatsvorsprache recht – werden Nutzerdaten nicht einfach an andere Werbetreibende verkauft, sondern der Zugang zu entsprechenden Nutzerprofilen wird vermietet. Wirtschaftlich gesehen war und ist die Datenweitergabe an App‑Entwickler sogar eine potenzielle Gefahr für das eigene Geschäftsmodell, mit dem ansonsten auch die ungewöhnlichsten Nutzergruppen erschlossen werden können[11].

So war es z. B. möglich, eine Zielgruppe „Judenhasser“ aufgrund von Nutzerangaben zu identifizieren und gezielt anzusprechen[12]. Sicherlich geschah dies in diesem Fall ohne Wissen und Billigung des Unternehmens Facebook, das dieses „Feature“ nach Bekanntwerden zwar abschaltete – jedoch, bedingt durch die selbstständig arbeitenden Algorithmen, den Vorgang offensichtlich nicht verhindern konnte. Auch hier spielen also die Algorithmen eine entscheidende Rolle, weil sie es ermöglichen, entsprechende Zielgruppen automatisch zu identifizieren und ohne weitere Kontrolle durch Facebook abrufbar zu machen. Genau darin liegt das Geschäftsmodell von Facebook: die Aufzeichnung, Bevorratung und Verwertung privater Nutzerdaten[13]. Ein Geschäftsmodell, das – im Übrigen auch nach der jüngsten Affäre – konsequent weiter ausgebaut wird. So wird in Zukunft nicht nur User‑Info über vorhandene Persönlichkeitsmerkmale für Werbezwecke verfügbar sein, sondern es wird ein kürzlich angekündigtes neues Werkzeug namens „FBLearner Flow“ geben, das eine hochentwickelte Künstliche Intelligenz bereitstellt, welche zukünftige Entscheidungen hochrechnet – inklusive Features wie „Loyalty‑Prediction“ und „Protective‑Surveillance“[14]. Außerdem ist die Empörung von Facebook bezüglich politischer Manipulationsbemühungen durch Cambridge Analytica höchst scheinheilig, da Facebook selbst auf seinen Success‑Story‑Seiten von Erfolgen bei politischen Kampagnen berichtete – etwa über die Erfolge des republikanischen Gouverneurs von Florida, Rick Scott, oder der Scottish National Party –, die im Zuge des Cambridge‑Skandals jedoch von der offiziellen Facebook‑Seite entfernt wurden[15]. Bleibt die Frage, ob es bei dem Cambridge‑Analytica‑Spektakel nur um Prahlerei ging oder ob tatsächlich etwas bewirkt werden konnte. Tatsächlich gibt es keine wirklichen Beweise, dass Cambridge Analytica wahlentscheidend agierte, dass aber Micro‑Targeting grundsätzlich funktioniert – was unumstritten ist und zuletzt unter anderem durch eine Studie (u. a. im Bereich Kosmetik) belegt wurde, die eine Steigerung von 50 % mehr Verkäufen bei gezieltem Einsatz von Micro‑Targeting nachwies[16]. Die Wirksamkeit von Micro‑Targeting in der Werbung lässt sich zudem beispielsweise durch eine Mini‑Kampagne belegen, die 2017 in Zusammenarbeit mit dem Wirtschaftspsychologen Prof. Joost van Treeck von der Fresenius‑Hochschule Hamburg gestaltet wurde – hier brachten auf die jeweiligen potentiellen Käufer abgestimmte Anzeigenprofile bis zu 200 % mehr Conversion Rates[17].

Dass nun über die Produktwerbung hinaus auch die gezielte Wähleransprache und damit die Beeinflussung von Wahlen und Abstimmungen möglich ist, erscheint sehr wahrscheinlich. Dies kann z. B. durch zielgenaues Schalten von Anzeigen („Ads“) bei Facebook und anderen Kanälen sowie durch perfekt vorbereitete, ständig rückgekoppelte Hausbesuche bei den Wählern vor Ort erfolgen. Beliebt ist dabei das Vorgehen, bestimmte Personengruppen mit gezielten Inhalten so anzusprechen, dass sie vom Urnengang abgehalten werden – mit dem Ziel, den Wahlausgang zu beeinflussen.

Bedenklich ist vor allem, dass User durch ihre Mitwirkung an Sozialen Netzen – oft ohne es zu merken – persönliche Informationen preisgeben, die dann zur Beeinflussung ihrer Kauf- und Wahlentscheidungen herangezogen werden können[18]. Sicherlich entscheidet nicht allein Micro‑Targeting über den Ausgang von Wahlen, aber es ist ein wichtiges Werkzeug unter vielen, das an Bedeutung weiter zunehmen wird.

Wenig überraschend häufen sich die Meldungen über Facebook‑Datenmissbrauch – Facebook selbst gab an, ca. 200 Apps mit ähnlichen Funktionen suspendiert zu haben[19]. Außerdem verweist Facebook in seiner Antwort an das US‑Repräsentantenhaus darauf, dass es in den vergangenen Jahren Daten seiner Nutzer mit 52 Unternehmen geteilt hat[20]. So zieht die Facebook‑Datenaffäre immer weitere Kreise: Unlängst wurde das kanadische Unternehmen AggregateIQ von der Plattform ausgeschlossen – dieses hatte laut „Guardian“ im Brexit‑Wahlkampf mit der „Vote‑Leave“-Kampagne zusammengearbeitet und war vom britischen Außenminister Boris Johnson für 6,8 Mio. £ engagiert worden. Das Unternehmen prahlte noch vor Kurzem mit dem Zitat des Vote‑Leave‑Wahlkampfleiters Dominic Cummings: „Ohne Zweifel schuldet die Vote‑Leave‑Kampagne einen großen Teil ihres Erfolgs der Arbeit von AggregateIQ – ohne sie hätten wir es nicht schaffen können“[21]. Nach AggregateIQ wurde auch das kalifornische Datenanalyse-Unternehmen CubeYou von Facebook suspendiert – dieses nutzte Zensusdaten und diverse Apps auf Facebook und Twitter, um persönliche Informationen von Nutzern zu sammeln, die von mehr als 1.500 Werbefirmen verwertet wurden[22]. Welche Beziehungen diese beiden Firmen zu Cambridge Analytica unterhalten, bleibt offen. Allerdings gibt es noch viele weitere Unternehmen mit einem ähnlichen Dienstleistungsangebot wie Cambridge Analytica – etwa Civis Analytics, Clarity Campaign Labs, Blue Labs, Optimus, TargetPoint, Grassroots Consulting und i360[23] sowie große Datensammler wie Peter Thiels Firma Palantir, die nach Aussage des Whistleblowers Christopher Wylie sehr wohl direkt mit Cambridge Analytica zusammenarbeiteten[24].

Grundsätzlich betrachtet waren alle Facebook‑Datenskandale keine Hacks, sondern ein Weckruf in Bezug auf den mittlerweile als normal angesehenen Umgang mit persönlichen Nutzerdaten. Zur Diskussion steht ein übergriffiger Daten‑Kapitalismus, der den großen Informationsanbietern enorme Profite ermöglicht – und nach gesundem Menschenverstand sollte keine private Firma über die persönlichen Daten von 2 Mrd. Nutzern verfügen und diese verwerten können, selbst wenn die Nutzer dem zustimmen. Dies gilt auch, wenn Facebook Besserung gelobt:

„In der Vergangenheit sind wir unserer Verantwortung nicht immer gerecht geworden. Wir haben uns stark auf Innovationen und das Positive unserer Plattform fokussiert und dabei wichtigen Themen – wie der Sicherheit – nicht immer genügend Aufmerksamkeit geschenkt. Aber wir hören zu. Wir lernen. Und wir handeln.“[25]

Nett gemeint, aber es darf nicht allein vom guten Willen eines Unternehmens abhängen, was mit unseren Daten passiert. Für die Beeinflussung von Wahlen sind derzeit auch sogenannte Fake News das Mittel der Wahl – also das absichtliche Streuen von Falschmeldungen. Diese Meldungen werden so komponiert, dass sie die Mechanismen der Sozialen Netze optimal ausnutzen. Das bedeutet, dass zur maximalen viralen Verbreitung vor allem auf Reflexe wie Empörung, „gefühlte“ Wahrheit und auf Reizthemen wie Flüchtlinge, Missbrauch, Krieg und Gewalt gesetzt wird. Die Facebook‑Algorithmen befeuern – gerade aufgrund ihres hohen Aufmerksamkeits‑potenzials – diese Form von Meldungen. Deshalb werden auch die schrillsten Links zu angeblichen Nachrichtenseiten (etwa zur Ermordung des für eine E‑Mail‑Affäre verantwortlichen FBI‑Beamten, zur vermeintlichen Wahlunterstützung Trumps durch den Papst oder zur Behauptung, Hillary habe Waffen an den IS verkauft) massiv verbreitet und in den Sozialen Medien verstärkt angezeigt[26]. Vieles davon ist sicher nicht von Facebook so gewollt, wirkt aber dennoch enorm.

Neben dieser Desinformation durch gezielte Falschmeldungen stellen vor allem auch die sogenannten Social Bots ein Problem dar. Social Bots sind Software‑Roboter – Programme, die menschliches Verhalten simulieren – und interagieren in sozialen Netzwerken wie Facebook oder Twitter. Sie kommunizieren mit echten Nutzern, antworten auf Kommentare und verfassen eigene Beiträge. Dank realistisch wirkender Profile, ausgewogenem Tag‑und‑Nacht‑Verhalten und einer gezielten Hashtag-Nutzung fallen sie nicht als Bots auf.

Weltweit soll es mehr als 100 Mio. Fake‑Accounts geben – also Profile, hinter denen kein realer Mensch, sondern ein Bot steckt[27]. Diese nisten sich in Facebook-, Twitter-, Instagram- und Tumblr-Profilen ein und treiben ihr Unwesen. Eine Studie der Universität von Kalifornien zeigte, dass sich knapp 400.000 Bots in die Präsidentschaftswahl‑Debatte auf Twitter einmischten; es gingen etwa 3,8 Mio. Tweets ein, was rund 20 % der gesamten Twitter‑Kommunikation im Wahlkontext entspricht – davon entfielen 75 % der Tweets auf Trump und 25 % auf Clinton[28]. So stieg beispielsweise der Hashtag „#Trumpwon“ sehr rasch in die Twitter‑Trends – maßgeblich durch Bots, obwohl Presse und Meinungsforschung nach dem ersten TV‑Debüt eher für Clinton warben[29]. Und so entstehen plötzlich durch Algorithmen gesteuerte Trends, die ohne den Einsatz von Bots gar nicht zustande gekommen wären. Dies ist im Kontext von Wahlen besonders bedenklich, da Social Bots ein künstlich erzeugtes, falsches Meinungsbild verbreiten und Wähler beeinflussen können – etwa wenn der Eindruck entsteht, Trump habe alle TV‑Debatten gewonnen[30]. Social Bots sind somit eine Gefahr für die Demokratie, da sie ein verzerrtes Meinungsbild erzeugen und unsere Wahrnehmung des politischen Geschehens (wenn auch indirekt) beeinflussen. Zudem verdrängen sie – allein durch ihre schiere Masse – andere Meinungen in den Sozialen Medien. Fake News, die sich durch Social Bots millionenfach verbreiten, verstärken zudem die sogenannte Filter Bubble[31] bzw. Echo‑Kammer, in der man nur das sieht und hört, was einem ohnehin vertraut ist und was man gerne konsumiert. Dieser Umstand würde zu einer massiven Einschränkung der Wirklichkeitswahrnehmung führen – angefangen bei personalisierten Suchergebnissen bis hin zur individuellen Nachrichtenpräsentation bei Facebook und Twitter[32]. Eine neue Studie des „Reuters Institute for the Study of Journalism“ widerspricht dieser Einschätzung und behauptet sogar, dass Social‑Media‑Nutzer mehr unterschiedliche Nachrichtenquellen nutzen als Personen, die sich außerhalb sozialer Netzwerke bewegen – basierend auf einer vergleichsweise geringen Datenlage[33]. Unabhängig davon, inwieweit Filterblasen den persönlichen Horizont einschränken oder weitere Medien genutzt werden, steht fest: Nicht allein Facebook, Twitter, Google oder Cambridge Analytica haben Donald Trump zum Präsidenten gemacht[34]. Viele Ursachen spielen eine Rolle – etwa das Fernsehen, das für die Mehrheit der Amerikaner die primäre Quelle politischer Information darstellt[35] (ein Medium, das Trump optimal für sich nutzte). Laut einer Umfrage der Pew Foundation, einem liberalen Thinktank, war für 57 % der Amerikaner das Fernsehen die wichtigste Quelle politischer Nachrichten – gefolgt von digitalen Angeboten der Verlage, dem Radio, gedruckten Zeitungen und (mit 18 %) den Sozialen Medien, meist Facebook[36].

Allerdings deuten Untersuchungen von AlgorithmWatch darauf hin, dass sich digitale Suchergebnisse – etwa bei Google – in den USA tendenziell zugunsten der Demokraten verzerren[37]. Daraus folgt: Auch wenn nicht ausschließlich oder unmittelbar wahlentscheidende Eingriffe stattfinden, tragen Fake News, Social Bots etc. eindeutig zum Wahlergebnis bei[38]. In Deutschland gingen im Vorfeld der Bundestagswahl 2017 Befürchtungen auf, dass auch hier Bots, Fake News und weiteres digitales Manipulationspotenzial die Wahl beeinflussen könnten. Es folgten diverse Selbstverpflichtungen der Parteien – der Einsatz von KI im Wahlkampf wurde weitgehend unterbunden, abgesehen von der AfD, die mit Fake News und Social Bots kräftig mitmischte[39]. Ganz offensichtlich haben rechte Kreise mit emotional aufgeladenen Themen wie Kriminalität und Flüchtlingen sowie künstlich aufgeblähter Online‑Aktivität den politischen Diskurs in den Sozialen Medien massiv mitbestimmt – unterstützt durch ein langfristig aufgebautes Bot‑Netzwerk. Sogar der Empfehlungsalgorithmus von Facebook, der kurzfristig überproportional viele rechte Positionen anzeigte, musste angepasst werden[40]. Falsche Freunde und Falschmeldungen können zudem relativ preiswert eingekauft werden – so ermittelte der Bayerische Rundfunk, dass 100.000 Fake News für 269,00 € und 200.000 Fake News zu 489,90 € erworben werden können[41]. Andererseits deuten aktuelle Untersuchungen von AlgorithmWatch in Verbindung mit sechs Landesmedienanstalten darauf hin, dass es in Deutschland kaum politik‑spezifische Personalisierungen bei Google‑Suchanfragen gibt – bei Suchen nach Politikern liegen die Ergebnisse überwiegend sehr ähnlich, während nur in kleineren Clustern von stark individualisierten Listen wenige (2–3) Unterschiede zu verzeichnen sind[42]. Ein großes Problem ist jedoch die gezielte, nur für den Empfänger sichtbare Informationszuspielung in Form sogenannter „Dark‑Posts“, gegen die kein Widerspruch eingelegt werden kann. Dies führt zwangsläufig zu gesellschaftlicher Fragmentierung und weiter anwachsenden sozialen Verwerfungen.

Insgesamt – trotz großer Anstrengungen am rechten Rand – scheint der faktische Einfluss digitaler Manipulation bei der Bundestagswahl 2017 überschaubar gewesen zu sein. Das Hauptproblem zukünftiger Wahlen und Abstimmungen liegt jedoch nicht nur in der direkten Manipulation durch Algorithmen, sondern auch in wachsenden Zweifeln an der Legitimität demokratischer Prozesse, was zu Verunsicherung und Angst führt – und somit dem rechten Spektrum in die Hände spielt.

In Anbetracht potentieller und realer Manipulation in Wirtschaft und Politik durch Künstliche Intelligenz muss diese Technologie kritisch hinterfragt werden – vor allem angesichts ihrer immer weiterreichenden Anwendungen im zivilen sowie militärischen Bereich. Die Chancen und Risiken dieser Technologien müssen gesamtgesellschaftlich abgewogen werden – und zwar nicht allein von den wirtschaftlich profitierenden Unternehmen. Es bedarf eines öffentlichen Diskurses sowie rascher, tragfähiger Schutzmechanismen, wo Gefahren drohen.

Namhafte Wissenschaftler wie Nick Bostrom[43], bekannte Unternehmer wie Elon Musk[44] und Bill Gates[45] mahnen eindringlich vor einer Entwicklung, die sich zu einem unkontrollierbaren Selbstläufer entwickeln könnte. Vor allem der verstorbene Stephen Hawking zählte zu den warnenden Stimmen[46]. In den letzten Jahren haben sich zahlreiche Experten mit Vorschlägen zur Abwehr dieser Risiken gemeldet.

Dies nicht zuletzt durch:

– Herstellung von Algorithmen‑Transparenz, wie von Angela Merkel angemahnt.

– Regelmäßige Überprüfung wichtiger Algorithmen durch einen „Algorithmen‑TÜV“[47] und/oder die Einrichtung einer neu zu gründenden Aufsichtsbehörde, wie von Yvonne Hofstetter gefordert („Wir brauchen eine Treuhandstelle, eine Aufsicht für Algorithmen.“)[48]

– Definition von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen sowie deren Durchsetzung durch Inspektionen über ein geeignetes Beobachtungsinstitut[49]

– Berufung von Algorithmen‑Beauftragten analog zu Datenschutz‑Beauftragten

– Staatliche Aufsicht, Regulation und Kontrolle, wie von Bill Gates und Elon Musk gefordert

– Kontrolle von Algorithmen im Einsatz bei Google, Facebook, Twitter etc. – speziell im Vorfeld von Wahlen und Abstimmungen[50], ergänzt durch den Vorschlag von Gerald Häfner[51], die Algorithmen so einzurichten, dass bei jedem zustimmenden Votum eines Users auch eine anderslautende Meinung angezeigt wird, um so der Echokammer entgegenzuwirken.

Bei aller Berechtigung dieser Vorschläge darf nicht davon ausgegangen werden, dass nationale oder europäische Behörden und Parlamente KI-Technologie wirkungsvoll kontrollieren können – ohne dabei die Rechte der Hersteller anzutasten. Vielmehr erscheint es erforderlich, die Verwertungsbedingungen der neuen KI-Technologien grundsätzlich neu zu definieren und gesellschaftlich vertretbare, zukunftsfähige Alternativen zu schaffen.

Ohne jeden Zweifel kann der Maßstab für den richtigen Umgang mit KI nur der Nutzen für alle Menschen – also das Gemeinwohl – sein. Daher sollte überlegt werden, alle wichtigen KI‑Forschungsergebnisse in „Kulturelles Gemeingut“ zu überführen. Kulturelles Gemeingut umfasst menschliches Wissen, Kulturtechniken, Kulturleistungen, Sprache, Software‑Quellcodes, elektromagnetische Wellen und Frequenzbereiche oder beispielsweise auch das Internet – und damit auch die Algorithmen, die Künstliche Intelligenz steuern.

Dies sollte schon aus den Entstehungsbedingungen solcher Commons selbstverständlich sein, denn die Entwicklung kultureller Gemeingüter beruht selten allein auf der Leistung einzelner Urheber, sondern auf einem über Jahrhunderte gewachsenen Schatz gemeinschaftlichen Wissens – unterstützt durch öffentliche Finanzierung, die eine rein privatwirtschaftliche Verwertung ohne gesellschaftliche Mitsprache ausschließt. Deshalb wären alle KI‑Forschungsergebnisse als Gemeingut anzusehen und in autonome Organisationen zur treuhänderischen Verwaltung zu überführen – damit Künstliche Intelligenz als Gemeinwohl‑KI in den Dienst der Vielen gestellt und nicht den Profitinteressen einiger Weniger überlassen wird.

Gedacht wird beispielsweise eine kombinierte Schutz‑ und Verwaltungslösung für KI‑Technologien, die zum einen aus einer globalen Treuhandgesellschaft im Besitz aller Menschen besteht und – etwa gemäß dem „American Permanent Fund“-Konzept von Peter Barnes, dem „Alaska Permanent Fund“ oder dem „Pacific Forest Trust“ – die Rechte an systemkritischen Algorithmen verwaltet und die daraus erzielten Erträge gerecht an alle Länder (vorzugsweise auch an ärmere) ausschüttet[52][53][54]. Diese Schutzfunktion könnte darüber hinaus in einer UN‑nahe, aber autonomen Organisation realisiert werden, wie es etwa die Internationale Atomenergie‑Organisation (IAEO) für den friedlichen Umgang mit Kernmaterial tut[55].

Mit einer solchen Doppelregelung – bei der Eigentums- und Verwertungsfunktionen strikt von der Kontrollfunktion getrennt werden – ließe sich dem unkontrollierten Privatbesitz und einem immer weniger überblickbaren Wirken von KI möglicherweise Einhalt gebieten. Zugleich müssen die ethischen Grundlagen für den Einsatz von Algorithmen gesellschaftlich diskutiert und gesetzlich verankert werden – damit die Zivilgesellschaft selbst bestimmen kann, welche KI‑Anwendungen gewünscht sind und welche besonderen Schutzmaßnahmen verdienen.

Dabei geht es insbesondere um Anwendungen, deren Wirkungen wir nicht mehr vollständig verstehen, deren Effekte schwer abzuschätzen sind und die sich kaum noch vollständig kontrollieren lassen. Beispiele hierfür sind:

– Finanz‑Algorithmen zum Kauf und Verkauf von Wertpapieren, deren „unerklärliche“ Micro‑Flashs an den Börsen zeigen, dass sie nicht vollständig von den Eigentümern kontrolliert werden können.

– Autonome Drohnen, Panzer, U‑Boote und Roboter, die über die Tötung von Menschenleben entscheiden können – auch wenn dies regulatorisch bislang nicht vorgesehen ist, technisch jedoch längst umgesetzt wurde.

– Autonome Automobile, die u. U. tödliche Fahrentscheidungen treffen und deren ethische Priorisierung politisch statt wirtschaftlich geregelt werden muss.

– Kommunikationsroboter, die mit Menschen interagieren, ohne als solche erkannt zu werden, und die Wahlen beeinflussen können.

– Steuerungssysteme für Serverfarmen oder Energieressourcen, die ohne menschliche Kontrolle und Einblick autonom arbeiten und sich möglicherweise unbemerkt verselbstständigen.

– Intelligente Manipulationssoftware in Wirtschaft und Politik, die unbemerkt Einfluss auf menschliches Verhalten ausübt – etwa durch Gesichts-, Ausdrucks- und Stimmungserkennung, Psychometrie oder Filter Bubbles.

– Künstliche Intelligenz, die sich selbst programmiert – wie bei Google erprobt – und damit den Übergang zur „Singularity“ herbeiführen könnte[56][57].

Zumindest diese Typologie von Anwendungen sollte unverzüglich unter gesellschaftliche Kontrolle gestellt und strengen Regulierungen unterworfen werden. Für alle nicht unmittelbar systemkritischen sowie für die Zivilgesellschaft direkt weniger gefährlichen Anwendungen gilt es, konsequent auf Gemeinwohlorientierung zu achten.

Wem solche Überlegungen sozialromantisch erscheinen, sei darauf hingewiesen, dass selbst einige der großen Hightech‑Tycoons in den USA in eine ähnliche Richtung denken. So existiert beispielsweise das „Allen Institute for Artificial Intelligence“ in Seattle – finanziert mit über einer Milliarde Dollar – bei dem sämtliche Forschungsergebnisse kostenlos veröffentlicht werden[58]. Beispielhaft ist auch die OpenAI‑Initiative von Elon Musk, die als Non‑Profit‑Organisation gegründet wurde und ebenfalls mit rund einer Milliarde Dollar ausgestattet ist[59]. OpenAI befasst sich mit der Erforschung von Künstlicher Intelligenz und deren potenzieller Bedrohung für die Menschheit. Ziel von OpenAI ist es, KI auf Open‑Source‑Basis zu entwickeln und zu vermarkten, sodass sie der Gesellschaft Vorteile bringt statt zu schaden. Auch diese Organisation macht ihre Patente und Forschungsergebnisse öffentlich zugänglich und sieht darin einen gewissen Schutz vor den Gefahren der KI – durch Gemeinwohlorientierung und Transparenz.

Obwohl häufig behauptet wird, dass ohne Eigennutz kein wirtschaftlicher Fortschritt möglich sei, zeigt sich, dass Gemeinwohlorientierung und gemeinschaftlicher Besitz immer mehr an Bedeutung gewinnen – etwa im Kontext der Commons‑Bewegung, vertreten durch den US‑Soziologen Peter Barnes[60], die Heinrich‑Böll‑Stiftung[61], Silke Helfrich[62] sowie weitere Initiativen (z. B. unter https://commons.blog/about/, letzter Zugriff: 17. Oktober 2017) und – natürlich – auch Professorin Elinor Ostrom, Trägerin des Alfred‑Nobel‑Gedächtnispreises für Wirtschaftswissenschaften[63]. Die 2012 verstorbene Elinor Ostrom zählte zu den führenden Autoritäten auf dem Gebiet der Commons und beschrieb detailliert die wesentlichen Voraussetzungen für das erfolgreiche Management gemeinschaftlicher Güter. Sie widerlegte die These des uneingeschränkten Egoismus (bekannt als „Tragödie der Allmende“[64]) und zeigte, dass es einen „dritten Weg“ zwischen privatem und staatlichem Eigentum gibt.

Herausgeber: Stiftung Media, Stuttgart – www.stiftung-media.de

Copyright © 2017–18 by Michael W. Bader, Göppingen

Fußnoten

[1] Yann LeCun, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.

[2] Focus, „Börsencrash in Millisekunden: So reißen Roboter die Aktienkurse in den Abgrund.“ Focus online (09.02.2016).

http://www.focus.de/finanzen/boerse/roboter-als-haendler-wenn-millisekunden-entscheiden-was-loest-einen-boersencrash-aus_id_5205415.html (letzter Zugriff: 18. Oktober 2017).

[3] Die Studie belegt, dass durch Analyse der Facebook‑Likes auf die ethnische Zugehörigkeit, politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung oder Nikotin-, Alkohol- und Drogenkonsum von Personen geschlossen werden kann; siehe Michal Kosinski, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013).

http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).

[4] http://www.acxiom.com (letzter Zugriff: 18. Oktober 2017).

[5] Julian Wheatland, „Personalised marketing in the age of big data: How big data and psychographics are changing the persuasion game“ – Keynote, 16. Zukunftskongress von 2b AHEAD Think Tank, Schloss Wolfsburg, 2017.

https://kongress.zukunft.business/fileadmin/content/videos/2017/Zukunftskongress_2017/170620_Keynote_Wheatland_Julian.mp4?utm_source=Newsletter_DE_170906&utm_medium=Link (letzter Zugriff: 17. Oktober 2017).

[6] Redaktion SZ, „Etwa 87 Millionen Nutzer von Facebook-Datenskandal betroffen: Cambridge Analytica.“ Süddeutsche Zeitung SZ.de (04.04.2018).

https://www.sueddeutsche.de/digital/cambridge-analytica-etwa-millionen-nutzer-von-facebook-datenskandal-betroffen-1.3932186 (letzter Zugriff: 8. April 2018).

[7] Redaktion FAZ, „Frühere Managerin: Es geht um viel mehr als 87 Millionen Nutzer: Cambridge Analytica.“ Frankfurter Allgemeine faz.net (17.04.2018).

http://www.faz.net/aktuell/wirtschaft/facebook-datenskandal-doch-mehr-als-87-millionen-betroffen-15546851.html (letzter Zugriff: 19. April 2018).

[8] Hannes Grassegger und Mikael Krogerus, „Ich habe nur gezeigt, dass es die Bombe gibt.“ Das Magazin, Nr. 48 (2016).

https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ (letzter Zugriff: 18. Oktober 2017).

[9] Carole Cadwalladr und Emma Graham-Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[10] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[11] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/news/facebook-skandal-sortiert-1012101/ (letzter Zugriff: 31. Juli 2018).

[12] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018)

[13] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[14] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[15] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[16] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[17] Mit Singularity (Technische Singularität) wird der Zeitpunkt bezeichnet, an dem sich selbstoptimierende Roboter bzw. Algorithmen die menschlichen Fähigkeiten überflügeln. Einige Forscher gehen davon aus, dass KI ab diesem Zeitpunkt von Menschen nicht mehr kontrolliert werden kann und die Welt selbstständig weiterentwickelt. Andere wiederum erwarten, dass dieser Punkt erst in ferner Zukunft oder gar nie erreicht wird.

[18] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

https://motherboard.vice.com/de/article/ae7wwa/google-forscher-erschaffen-ki-die-selbststndig-ki-programmieren-kann (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017). http://t3n.de/news/ki-ai-software-787665/ (letzter Zugriff: 19. Oktober 2017). Siehe ferner Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603387 (letzter Zugriff: 19. Oktober 2017).

[19] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[20] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[21] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[22] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[23] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[24] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[25] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[26] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[27] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[28] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, hat der Autor beschrieben in Michael W. Bader, Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[29] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[30] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[31] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[32] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[33] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[34] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[35] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[36] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[37] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[38] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[39] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[40] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[41] Mit Singularity (Technische Singularität) … (siehe [17]).

[42] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

Siehe auch: Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017); Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

[43] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[44] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[45] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[46] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[47] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[48] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch: Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[49] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[50] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[51] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[52] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, beschrieb Michael W. Bader in Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[53] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In: Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[54] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[55] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[56] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[57] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[58] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[59] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[60] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[61] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[62] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[63] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[64] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[65] Siehe [17] (Singularity‑Definition, vgl. technische Erläuterung).

Publikationen

Herrschaft der Algorithmen Michael Bader

Portrait Michael Bader

Wie „Künstliche Intelligenz“ unsere Freiheit bedroht.

Moderne Künstliche Intelligenz basiert u. a. auf den Forschungen von Geoffrey Hinton und sogenannten „Neuronalen Netzen“[1], die Gehirnstrukturen abbilden und sich durch zwei Merkmale auszeichnen, nämlich Mustererkennung und Prognoseerstellung. Mustererkennung und Prognoseerstellung sind ideale Bausteine für den Einsatz Künstlicher Intelligenz in der Wirtschaft. Von der Gesichts- und Stimmungserkennung bis zur mobilen Werbeschaltung aufgrund punktgenauer GPS-Positionsdaten im Drogeriemarkt, genau bei dem richtigen Regal mit der betreffenden Ware, von der Ermittlung des richtigen Moments für Werbeeinblendungen bei Online-Spielern, bis zur Spielertypen-Erkennung bei Offline-Gamblern im Spielcasino – immer geht es um dieselbe Problematik: Zum Preis einer immer weiter perfektionierten Totalüberwachung mit anschließender KI-Bearbeitung können gewaltige Geschäfte gemacht werden. KI‑Instanzen haben größten Einfluss auf das internationale Finanzmarktgeschehen; aktuelle Schätzungen gehen davon aus, dass circa 70 % aller Finanztransaktionen in den USA von Algorithmen gesteuert werden[2]. KI‑Instanzen entscheiden über Personaleinstellungen, Bankkredite und den Abschluss von Versicherungspolicen sowie vieles andere mehr.

Ein ausgewiesener Experte auf diesem Gebiet ist Michal Kosinski. Er lehrt in Cambridge und erbrachte bereits 2012 den Beweis, dass über statistische Analyseverfahren anhand der Likes von seinerzeit 58.000 Probanden sensible Daten mit Details aus deren Leben ermittelt werden konnten. Über durchschnittlich 68 ausgewertete Likes konnten recht hohe Trefferquoten erzielt werden, die eine Unterscheidung in männliche und weibliche User sowie in Christen und Muslime – ebenso wie etwa die Zugehörigkeit zu den Demokraten oder Republikanern – ermöglichen, und dies mit Trefferraten von über 80 %[3]. Dieses Wissen wird nunmehr vermehrt auch zur hochpräzisen Zielgruppenansprache von Konsumenten sowie Wahlbürgern eingesetzt. Psychometrische Daten können gemeinsam mit Daten von Informationshändlern wie Acxiom[4] sowie mit Informationen aus Telefonbüchern oder – ganz einfach – direkt von Facebook bezogen werden, um eine möglichst individualisierte Ansprache der Bürger zu ermöglichen: „Jedem Wähler seine individuelle Botschaft.“ KI braucht man in diesem Falle, um die riesigen Datenmengen (aus eigenen Adressbeständen, zugekauften Informationen, selbst erhobenen Daten, psychometrischen Daten etc.) überhaupt handhabbar zu machen und – vor allem – um gemeinsame Muster in diesen Daten zu ermitteln.

Eine Firma, die sich damit brüstete, die Wahl von Donald Trump zum US-amerikanischen Präsidenten massiv beeinflusst zu haben, ist Cambridge Analytica[5] – ein mittlerweile pleitegegangenes Beratungsunternehmen, in dessen Vorstand Steve Bannon saß (damals Herausgeber des ultrarechten Online-Portals „Breitbart News“). Früher nur für Experten ein Begriff, ist Cambridge Analytica wegen des Datenskandals um Facebook‑Nutzerdaten recht bekannt geworden. Insgesamt waren etwa 87 Mio. Nutzer vom Facebook‑Datenskandal betroffen, 310.000 davon aus Deutschland[6]. Und wie sich später herausstellte, könnten insgesamt noch deutlich mehr als 87 Mio. Nutzer betroffen gewesen sein[7]. Wegen des exemplarischen Charakters des Vorgangs folgt kurz der Ablauf des Skandals: Am 03.12.16 berichtete die schweizerische Zeitschrift „Das Magazin“ über die Arbeit von Kosinski und rückte diesen in die Nähe potentieller Wahlmanipulation im Kontext der Trump‑Wahl. Dieser verteidigte sich in dem betreffenden Interview damit, dass er die „Bombe“ nur entdeckt, nicht aber gezündet habe. Psychometrie ja, Wahlmanipulation nein![8] Nun war Kosinski interessanterweise seinerzeit von dem heutigen Cambridge‑Analytica‑Whistleblower Christopher Wylie wegen einer Zusammenarbeit angesprochen worden, was dieser jedoch ablehnte. Wylie ging daraufhin zu Alexander Kogan, einem Kollegen von Kosinski, der auch unter dem Namen „Spectre“ publizierte und in die Zusammenarbeit einwilligte. Kogan kupferte in der Folge kurzerhand Kosinskis Psychometrie‑Modell und gleich auch noch dessen dazugehörige Sammel-App „mypersonality“ ab und ließ sich anschließend bei Facebook als App‑Entwickler zu wissenschaftlichen Zwecken akkreditieren.

Über eine hierfür vorgesehene Entwicklerschnittstelle platzierte Kogan seine Version der Datensammel‑App unter dem Namen „this is your digital life“ und konnte auf diesem Wege 270.000 freiwillige User als Mitwirkende seines Persönlichkeitstests gewinnen. Über diese 270.000 Teilnehmer seines Tests konnten – dank der Facebook‑Datenstruktur – insgesamt 87 Mio. Profile ausgelesen werden, die als „Freunde der Freunde“ im FB‑Universum verdatet waren, darunter 300.000 deutsche User.

All dies geschah im Auftrag von Cambridge Analytica, die dafür 800.000 $ an die Datensammler bezahlten. Cambridge Analytica, ein Tochterunternehmen der SCL‑Group, war eigens zum Zweck der Wahlkampfunterstützung des ultrarechten Milliardärs Mercer und dessen Tochter Rebekah gegründet und mit 15 Mio. $ ausgestattet worden; Geschäftsführer war der mittlerweile abgesetzte Alexander Nix.

Über die beschriebenen Datensammlungen wurden ab 2015 entsprechende Kampagnen von Cambridge Analytica umgesetzt – wie etwa Wahlkampfunterstützungen für Ted Cruz, den rechten Republikaner aus Texas, der einen ordentlichen Vorwahlerfolg in kurzer Zeit erzielen konnte und als einer der letzten Konkurrenten zu Trump im Rennen verblieb[9]. Nachdem 2015 durch den Guardian die Aktivitäten von Cambridge Analytica (etwa die genannte Wahlkampfunterstützung für Ted Cruz) offiziell bekannt wurden, griff Facebook im Dezember 2015 ein, entzog Kogan und Co. sämtliche Zugangsrechte und verordnete die komplette Löschung aller erhobenen Daten. (Daten, die allerdings bis heute nicht gelöscht wurden und die kürzlich vom Observer und der New York Times eingesehen werden konnten.)

Facebook – bekannt für seinen sorglosen Umgang mit dem Thema Datenschutz – hatte die Löschung nicht überprüft und keinerlei Anstrengungen zum Schutz der Userdaten unternommen. Und so nahm im März 2018 das Finale des Datenskandals seinen Lauf: Enthüllungen des britischen TV-Senders Channel 4, auch mit versteckter Kamera dokumentiert, belegen aberwitzige Prahlereien des Cambridge‑Analytica‑CEO Nix zum versuchten Wahlbetrug mit allen Mitteln[10]. Aus verständlichen Gründen musste Alexander Nix umgehend abgesetzt werden; es gab spektakuläre Hausdurchsuchungen und schließlich den lautlosen Konkurs der Firma. Rebekah Mercer und Technologiechef Alexander Tayler sowie weiteres Personal wurden bei einer entsprechenden Nachfolge‑Firma – mit Sitz an der ehemaligen Adresse des bisherigen New Yorker Büros von Cambridge Analytica – untergebracht.

Dass es sich bei der Arbeit von Cambridge Analytica um völlig undiskutable Geschäftspraktiken gehandelt hat, dürfte mittlerweile jedem klar geworden sein; offen bleibt jedoch die Frage, welche Rolle eigentlich Facebook bei der Sache spielte. Wurden tatsächlich Userdaten gehackt – handelt es sich also um den vielbeschworenen Datenmissbrauch? Wie es scheint, fand fast alles im Rahmen der Facebook‑Richtlinien statt, die die Zusammenarbeit mit App‑Entwicklern, Wissenschaftlern und sonstigen Partnern regeln. Es handelt sich also nicht um das vielbeschworene Datenleck – also um einen beklagenswerten Missbrauch der Daten –, sondern um den Einsatz eines Facebook‑Features, das zumindest bis 2015 auch das Absaugen von Informationen über Freunde von Facebook‑Nutzern ermöglichte. Abgesehen vom Verkauf der durch Kogan erhobenen Daten an Cambridge Analytica und deren Weigerung, diese schlussendlich zu löschen, fand alles auf völlig legalem Wege statt.

Das Ausspionieren von Nutzerdaten, das Erstellen von Nutzerprofilen und die Kategorisierung der Menschen in vermarktbare Zielgruppen – all das ist das erfolgreiche Geschäftsmodell von Facebook, mit dem täglich unglaubliche Gewinne erwirtschaftet werden.

Natürlich gibt es geeignete Schnittstellen für Drittanbieter, die sich entsprechende Informationen bedienen und dafür einen Anteil ihrer Erträge wieder an Facebook abgeben – beispielsweise in einem Jahr, in dem Facebook bei einem Umsatz von 40,65 Mrd. $ und einem Gewinn von 16 Mrd. $ lag.

Eigentlich sollte es jedem klar sein: Die scheinbare Gratis‑Dienstleistung von Facebook wird mit den Daten der User bezahlt – das ist die Währung, mit der wir das größte soziale Netzwerk täglich „bezahlen“. Natürlich – und da hatte Zuckerberg in seiner Senatsvorsprache recht – werden Nutzerdaten nicht einfach an andere Werbetreibende verkauft, sondern der Zugang zu entsprechenden Nutzerprofilen wird vermietet. Wirtschaftlich gesehen war und ist die Datenweitergabe an App‑Entwickler sogar eine potenzielle Gefahr für das eigene Geschäftsmodell, mit dem ansonsten auch die ungewöhnlichsten Nutzergruppen erschlossen werden können[11].

So war es z. B. möglich, eine Zielgruppe „Judenhasser“ aufgrund von Nutzerangaben zu identifizieren und gezielt anzusprechen[12]. Sicherlich geschah dies in diesem Fall ohne Wissen und Billigung des Unternehmens Facebook, das dieses „Feature“ nach Bekanntwerden zwar abschaltete – jedoch, bedingt durch die selbstständig arbeitenden Algorithmen, den Vorgang offensichtlich nicht verhindern konnte. Auch hier spielen also die Algorithmen eine entscheidende Rolle, weil sie es ermöglichen, entsprechende Zielgruppen automatisch zu identifizieren und ohne weitere Kontrolle durch Facebook abrufbar zu machen. Genau darin liegt das Geschäftsmodell von Facebook: die Aufzeichnung, Bevorratung und Verwertung privater Nutzerdaten[13]. Ein Geschäftsmodell, das – im Übrigen auch nach der jüngsten Affäre – konsequent weiter ausgebaut wird. So wird in Zukunft nicht nur User‑Info über vorhandene Persönlichkeitsmerkmale für Werbezwecke verfügbar sein, sondern es wird ein kürzlich angekündigtes neues Werkzeug namens „FBLearner Flow“ geben, das eine hochentwickelte Künstliche Intelligenz bereitstellt, welche zukünftige Entscheidungen hochrechnet – inklusive Features wie „Loyalty‑Prediction“ und „Protective‑Surveillance“[14]. Außerdem ist die Empörung von Facebook bezüglich politischer Manipulationsbemühungen durch Cambridge Analytica höchst scheinheilig, da Facebook selbst auf seinen Success‑Story‑Seiten von Erfolgen bei politischen Kampagnen berichtete – etwa über die Erfolge des republikanischen Gouverneurs von Florida, Rick Scott, oder der Scottish National Party –, die im Zuge des Cambridge‑Skandals jedoch von der offiziellen Facebook‑Seite entfernt wurden[15]. Bleibt die Frage, ob es bei dem Cambridge‑Analytica‑Spektakel nur um Prahlerei ging oder ob tatsächlich etwas bewirkt werden konnte. Tatsächlich gibt es keine wirklichen Beweise, dass Cambridge Analytica wahlentscheidend agierte, dass aber Micro‑Targeting grundsätzlich funktioniert – was unumstritten ist und zuletzt unter anderem durch eine Studie (u. a. im Bereich Kosmetik) belegt wurde, die eine Steigerung von 50 % mehr Verkäufen bei gezieltem Einsatz von Micro‑Targeting nachwies[16]. Die Wirksamkeit von Micro‑Targeting in der Werbung lässt sich zudem beispielsweise durch eine Mini‑Kampagne belegen, die 2017 in Zusammenarbeit mit dem Wirtschaftspsychologen Prof. Joost van Treeck von der Fresenius‑Hochschule Hamburg gestaltet wurde – hier brachten auf die jeweiligen potentiellen Käufer abgestimmte Anzeigenprofile bis zu 200 % mehr Conversion Rates[17].

Dass nun über die Produktwerbung hinaus auch die gezielte Wähleransprache und damit die Beeinflussung von Wahlen und Abstimmungen möglich ist, erscheint sehr wahrscheinlich. Dies kann z. B. durch zielgenaues Schalten von Anzeigen („Ads“) bei Facebook und anderen Kanälen sowie durch perfekt vorbereitete, ständig rückgekoppelte Hausbesuche bei den Wählern vor Ort erfolgen. Beliebt ist dabei das Vorgehen, bestimmte Personengruppen mit gezielten Inhalten so anzusprechen, dass sie vom Urnengang abgehalten werden – mit dem Ziel, den Wahlausgang zu beeinflussen.

Bedenklich ist vor allem, dass User durch ihre Mitwirkung an Sozialen Netzen – oft ohne es zu merken – persönliche Informationen preisgeben, die dann zur Beeinflussung ihrer Kauf- und Wahlentscheidungen herangezogen werden können[18]. Sicherlich entscheidet nicht allein Micro‑Targeting über den Ausgang von Wahlen, aber es ist ein wichtiges Werkzeug unter vielen, das an Bedeutung weiter zunehmen wird.

Wenig überraschend häufen sich die Meldungen über Facebook‑Datenmissbrauch – Facebook selbst gab an, ca. 200 Apps mit ähnlichen Funktionen suspendiert zu haben[19]. Außerdem verweist Facebook in seiner Antwort an das US‑Repräsentantenhaus darauf, dass es in den vergangenen Jahren Daten seiner Nutzer mit 52 Unternehmen geteilt hat[20]. So zieht die Facebook‑Datenaffäre immer weitere Kreise: Unlängst wurde das kanadische Unternehmen AggregateIQ von der Plattform ausgeschlossen – dieses hatte laut „Guardian“ im Brexit‑Wahlkampf mit der „Vote‑Leave“-Kampagne zusammengearbeitet und war vom britischen Außenminister Boris Johnson für 6,8 Mio. £ engagiert worden. Das Unternehmen prahlte noch vor Kurzem mit dem Zitat des Vote‑Leave‑Wahlkampfleiters Dominic Cummings: „Ohne Zweifel schuldet die Vote‑Leave‑Kampagne einen großen Teil ihres Erfolgs der Arbeit von AggregateIQ – ohne sie hätten wir es nicht schaffen können“[21]. Nach AggregateIQ wurde auch das kalifornische Datenanalyse-Unternehmen CubeYou von Facebook suspendiert – dieses nutzte Zensusdaten und diverse Apps auf Facebook und Twitter, um persönliche Informationen von Nutzern zu sammeln, die von mehr als 1.500 Werbefirmen verwertet wurden[22]. Welche Beziehungen diese beiden Firmen zu Cambridge Analytica unterhalten, bleibt offen. Allerdings gibt es noch viele weitere Unternehmen mit einem ähnlichen Dienstleistungsangebot wie Cambridge Analytica – etwa Civis Analytics, Clarity Campaign Labs, Blue Labs, Optimus, TargetPoint, Grassroots Consulting und i360[23] sowie große Datensammler wie Peter Thiels Firma Palantir, die nach Aussage des Whistleblowers Christopher Wylie sehr wohl direkt mit Cambridge Analytica zusammenarbeiteten[24].

Grundsätzlich betrachtet waren alle Facebook‑Datenskandale keine Hacks, sondern ein Weckruf in Bezug auf den mittlerweile als normal angesehenen Umgang mit persönlichen Nutzerdaten. Zur Diskussion steht ein übergriffiger Daten‑Kapitalismus, der den großen Informationsanbietern enorme Profite ermöglicht – und nach gesundem Menschenverstand sollte keine private Firma über die persönlichen Daten von 2 Mrd. Nutzern verfügen und diese verwerten können, selbst wenn die Nutzer dem zustimmen. Dies gilt auch, wenn Facebook Besserung gelobt:

„In der Vergangenheit sind wir unserer Verantwortung nicht immer gerecht geworden. Wir haben uns stark auf Innovationen und das Positive unserer Plattform fokussiert und dabei wichtigen Themen – wie der Sicherheit – nicht immer genügend Aufmerksamkeit geschenkt. Aber wir hören zu. Wir lernen. Und wir handeln.“[25]

Nett gemeint, aber es darf nicht allein vom guten Willen eines Unternehmens abhängen, was mit unseren Daten passiert. Für die Beeinflussung von Wahlen sind derzeit auch sogenannte Fake News das Mittel der Wahl – also das absichtliche Streuen von Falschmeldungen. Diese Meldungen werden so komponiert, dass sie die Mechanismen der Sozialen Netze optimal ausnutzen. Das bedeutet, dass zur maximalen viralen Verbreitung vor allem auf Reflexe wie Empörung, „gefühlte“ Wahrheit und auf Reizthemen wie Flüchtlinge, Missbrauch, Krieg und Gewalt gesetzt wird. Die Facebook‑Algorithmen befeuern – gerade aufgrund ihres hohen Aufmerksamkeits‑potenzials – diese Form von Meldungen. Deshalb werden auch die schrillsten Links zu angeblichen Nachrichtenseiten (etwa zur Ermordung des für eine E‑Mail‑Affäre verantwortlichen FBI‑Beamten, zur vermeintlichen Wahlunterstützung Trumps durch den Papst oder zur Behauptung, Hillary habe Waffen an den IS verkauft) massiv verbreitet und in den Sozialen Medien verstärkt angezeigt[26]. Vieles davon ist sicher nicht von Facebook so gewollt, wirkt aber dennoch enorm.

Neben dieser Desinformation durch gezielte Falschmeldungen stellen vor allem auch die sogenannten Social Bots ein Problem dar. Social Bots sind Software‑Roboter – Programme, die menschliches Verhalten simulieren – und interagieren in sozialen Netzwerken wie Facebook oder Twitter. Sie kommunizieren mit echten Nutzern, antworten auf Kommentare und verfassen eigene Beiträge. Dank realistisch wirkender Profile, ausgewogenem Tag‑und‑Nacht‑Verhalten und einer gezielten Hashtag-Nutzung fallen sie nicht als Bots auf.

Weltweit soll es mehr als 100 Mio. Fake‑Accounts geben – also Profile, hinter denen kein realer Mensch, sondern ein Bot steckt[27]. Diese nisten sich in Facebook-, Twitter-, Instagram- und Tumblr-Profilen ein und treiben ihr Unwesen. Eine Studie der Universität von Kalifornien zeigte, dass sich knapp 400.000 Bots in die Präsidentschaftswahl‑Debatte auf Twitter einmischten; es gingen etwa 3,8 Mio. Tweets ein, was rund 20 % der gesamten Twitter‑Kommunikation im Wahlkontext entspricht – davon entfielen 75 % der Tweets auf Trump und 25 % auf Clinton[28]. So stieg beispielsweise der Hashtag „#Trumpwon“ sehr rasch in die Twitter‑Trends – maßgeblich durch Bots, obwohl Presse und Meinungsforschung nach dem ersten TV‑Debüt eher für Clinton warben[29]. Und so entstehen plötzlich durch Algorithmen gesteuerte Trends, die ohne den Einsatz von Bots gar nicht zustande gekommen wären. Dies ist im Kontext von Wahlen besonders bedenklich, da Social Bots ein künstlich erzeugtes, falsches Meinungsbild verbreiten und Wähler beeinflussen können – etwa wenn der Eindruck entsteht, Trump habe alle TV‑Debatten gewonnen[30]. Social Bots sind somit eine Gefahr für die Demokratie, da sie ein verzerrtes Meinungsbild erzeugen und unsere Wahrnehmung des politischen Geschehens (wenn auch indirekt) beeinflussen. Zudem verdrängen sie – allein durch ihre schiere Masse – andere Meinungen in den Sozialen Medien. Fake News, die sich durch Social Bots millionenfach verbreiten, verstärken zudem die sogenannte Filter Bubble[31] bzw. Echo‑Kammer, in der man nur das sieht und hört, was einem ohnehin vertraut ist und was man gerne konsumiert. Dieser Umstand würde zu einer massiven Einschränkung der Wirklichkeitswahrnehmung führen – angefangen bei personalisierten Suchergebnissen bis hin zur individuellen Nachrichtenpräsentation bei Facebook und Twitter[32]. Eine neue Studie des „Reuters Institute for the Study of Journalism“ widerspricht dieser Einschätzung und behauptet sogar, dass Social‑Media‑Nutzer mehr unterschiedliche Nachrichtenquellen nutzen als Personen, die sich außerhalb sozialer Netzwerke bewegen – basierend auf einer vergleichsweise geringen Datenlage[33]. Unabhängig davon, inwieweit Filterblasen den persönlichen Horizont einschränken oder weitere Medien genutzt werden, steht fest: Nicht allein Facebook, Twitter, Google oder Cambridge Analytica haben Donald Trump zum Präsidenten gemacht[34]. Viele Ursachen spielen eine Rolle – etwa das Fernsehen, das für die Mehrheit der Amerikaner die primäre Quelle politischer Information darstellt[35] (ein Medium, das Trump optimal für sich nutzte). Laut einer Umfrage der Pew Foundation, einem liberalen Thinktank, war für 57 % der Amerikaner das Fernsehen die wichtigste Quelle politischer Nachrichten – gefolgt von digitalen Angeboten der Verlage, dem Radio, gedruckten Zeitungen und (mit 18 %) den Sozialen Medien, meist Facebook[36].

Allerdings deuten Untersuchungen von AlgorithmWatch darauf hin, dass sich digitale Suchergebnisse – etwa bei Google – in den USA tendenziell zugunsten der Demokraten verzerren[37]. Daraus folgt: Auch wenn nicht ausschließlich oder unmittelbar wahlentscheidende Eingriffe stattfinden, tragen Fake News, Social Bots etc. eindeutig zum Wahlergebnis bei[38]. In Deutschland gingen im Vorfeld der Bundestagswahl 2017 Befürchtungen auf, dass auch hier Bots, Fake News und weiteres digitales Manipulationspotenzial die Wahl beeinflussen könnten. Es folgten diverse Selbstverpflichtungen der Parteien – der Einsatz von KI im Wahlkampf wurde weitgehend unterbunden, abgesehen von der AfD, die mit Fake News und Social Bots kräftig mitmischte[39]. Ganz offensichtlich haben rechte Kreise mit emotional aufgeladenen Themen wie Kriminalität und Flüchtlingen sowie künstlich aufgeblähter Online‑Aktivität den politischen Diskurs in den Sozialen Medien massiv mitbestimmt – unterstützt durch ein langfristig aufgebautes Bot‑Netzwerk. Sogar der Empfehlungsalgorithmus von Facebook, der kurzfristig überproportional viele rechte Positionen anzeigte, musste angepasst werden[40]. Falsche Freunde und Falschmeldungen können zudem relativ preiswert eingekauft werden – so ermittelte der Bayerische Rundfunk, dass 100.000 Fake News für 269,00 € und 200.000 Fake News zu 489,90 € erworben werden können[41]. Andererseits deuten aktuelle Untersuchungen von AlgorithmWatch in Verbindung mit sechs Landesmedienanstalten darauf hin, dass es in Deutschland kaum politik‑spezifische Personalisierungen bei Google‑Suchanfragen gibt – bei Suchen nach Politikern liegen die Ergebnisse überwiegend sehr ähnlich, während nur in kleineren Clustern von stark individualisierten Listen wenige (2–3) Unterschiede zu verzeichnen sind[42]. Ein großes Problem ist jedoch die gezielte, nur für den Empfänger sichtbare Informationszuspielung in Form sogenannter „Dark‑Posts“, gegen die kein Widerspruch eingelegt werden kann. Dies führt zwangsläufig zu gesellschaftlicher Fragmentierung und weiter anwachsenden sozialen Verwerfungen.

Insgesamt – trotz großer Anstrengungen am rechten Rand – scheint der faktische Einfluss digitaler Manipulation bei der Bundestagswahl 2017 überschaubar gewesen zu sein. Das Hauptproblem zukünftiger Wahlen und Abstimmungen liegt jedoch nicht nur in der direkten Manipulation durch Algorithmen, sondern auch in wachsenden Zweifeln an der Legitimität demokratischer Prozesse, was zu Verunsicherung und Angst führt – und somit dem rechten Spektrum in die Hände spielt.

In Anbetracht potentieller und realer Manipulation in Wirtschaft und Politik durch Künstliche Intelligenz muss diese Technologie kritisch hinterfragt werden – vor allem angesichts ihrer immer weiterreichenden Anwendungen im zivilen sowie militärischen Bereich. Die Chancen und Risiken dieser Technologien müssen gesamtgesellschaftlich abgewogen werden – und zwar nicht allein von den wirtschaftlich profitierenden Unternehmen. Es bedarf eines öffentlichen Diskurses sowie rascher, tragfähiger Schutzmechanismen, wo Gefahren drohen.

Namhafte Wissenschaftler wie Nick Bostrom[43], bekannte Unternehmer wie Elon Musk[44] und Bill Gates[45] mahnen eindringlich vor einer Entwicklung, die sich zu einem unkontrollierbaren Selbstläufer entwickeln könnte. Vor allem der verstorbene Stephen Hawking zählte zu den warnenden Stimmen[46]. In den letzten Jahren haben sich zahlreiche Experten mit Vorschlägen zur Abwehr dieser Risiken gemeldet.

Dies nicht zuletzt durch:

– Herstellung von Algorithmen‑Transparenz, wie von Angela Merkel angemahnt.

– Regelmäßige Überprüfung wichtiger Algorithmen durch einen „Algorithmen‑TÜV“[47] und/oder die Einrichtung einer neu zu gründenden Aufsichtsbehörde, wie von Yvonne Hofstetter gefordert („Wir brauchen eine Treuhandstelle, eine Aufsicht für Algorithmen.“)[48]

– Definition von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen sowie deren Durchsetzung durch Inspektionen über ein geeignetes Beobachtungsinstitut[49]

– Berufung von Algorithmen‑Beauftragten analog zu Datenschutz‑Beauftragten

– Staatliche Aufsicht, Regulation und Kontrolle, wie von Bill Gates und Elon Musk gefordert

– Kontrolle von Algorithmen im Einsatz bei Google, Facebook, Twitter etc. – speziell im Vorfeld von Wahlen und Abstimmungen[50], ergänzt durch den Vorschlag von Gerald Häfner[51], die Algorithmen so einzurichten, dass bei jedem zustimmenden Votum eines Users auch eine anderslautende Meinung angezeigt wird, um so der Echokammer entgegenzuwirken.

Bei aller Berechtigung dieser Vorschläge darf nicht davon ausgegangen werden, dass nationale oder europäische Behörden und Parlamente KI-Technologie wirkungsvoll kontrollieren können – ohne dabei die Rechte der Hersteller anzutasten. Vielmehr erscheint es erforderlich, die Verwertungsbedingungen der neuen KI-Technologien grundsätzlich neu zu definieren und gesellschaftlich vertretbare, zukunftsfähige Alternativen zu schaffen.

Ohne jeden Zweifel kann der Maßstab für den richtigen Umgang mit KI nur der Nutzen für alle Menschen – also das Gemeinwohl – sein. Daher sollte überlegt werden, alle wichtigen KI‑Forschungsergebnisse in „Kulturelles Gemeingut“ zu überführen. Kulturelles Gemeingut umfasst menschliches Wissen, Kulturtechniken, Kulturleistungen, Sprache, Software‑Quellcodes, elektromagnetische Wellen und Frequenzbereiche oder beispielsweise auch das Internet – und damit auch die Algorithmen, die Künstliche Intelligenz steuern.

Dies sollte schon aus den Entstehungsbedingungen solcher Commons selbstverständlich sein, denn die Entwicklung kultureller Gemeingüter beruht selten allein auf der Leistung einzelner Urheber, sondern auf einem über Jahrhunderte gewachsenen Schatz gemeinschaftlichen Wissens – unterstützt durch öffentliche Finanzierung, die eine rein privatwirtschaftliche Verwertung ohne gesellschaftliche Mitsprache ausschließt. Deshalb wären alle KI‑Forschungsergebnisse als Gemeingut anzusehen und in autonome Organisationen zur treuhänderischen Verwaltung zu überführen – damit Künstliche Intelligenz als Gemeinwohl‑KI in den Dienst der Vielen gestellt und nicht den Profitinteressen einiger Weniger überlassen wird.

Gedacht wird beispielsweise eine kombinierte Schutz‑ und Verwaltungslösung für KI‑Technologien, die zum einen aus einer globalen Treuhandgesellschaft im Besitz aller Menschen besteht und – etwa gemäß dem „American Permanent Fund“-Konzept von Peter Barnes, dem „Alaska Permanent Fund“ oder dem „Pacific Forest Trust“ – die Rechte an systemkritischen Algorithmen verwaltet und die daraus erzielten Erträge gerecht an alle Länder (vorzugsweise auch an ärmere) ausschüttet[52][53][54]. Diese Schutzfunktion könnte darüber hinaus in einer UN‑nahe, aber autonomen Organisation realisiert werden, wie es etwa die Internationale Atomenergie‑Organisation (IAEO) für den friedlichen Umgang mit Kernmaterial tut[55].

Mit einer solchen Doppelregelung – bei der Eigentums- und Verwertungsfunktionen strikt von der Kontrollfunktion getrennt werden – ließe sich dem unkontrollierten Privatbesitz und einem immer weniger überblickbaren Wirken von KI möglicherweise Einhalt gebieten. Zugleich müssen die ethischen Grundlagen für den Einsatz von Algorithmen gesellschaftlich diskutiert und gesetzlich verankert werden – damit die Zivilgesellschaft selbst bestimmen kann, welche KI‑Anwendungen gewünscht sind und welche besonderen Schutzmaßnahmen verdienen.

Dabei geht es insbesondere um Anwendungen, deren Wirkungen wir nicht mehr vollständig verstehen, deren Effekte schwer abzuschätzen sind und die sich kaum noch vollständig kontrollieren lassen. Beispiele hierfür sind:

– Finanz‑Algorithmen zum Kauf und Verkauf von Wertpapieren, deren „unerklärliche“ Micro‑Flashs an den Börsen zeigen, dass sie nicht vollständig von den Eigentümern kontrolliert werden können.

– Autonome Drohnen, Panzer, U‑Boote und Roboter, die über die Tötung von Menschenleben entscheiden können – auch wenn dies regulatorisch bislang nicht vorgesehen ist, technisch jedoch längst umgesetzt wurde.

– Autonome Automobile, die u. U. tödliche Fahrentscheidungen treffen und deren ethische Priorisierung politisch statt wirtschaftlich geregelt werden muss.

– Kommunikationsroboter, die mit Menschen interagieren, ohne als solche erkannt zu werden, und die Wahlen beeinflussen können.

– Steuerungssysteme für Serverfarmen oder Energieressourcen, die ohne menschliche Kontrolle und Einblick autonom arbeiten und sich möglicherweise unbemerkt verselbstständigen.

– Intelligente Manipulationssoftware in Wirtschaft und Politik, die unbemerkt Einfluss auf menschliches Verhalten ausübt – etwa durch Gesichts-, Ausdrucks- und Stimmungserkennung, Psychometrie oder Filter Bubbles.

– Künstliche Intelligenz, die sich selbst programmiert – wie bei Google erprobt – und damit den Übergang zur „Singularity“ herbeiführen könnte[56][57].

Zumindest diese Typologie von Anwendungen sollte unverzüglich unter gesellschaftliche Kontrolle gestellt und strengen Regulierungen unterworfen werden. Für alle nicht unmittelbar systemkritischen sowie für die Zivilgesellschaft direkt weniger gefährlichen Anwendungen gilt es, konsequent auf Gemeinwohlorientierung zu achten.

Wem solche Überlegungen sozialromantisch erscheinen, sei darauf hingewiesen, dass selbst einige der großen Hightech‑Tycoons in den USA in eine ähnliche Richtung denken. So existiert beispielsweise das „Allen Institute for Artificial Intelligence“ in Seattle – finanziert mit über einer Milliarde Dollar – bei dem sämtliche Forschungsergebnisse kostenlos veröffentlicht werden[58]. Beispielhaft ist auch die OpenAI‑Initiative von Elon Musk, die als Non‑Profit‑Organisation gegründet wurde und ebenfalls mit rund einer Milliarde Dollar ausgestattet ist[59]. OpenAI befasst sich mit der Erforschung von Künstlicher Intelligenz und deren potenzieller Bedrohung für die Menschheit. Ziel von OpenAI ist es, KI auf Open‑Source‑Basis zu entwickeln und zu vermarkten, sodass sie der Gesellschaft Vorteile bringt statt zu schaden. Auch diese Organisation macht ihre Patente und Forschungsergebnisse öffentlich zugänglich und sieht darin einen gewissen Schutz vor den Gefahren der KI – durch Gemeinwohlorientierung und Transparenz.

Obwohl häufig behauptet wird, dass ohne Eigennutz kein wirtschaftlicher Fortschritt möglich sei, zeigt sich, dass Gemeinwohlorientierung und gemeinschaftlicher Besitz immer mehr an Bedeutung gewinnen – etwa im Kontext der Commons‑Bewegung, vertreten durch den US‑Soziologen Peter Barnes[60], die Heinrich‑Böll‑Stiftung[61], Silke Helfrich[62] sowie weitere Initiativen (z. B. unter https://commons.blog/about/, letzter Zugriff: 17. Oktober 2017) und – natürlich – auch Professorin Elinor Ostrom, Trägerin des Alfred‑Nobel‑Gedächtnispreises für Wirtschaftswissenschaften[63]. Die 2012 verstorbene Elinor Ostrom zählte zu den führenden Autoritäten auf dem Gebiet der Commons und beschrieb detailliert die wesentlichen Voraussetzungen für das erfolgreiche Management gemeinschaftlicher Güter. Sie widerlegte die These des uneingeschränkten Egoismus (bekannt als „Tragödie der Allmende“[64]) und zeigte, dass es einen „dritten Weg“ zwischen privatem und staatlichem Eigentum gibt.

Herausgeber: Stiftung Media, Stuttgart – www.stiftung-media.de

Copyright © 2017–18 by Michael W. Bader, Göppingen

Fußnoten

[1] Yann LeCun, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.

[2] Focus, „Börsencrash in Millisekunden: So reißen Roboter die Aktienkurse in den Abgrund.“ Focus online (09.02.2016).

http://www.focus.de/finanzen/boerse/roboter-als-haendler-wenn-millisekunden-entscheiden-was-loest-einen-boersencrash-aus_id_5205415.html (letzter Zugriff: 18. Oktober 2017).

[3] Die Studie belegt, dass durch Analyse der Facebook‑Likes auf die ethnische Zugehörigkeit, politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung oder Nikotin-, Alkohol- und Drogenkonsum von Personen geschlossen werden kann; siehe Michal Kosinski, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013).

http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).

[4] http://www.acxiom.com (letzter Zugriff: 18. Oktober 2017).

[5] Julian Wheatland, „Personalised marketing in the age of big data: How big data and psychographics are changing the persuasion game“ – Keynote, 16. Zukunftskongress von 2b AHEAD Think Tank, Schloss Wolfsburg, 2017.

https://kongress.zukunft.business/fileadmin/content/videos/2017/Zukunftskongress_2017/170620_Keynote_Wheatland_Julian.mp4?utm_source=Newsletter_DE_170906&utm_medium=Link (letzter Zugriff: 17. Oktober 2017).

[6] Redaktion SZ, „Etwa 87 Millionen Nutzer von Facebook-Datenskandal betroffen: Cambridge Analytica.“ Süddeutsche Zeitung SZ.de (04.04.2018).

https://www.sueddeutsche.de/digital/cambridge-analytica-etwa-millionen-nutzer-von-facebook-datenskandal-betroffen-1.3932186 (letzter Zugriff: 8. April 2018).

[7] Redaktion FAZ, „Frühere Managerin: Es geht um viel mehr als 87 Millionen Nutzer: Cambridge Analytica.“ Frankfurter Allgemeine faz.net (17.04.2018).

http://www.faz.net/aktuell/wirtschaft/facebook-datenskandal-doch-mehr-als-87-millionen-betroffen-15546851.html (letzter Zugriff: 19. April 2018).

[8] Hannes Grassegger und Mikael Krogerus, „Ich habe nur gezeigt, dass es die Bombe gibt.“ Das Magazin, Nr. 48 (2016).

https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ (letzter Zugriff: 18. Oktober 2017).

[9] Carole Cadwalladr und Emma Graham-Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[10] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[11] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/news/facebook-skandal-sortiert-1012101/ (letzter Zugriff: 31. Juli 2018).

[12] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018)

[13] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[14] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[15] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[16] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[17] Mit Singularity (Technische Singularität) wird der Zeitpunkt bezeichnet, an dem sich selbstoptimierende Roboter bzw. Algorithmen die menschlichen Fähigkeiten überflügeln. Einige Forscher gehen davon aus, dass KI ab diesem Zeitpunkt von Menschen nicht mehr kontrolliert werden kann und die Welt selbstständig weiterentwickelt. Andere wiederum erwarten, dass dieser Punkt erst in ferner Zukunft oder gar nie erreicht wird.

[18] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

https://motherboard.vice.com/de/article/ae7wwa/google-forscher-erschaffen-ki-die-selbststndig-ki-programmieren-kann (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017). http://t3n.de/news/ki-ai-software-787665/ (letzter Zugriff: 19. Oktober 2017). Siehe ferner Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603387 (letzter Zugriff: 19. Oktober 2017).

[19] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[20] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[21] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[22] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[23] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[24] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[25] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[26] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[27] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[28] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, hat der Autor beschrieben in Michael W. Bader, Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[29] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[30] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[31] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[32] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[33] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[34] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[35] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[36] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[37] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[38] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[39] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[40] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[41] Mit Singularity (Technische Singularität) … (siehe [17]).

[42] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

Siehe auch: Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017); Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

[43] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[44] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[45] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[46] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[47] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[48] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch: Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[49] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[50] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[51] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[52] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, beschrieb Michael W. Bader in Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[53] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In: Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[54] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[55] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[56] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[57] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[58] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[59] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[60] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[61] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[62] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[63] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[64] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[65] Siehe [17] (Singularity‑Definition, vgl. technische Erläuterung).

Publikationen

Herrschaft der Algorithmen Michael Bader

Portrait Michael Bader

Wie „Künstliche Intelligenz“ unsere Freiheit bedroht.

Moderne Künstliche Intelligenz basiert u. a. auf den Forschungen von Geoffrey Hinton und sogenannten „Neuronalen Netzen“[1], die Gehirnstrukturen abbilden und sich durch zwei Merkmale auszeichnen, nämlich Mustererkennung und Prognoseerstellung. Mustererkennung und Prognoseerstellung sind ideale Bausteine für den Einsatz Künstlicher Intelligenz in der Wirtschaft. Von der Gesichts- und Stimmungserkennung bis zur mobilen Werbeschaltung aufgrund punktgenauer GPS-Positionsdaten im Drogeriemarkt, genau bei dem richtigen Regal mit der betreffenden Ware, von der Ermittlung des richtigen Moments für Werbeeinblendungen bei Online-Spielern, bis zur Spielertypen-Erkennung bei Offline-Gamblern im Spielcasino – immer geht es um dieselbe Problematik: Zum Preis einer immer weiter perfektionierten Totalüberwachung mit anschließender KI-Bearbeitung können gewaltige Geschäfte gemacht werden. KI‑Instanzen haben größten Einfluss auf das internationale Finanzmarktgeschehen; aktuelle Schätzungen gehen davon aus, dass circa 70 % aller Finanztransaktionen in den USA von Algorithmen gesteuert werden[2]. KI‑Instanzen entscheiden über Personaleinstellungen, Bankkredite und den Abschluss von Versicherungspolicen sowie vieles andere mehr.

Ein ausgewiesener Experte auf diesem Gebiet ist Michal Kosinski. Er lehrt in Cambridge und erbrachte bereits 2012 den Beweis, dass über statistische Analyseverfahren anhand der Likes von seinerzeit 58.000 Probanden sensible Daten mit Details aus deren Leben ermittelt werden konnten. Über durchschnittlich 68 ausgewertete Likes konnten recht hohe Trefferquoten erzielt werden, die eine Unterscheidung in männliche und weibliche User sowie in Christen und Muslime – ebenso wie etwa die Zugehörigkeit zu den Demokraten oder Republikanern – ermöglichen, und dies mit Trefferraten von über 80 %[3]. Dieses Wissen wird nunmehr vermehrt auch zur hochpräzisen Zielgruppenansprache von Konsumenten sowie Wahlbürgern eingesetzt. Psychometrische Daten können gemeinsam mit Daten von Informationshändlern wie Acxiom[4] sowie mit Informationen aus Telefonbüchern oder – ganz einfach – direkt von Facebook bezogen werden, um eine möglichst individualisierte Ansprache der Bürger zu ermöglichen: „Jedem Wähler seine individuelle Botschaft.“ KI braucht man in diesem Falle, um die riesigen Datenmengen (aus eigenen Adressbeständen, zugekauften Informationen, selbst erhobenen Daten, psychometrischen Daten etc.) überhaupt handhabbar zu machen und – vor allem – um gemeinsame Muster in diesen Daten zu ermitteln.

Eine Firma, die sich damit brüstete, die Wahl von Donald Trump zum US-amerikanischen Präsidenten massiv beeinflusst zu haben, ist Cambridge Analytica[5] – ein mittlerweile pleitegegangenes Beratungsunternehmen, in dessen Vorstand Steve Bannon saß (damals Herausgeber des ultrarechten Online-Portals „Breitbart News“). Früher nur für Experten ein Begriff, ist Cambridge Analytica wegen des Datenskandals um Facebook‑Nutzerdaten recht bekannt geworden. Insgesamt waren etwa 87 Mio. Nutzer vom Facebook‑Datenskandal betroffen, 310.000 davon aus Deutschland[6]. Und wie sich später herausstellte, könnten insgesamt noch deutlich mehr als 87 Mio. Nutzer betroffen gewesen sein[7]. Wegen des exemplarischen Charakters des Vorgangs folgt kurz der Ablauf des Skandals: Am 03.12.16 berichtete die schweizerische Zeitschrift „Das Magazin“ über die Arbeit von Kosinski und rückte diesen in die Nähe potentieller Wahlmanipulation im Kontext der Trump‑Wahl. Dieser verteidigte sich in dem betreffenden Interview damit, dass er die „Bombe“ nur entdeckt, nicht aber gezündet habe. Psychometrie ja, Wahlmanipulation nein![8] Nun war Kosinski interessanterweise seinerzeit von dem heutigen Cambridge‑Analytica‑Whistleblower Christopher Wylie wegen einer Zusammenarbeit angesprochen worden, was dieser jedoch ablehnte. Wylie ging daraufhin zu Alexander Kogan, einem Kollegen von Kosinski, der auch unter dem Namen „Spectre“ publizierte und in die Zusammenarbeit einwilligte. Kogan kupferte in der Folge kurzerhand Kosinskis Psychometrie‑Modell und gleich auch noch dessen dazugehörige Sammel-App „mypersonality“ ab und ließ sich anschließend bei Facebook als App‑Entwickler zu wissenschaftlichen Zwecken akkreditieren.

Über eine hierfür vorgesehene Entwicklerschnittstelle platzierte Kogan seine Version der Datensammel‑App unter dem Namen „this is your digital life“ und konnte auf diesem Wege 270.000 freiwillige User als Mitwirkende seines Persönlichkeitstests gewinnen. Über diese 270.000 Teilnehmer seines Tests konnten – dank der Facebook‑Datenstruktur – insgesamt 87 Mio. Profile ausgelesen werden, die als „Freunde der Freunde“ im FB‑Universum verdatet waren, darunter 300.000 deutsche User.

All dies geschah im Auftrag von Cambridge Analytica, die dafür 800.000 $ an die Datensammler bezahlten. Cambridge Analytica, ein Tochterunternehmen der SCL‑Group, war eigens zum Zweck der Wahlkampfunterstützung des ultrarechten Milliardärs Mercer und dessen Tochter Rebekah gegründet und mit 15 Mio. $ ausgestattet worden; Geschäftsführer war der mittlerweile abgesetzte Alexander Nix.

Über die beschriebenen Datensammlungen wurden ab 2015 entsprechende Kampagnen von Cambridge Analytica umgesetzt – wie etwa Wahlkampfunterstützungen für Ted Cruz, den rechten Republikaner aus Texas, der einen ordentlichen Vorwahlerfolg in kurzer Zeit erzielen konnte und als einer der letzten Konkurrenten zu Trump im Rennen verblieb[9]. Nachdem 2015 durch den Guardian die Aktivitäten von Cambridge Analytica (etwa die genannte Wahlkampfunterstützung für Ted Cruz) offiziell bekannt wurden, griff Facebook im Dezember 2015 ein, entzog Kogan und Co. sämtliche Zugangsrechte und verordnete die komplette Löschung aller erhobenen Daten. (Daten, die allerdings bis heute nicht gelöscht wurden und die kürzlich vom Observer und der New York Times eingesehen werden konnten.)

Facebook – bekannt für seinen sorglosen Umgang mit dem Thema Datenschutz – hatte die Löschung nicht überprüft und keinerlei Anstrengungen zum Schutz der Userdaten unternommen. Und so nahm im März 2018 das Finale des Datenskandals seinen Lauf: Enthüllungen des britischen TV-Senders Channel 4, auch mit versteckter Kamera dokumentiert, belegen aberwitzige Prahlereien des Cambridge‑Analytica‑CEO Nix zum versuchten Wahlbetrug mit allen Mitteln[10]. Aus verständlichen Gründen musste Alexander Nix umgehend abgesetzt werden; es gab spektakuläre Hausdurchsuchungen und schließlich den lautlosen Konkurs der Firma. Rebekah Mercer und Technologiechef Alexander Tayler sowie weiteres Personal wurden bei einer entsprechenden Nachfolge‑Firma – mit Sitz an der ehemaligen Adresse des bisherigen New Yorker Büros von Cambridge Analytica – untergebracht.

Dass es sich bei der Arbeit von Cambridge Analytica um völlig undiskutable Geschäftspraktiken gehandelt hat, dürfte mittlerweile jedem klar geworden sein; offen bleibt jedoch die Frage, welche Rolle eigentlich Facebook bei der Sache spielte. Wurden tatsächlich Userdaten gehackt – handelt es sich also um den vielbeschworenen Datenmissbrauch? Wie es scheint, fand fast alles im Rahmen der Facebook‑Richtlinien statt, die die Zusammenarbeit mit App‑Entwicklern, Wissenschaftlern und sonstigen Partnern regeln. Es handelt sich also nicht um das vielbeschworene Datenleck – also um einen beklagenswerten Missbrauch der Daten –, sondern um den Einsatz eines Facebook‑Features, das zumindest bis 2015 auch das Absaugen von Informationen über Freunde von Facebook‑Nutzern ermöglichte. Abgesehen vom Verkauf der durch Kogan erhobenen Daten an Cambridge Analytica und deren Weigerung, diese schlussendlich zu löschen, fand alles auf völlig legalem Wege statt.

Das Ausspionieren von Nutzerdaten, das Erstellen von Nutzerprofilen und die Kategorisierung der Menschen in vermarktbare Zielgruppen – all das ist das erfolgreiche Geschäftsmodell von Facebook, mit dem täglich unglaubliche Gewinne erwirtschaftet werden.

Natürlich gibt es geeignete Schnittstellen für Drittanbieter, die sich entsprechende Informationen bedienen und dafür einen Anteil ihrer Erträge wieder an Facebook abgeben – beispielsweise in einem Jahr, in dem Facebook bei einem Umsatz von 40,65 Mrd. $ und einem Gewinn von 16 Mrd. $ lag.

Eigentlich sollte es jedem klar sein: Die scheinbare Gratis‑Dienstleistung von Facebook wird mit den Daten der User bezahlt – das ist die Währung, mit der wir das größte soziale Netzwerk täglich „bezahlen“. Natürlich – und da hatte Zuckerberg in seiner Senatsvorsprache recht – werden Nutzerdaten nicht einfach an andere Werbetreibende verkauft, sondern der Zugang zu entsprechenden Nutzerprofilen wird vermietet. Wirtschaftlich gesehen war und ist die Datenweitergabe an App‑Entwickler sogar eine potenzielle Gefahr für das eigene Geschäftsmodell, mit dem ansonsten auch die ungewöhnlichsten Nutzergruppen erschlossen werden können[11].

So war es z. B. möglich, eine Zielgruppe „Judenhasser“ aufgrund von Nutzerangaben zu identifizieren und gezielt anzusprechen[12]. Sicherlich geschah dies in diesem Fall ohne Wissen und Billigung des Unternehmens Facebook, das dieses „Feature“ nach Bekanntwerden zwar abschaltete – jedoch, bedingt durch die selbstständig arbeitenden Algorithmen, den Vorgang offensichtlich nicht verhindern konnte. Auch hier spielen also die Algorithmen eine entscheidende Rolle, weil sie es ermöglichen, entsprechende Zielgruppen automatisch zu identifizieren und ohne weitere Kontrolle durch Facebook abrufbar zu machen. Genau darin liegt das Geschäftsmodell von Facebook: die Aufzeichnung, Bevorratung und Verwertung privater Nutzerdaten[13]. Ein Geschäftsmodell, das – im Übrigen auch nach der jüngsten Affäre – konsequent weiter ausgebaut wird. So wird in Zukunft nicht nur User‑Info über vorhandene Persönlichkeitsmerkmale für Werbezwecke verfügbar sein, sondern es wird ein kürzlich angekündigtes neues Werkzeug namens „FBLearner Flow“ geben, das eine hochentwickelte Künstliche Intelligenz bereitstellt, welche zukünftige Entscheidungen hochrechnet – inklusive Features wie „Loyalty‑Prediction“ und „Protective‑Surveillance“[14]. Außerdem ist die Empörung von Facebook bezüglich politischer Manipulationsbemühungen durch Cambridge Analytica höchst scheinheilig, da Facebook selbst auf seinen Success‑Story‑Seiten von Erfolgen bei politischen Kampagnen berichtete – etwa über die Erfolge des republikanischen Gouverneurs von Florida, Rick Scott, oder der Scottish National Party –, die im Zuge des Cambridge‑Skandals jedoch von der offiziellen Facebook‑Seite entfernt wurden[15]. Bleibt die Frage, ob es bei dem Cambridge‑Analytica‑Spektakel nur um Prahlerei ging oder ob tatsächlich etwas bewirkt werden konnte. Tatsächlich gibt es keine wirklichen Beweise, dass Cambridge Analytica wahlentscheidend agierte, dass aber Micro‑Targeting grundsätzlich funktioniert – was unumstritten ist und zuletzt unter anderem durch eine Studie (u. a. im Bereich Kosmetik) belegt wurde, die eine Steigerung von 50 % mehr Verkäufen bei gezieltem Einsatz von Micro‑Targeting nachwies[16]. Die Wirksamkeit von Micro‑Targeting in der Werbung lässt sich zudem beispielsweise durch eine Mini‑Kampagne belegen, die 2017 in Zusammenarbeit mit dem Wirtschaftspsychologen Prof. Joost van Treeck von der Fresenius‑Hochschule Hamburg gestaltet wurde – hier brachten auf die jeweiligen potentiellen Käufer abgestimmte Anzeigenprofile bis zu 200 % mehr Conversion Rates[17].

Dass nun über die Produktwerbung hinaus auch die gezielte Wähleransprache und damit die Beeinflussung von Wahlen und Abstimmungen möglich ist, erscheint sehr wahrscheinlich. Dies kann z. B. durch zielgenaues Schalten von Anzeigen („Ads“) bei Facebook und anderen Kanälen sowie durch perfekt vorbereitete, ständig rückgekoppelte Hausbesuche bei den Wählern vor Ort erfolgen. Beliebt ist dabei das Vorgehen, bestimmte Personengruppen mit gezielten Inhalten so anzusprechen, dass sie vom Urnengang abgehalten werden – mit dem Ziel, den Wahlausgang zu beeinflussen.

Bedenklich ist vor allem, dass User durch ihre Mitwirkung an Sozialen Netzen – oft ohne es zu merken – persönliche Informationen preisgeben, die dann zur Beeinflussung ihrer Kauf- und Wahlentscheidungen herangezogen werden können[18]. Sicherlich entscheidet nicht allein Micro‑Targeting über den Ausgang von Wahlen, aber es ist ein wichtiges Werkzeug unter vielen, das an Bedeutung weiter zunehmen wird.

Wenig überraschend häufen sich die Meldungen über Facebook‑Datenmissbrauch – Facebook selbst gab an, ca. 200 Apps mit ähnlichen Funktionen suspendiert zu haben[19]. Außerdem verweist Facebook in seiner Antwort an das US‑Repräsentantenhaus darauf, dass es in den vergangenen Jahren Daten seiner Nutzer mit 52 Unternehmen geteilt hat[20]. So zieht die Facebook‑Datenaffäre immer weitere Kreise: Unlängst wurde das kanadische Unternehmen AggregateIQ von der Plattform ausgeschlossen – dieses hatte laut „Guardian“ im Brexit‑Wahlkampf mit der „Vote‑Leave“-Kampagne zusammengearbeitet und war vom britischen Außenminister Boris Johnson für 6,8 Mio. £ engagiert worden. Das Unternehmen prahlte noch vor Kurzem mit dem Zitat des Vote‑Leave‑Wahlkampfleiters Dominic Cummings: „Ohne Zweifel schuldet die Vote‑Leave‑Kampagne einen großen Teil ihres Erfolgs der Arbeit von AggregateIQ – ohne sie hätten wir es nicht schaffen können“[21]. Nach AggregateIQ wurde auch das kalifornische Datenanalyse-Unternehmen CubeYou von Facebook suspendiert – dieses nutzte Zensusdaten und diverse Apps auf Facebook und Twitter, um persönliche Informationen von Nutzern zu sammeln, die von mehr als 1.500 Werbefirmen verwertet wurden[22]. Welche Beziehungen diese beiden Firmen zu Cambridge Analytica unterhalten, bleibt offen. Allerdings gibt es noch viele weitere Unternehmen mit einem ähnlichen Dienstleistungsangebot wie Cambridge Analytica – etwa Civis Analytics, Clarity Campaign Labs, Blue Labs, Optimus, TargetPoint, Grassroots Consulting und i360[23] sowie große Datensammler wie Peter Thiels Firma Palantir, die nach Aussage des Whistleblowers Christopher Wylie sehr wohl direkt mit Cambridge Analytica zusammenarbeiteten[24].

Grundsätzlich betrachtet waren alle Facebook‑Datenskandale keine Hacks, sondern ein Weckruf in Bezug auf den mittlerweile als normal angesehenen Umgang mit persönlichen Nutzerdaten. Zur Diskussion steht ein übergriffiger Daten‑Kapitalismus, der den großen Informationsanbietern enorme Profite ermöglicht – und nach gesundem Menschenverstand sollte keine private Firma über die persönlichen Daten von 2 Mrd. Nutzern verfügen und diese verwerten können, selbst wenn die Nutzer dem zustimmen. Dies gilt auch, wenn Facebook Besserung gelobt:

„In der Vergangenheit sind wir unserer Verantwortung nicht immer gerecht geworden. Wir haben uns stark auf Innovationen und das Positive unserer Plattform fokussiert und dabei wichtigen Themen – wie der Sicherheit – nicht immer genügend Aufmerksamkeit geschenkt. Aber wir hören zu. Wir lernen. Und wir handeln.“[25]

Nett gemeint, aber es darf nicht allein vom guten Willen eines Unternehmens abhängen, was mit unseren Daten passiert. Für die Beeinflussung von Wahlen sind derzeit auch sogenannte Fake News das Mittel der Wahl – also das absichtliche Streuen von Falschmeldungen. Diese Meldungen werden so komponiert, dass sie die Mechanismen der Sozialen Netze optimal ausnutzen. Das bedeutet, dass zur maximalen viralen Verbreitung vor allem auf Reflexe wie Empörung, „gefühlte“ Wahrheit und auf Reizthemen wie Flüchtlinge, Missbrauch, Krieg und Gewalt gesetzt wird. Die Facebook‑Algorithmen befeuern – gerade aufgrund ihres hohen Aufmerksamkeits‑potenzials – diese Form von Meldungen. Deshalb werden auch die schrillsten Links zu angeblichen Nachrichtenseiten (etwa zur Ermordung des für eine E‑Mail‑Affäre verantwortlichen FBI‑Beamten, zur vermeintlichen Wahlunterstützung Trumps durch den Papst oder zur Behauptung, Hillary habe Waffen an den IS verkauft) massiv verbreitet und in den Sozialen Medien verstärkt angezeigt[26]. Vieles davon ist sicher nicht von Facebook so gewollt, wirkt aber dennoch enorm.

Neben dieser Desinformation durch gezielte Falschmeldungen stellen vor allem auch die sogenannten Social Bots ein Problem dar. Social Bots sind Software‑Roboter – Programme, die menschliches Verhalten simulieren – und interagieren in sozialen Netzwerken wie Facebook oder Twitter. Sie kommunizieren mit echten Nutzern, antworten auf Kommentare und verfassen eigene Beiträge. Dank realistisch wirkender Profile, ausgewogenem Tag‑und‑Nacht‑Verhalten und einer gezielten Hashtag-Nutzung fallen sie nicht als Bots auf.

Weltweit soll es mehr als 100 Mio. Fake‑Accounts geben – also Profile, hinter denen kein realer Mensch, sondern ein Bot steckt[27]. Diese nisten sich in Facebook-, Twitter-, Instagram- und Tumblr-Profilen ein und treiben ihr Unwesen. Eine Studie der Universität von Kalifornien zeigte, dass sich knapp 400.000 Bots in die Präsidentschaftswahl‑Debatte auf Twitter einmischten; es gingen etwa 3,8 Mio. Tweets ein, was rund 20 % der gesamten Twitter‑Kommunikation im Wahlkontext entspricht – davon entfielen 75 % der Tweets auf Trump und 25 % auf Clinton[28]. So stieg beispielsweise der Hashtag „#Trumpwon“ sehr rasch in die Twitter‑Trends – maßgeblich durch Bots, obwohl Presse und Meinungsforschung nach dem ersten TV‑Debüt eher für Clinton warben[29]. Und so entstehen plötzlich durch Algorithmen gesteuerte Trends, die ohne den Einsatz von Bots gar nicht zustande gekommen wären. Dies ist im Kontext von Wahlen besonders bedenklich, da Social Bots ein künstlich erzeugtes, falsches Meinungsbild verbreiten und Wähler beeinflussen können – etwa wenn der Eindruck entsteht, Trump habe alle TV‑Debatten gewonnen[30]. Social Bots sind somit eine Gefahr für die Demokratie, da sie ein verzerrtes Meinungsbild erzeugen und unsere Wahrnehmung des politischen Geschehens (wenn auch indirekt) beeinflussen. Zudem verdrängen sie – allein durch ihre schiere Masse – andere Meinungen in den Sozialen Medien. Fake News, die sich durch Social Bots millionenfach verbreiten, verstärken zudem die sogenannte Filter Bubble[31] bzw. Echo‑Kammer, in der man nur das sieht und hört, was einem ohnehin vertraut ist und was man gerne konsumiert. Dieser Umstand würde zu einer massiven Einschränkung der Wirklichkeitswahrnehmung führen – angefangen bei personalisierten Suchergebnissen bis hin zur individuellen Nachrichtenpräsentation bei Facebook und Twitter[32]. Eine neue Studie des „Reuters Institute for the Study of Journalism“ widerspricht dieser Einschätzung und behauptet sogar, dass Social‑Media‑Nutzer mehr unterschiedliche Nachrichtenquellen nutzen als Personen, die sich außerhalb sozialer Netzwerke bewegen – basierend auf einer vergleichsweise geringen Datenlage[33]. Unabhängig davon, inwieweit Filterblasen den persönlichen Horizont einschränken oder weitere Medien genutzt werden, steht fest: Nicht allein Facebook, Twitter, Google oder Cambridge Analytica haben Donald Trump zum Präsidenten gemacht[34]. Viele Ursachen spielen eine Rolle – etwa das Fernsehen, das für die Mehrheit der Amerikaner die primäre Quelle politischer Information darstellt[35] (ein Medium, das Trump optimal für sich nutzte). Laut einer Umfrage der Pew Foundation, einem liberalen Thinktank, war für 57 % der Amerikaner das Fernsehen die wichtigste Quelle politischer Nachrichten – gefolgt von digitalen Angeboten der Verlage, dem Radio, gedruckten Zeitungen und (mit 18 %) den Sozialen Medien, meist Facebook[36].

Allerdings deuten Untersuchungen von AlgorithmWatch darauf hin, dass sich digitale Suchergebnisse – etwa bei Google – in den USA tendenziell zugunsten der Demokraten verzerren[37]. Daraus folgt: Auch wenn nicht ausschließlich oder unmittelbar wahlentscheidende Eingriffe stattfinden, tragen Fake News, Social Bots etc. eindeutig zum Wahlergebnis bei[38]. In Deutschland gingen im Vorfeld der Bundestagswahl 2017 Befürchtungen auf, dass auch hier Bots, Fake News und weiteres digitales Manipulationspotenzial die Wahl beeinflussen könnten. Es folgten diverse Selbstverpflichtungen der Parteien – der Einsatz von KI im Wahlkampf wurde weitgehend unterbunden, abgesehen von der AfD, die mit Fake News und Social Bots kräftig mitmischte[39]. Ganz offensichtlich haben rechte Kreise mit emotional aufgeladenen Themen wie Kriminalität und Flüchtlingen sowie künstlich aufgeblähter Online‑Aktivität den politischen Diskurs in den Sozialen Medien massiv mitbestimmt – unterstützt durch ein langfristig aufgebautes Bot‑Netzwerk. Sogar der Empfehlungsalgorithmus von Facebook, der kurzfristig überproportional viele rechte Positionen anzeigte, musste angepasst werden[40]. Falsche Freunde und Falschmeldungen können zudem relativ preiswert eingekauft werden – so ermittelte der Bayerische Rundfunk, dass 100.000 Fake News für 269,00 € und 200.000 Fake News zu 489,90 € erworben werden können[41]. Andererseits deuten aktuelle Untersuchungen von AlgorithmWatch in Verbindung mit sechs Landesmedienanstalten darauf hin, dass es in Deutschland kaum politik‑spezifische Personalisierungen bei Google‑Suchanfragen gibt – bei Suchen nach Politikern liegen die Ergebnisse überwiegend sehr ähnlich, während nur in kleineren Clustern von stark individualisierten Listen wenige (2–3) Unterschiede zu verzeichnen sind[42]. Ein großes Problem ist jedoch die gezielte, nur für den Empfänger sichtbare Informationszuspielung in Form sogenannter „Dark‑Posts“, gegen die kein Widerspruch eingelegt werden kann. Dies führt zwangsläufig zu gesellschaftlicher Fragmentierung und weiter anwachsenden sozialen Verwerfungen.

Insgesamt – trotz großer Anstrengungen am rechten Rand – scheint der faktische Einfluss digitaler Manipulation bei der Bundestagswahl 2017 überschaubar gewesen zu sein. Das Hauptproblem zukünftiger Wahlen und Abstimmungen liegt jedoch nicht nur in der direkten Manipulation durch Algorithmen, sondern auch in wachsenden Zweifeln an der Legitimität demokratischer Prozesse, was zu Verunsicherung und Angst führt – und somit dem rechten Spektrum in die Hände spielt.

In Anbetracht potentieller und realer Manipulation in Wirtschaft und Politik durch Künstliche Intelligenz muss diese Technologie kritisch hinterfragt werden – vor allem angesichts ihrer immer weiterreichenden Anwendungen im zivilen sowie militärischen Bereich. Die Chancen und Risiken dieser Technologien müssen gesamtgesellschaftlich abgewogen werden – und zwar nicht allein von den wirtschaftlich profitierenden Unternehmen. Es bedarf eines öffentlichen Diskurses sowie rascher, tragfähiger Schutzmechanismen, wo Gefahren drohen.

Namhafte Wissenschaftler wie Nick Bostrom[43], bekannte Unternehmer wie Elon Musk[44] und Bill Gates[45] mahnen eindringlich vor einer Entwicklung, die sich zu einem unkontrollierbaren Selbstläufer entwickeln könnte. Vor allem der verstorbene Stephen Hawking zählte zu den warnenden Stimmen[46]. In den letzten Jahren haben sich zahlreiche Experten mit Vorschlägen zur Abwehr dieser Risiken gemeldet.

Dies nicht zuletzt durch:

– Herstellung von Algorithmen‑Transparenz, wie von Angela Merkel angemahnt.

– Regelmäßige Überprüfung wichtiger Algorithmen durch einen „Algorithmen‑TÜV“[47] und/oder die Einrichtung einer neu zu gründenden Aufsichtsbehörde, wie von Yvonne Hofstetter gefordert („Wir brauchen eine Treuhandstelle, eine Aufsicht für Algorithmen.“)[48]

– Definition von Prinzipien ethischen Handelns bei der Anwendung von Algorithmen sowie deren Durchsetzung durch Inspektionen über ein geeignetes Beobachtungsinstitut[49]

– Berufung von Algorithmen‑Beauftragten analog zu Datenschutz‑Beauftragten

– Staatliche Aufsicht, Regulation und Kontrolle, wie von Bill Gates und Elon Musk gefordert

– Kontrolle von Algorithmen im Einsatz bei Google, Facebook, Twitter etc. – speziell im Vorfeld von Wahlen und Abstimmungen[50], ergänzt durch den Vorschlag von Gerald Häfner[51], die Algorithmen so einzurichten, dass bei jedem zustimmenden Votum eines Users auch eine anderslautende Meinung angezeigt wird, um so der Echokammer entgegenzuwirken.

Bei aller Berechtigung dieser Vorschläge darf nicht davon ausgegangen werden, dass nationale oder europäische Behörden und Parlamente KI-Technologie wirkungsvoll kontrollieren können – ohne dabei die Rechte der Hersteller anzutasten. Vielmehr erscheint es erforderlich, die Verwertungsbedingungen der neuen KI-Technologien grundsätzlich neu zu definieren und gesellschaftlich vertretbare, zukunftsfähige Alternativen zu schaffen.

Ohne jeden Zweifel kann der Maßstab für den richtigen Umgang mit KI nur der Nutzen für alle Menschen – also das Gemeinwohl – sein. Daher sollte überlegt werden, alle wichtigen KI‑Forschungsergebnisse in „Kulturelles Gemeingut“ zu überführen. Kulturelles Gemeingut umfasst menschliches Wissen, Kulturtechniken, Kulturleistungen, Sprache, Software‑Quellcodes, elektromagnetische Wellen und Frequenzbereiche oder beispielsweise auch das Internet – und damit auch die Algorithmen, die Künstliche Intelligenz steuern.

Dies sollte schon aus den Entstehungsbedingungen solcher Commons selbstverständlich sein, denn die Entwicklung kultureller Gemeingüter beruht selten allein auf der Leistung einzelner Urheber, sondern auf einem über Jahrhunderte gewachsenen Schatz gemeinschaftlichen Wissens – unterstützt durch öffentliche Finanzierung, die eine rein privatwirtschaftliche Verwertung ohne gesellschaftliche Mitsprache ausschließt. Deshalb wären alle KI‑Forschungsergebnisse als Gemeingut anzusehen und in autonome Organisationen zur treuhänderischen Verwaltung zu überführen – damit Künstliche Intelligenz als Gemeinwohl‑KI in den Dienst der Vielen gestellt und nicht den Profitinteressen einiger Weniger überlassen wird.

Gedacht wird beispielsweise eine kombinierte Schutz‑ und Verwaltungslösung für KI‑Technologien, die zum einen aus einer globalen Treuhandgesellschaft im Besitz aller Menschen besteht und – etwa gemäß dem „American Permanent Fund“-Konzept von Peter Barnes, dem „Alaska Permanent Fund“ oder dem „Pacific Forest Trust“ – die Rechte an systemkritischen Algorithmen verwaltet und die daraus erzielten Erträge gerecht an alle Länder (vorzugsweise auch an ärmere) ausschüttet[52][53][54]. Diese Schutzfunktion könnte darüber hinaus in einer UN‑nahe, aber autonomen Organisation realisiert werden, wie es etwa die Internationale Atomenergie‑Organisation (IAEO) für den friedlichen Umgang mit Kernmaterial tut[55].

Mit einer solchen Doppelregelung – bei der Eigentums- und Verwertungsfunktionen strikt von der Kontrollfunktion getrennt werden – ließe sich dem unkontrollierten Privatbesitz und einem immer weniger überblickbaren Wirken von KI möglicherweise Einhalt gebieten. Zugleich müssen die ethischen Grundlagen für den Einsatz von Algorithmen gesellschaftlich diskutiert und gesetzlich verankert werden – damit die Zivilgesellschaft selbst bestimmen kann, welche KI‑Anwendungen gewünscht sind und welche besonderen Schutzmaßnahmen verdienen.

Dabei geht es insbesondere um Anwendungen, deren Wirkungen wir nicht mehr vollständig verstehen, deren Effekte schwer abzuschätzen sind und die sich kaum noch vollständig kontrollieren lassen. Beispiele hierfür sind:

– Finanz‑Algorithmen zum Kauf und Verkauf von Wertpapieren, deren „unerklärliche“ Micro‑Flashs an den Börsen zeigen, dass sie nicht vollständig von den Eigentümern kontrolliert werden können.

– Autonome Drohnen, Panzer, U‑Boote und Roboter, die über die Tötung von Menschenleben entscheiden können – auch wenn dies regulatorisch bislang nicht vorgesehen ist, technisch jedoch längst umgesetzt wurde.

– Autonome Automobile, die u. U. tödliche Fahrentscheidungen treffen und deren ethische Priorisierung politisch statt wirtschaftlich geregelt werden muss.

– Kommunikationsroboter, die mit Menschen interagieren, ohne als solche erkannt zu werden, und die Wahlen beeinflussen können.

– Steuerungssysteme für Serverfarmen oder Energieressourcen, die ohne menschliche Kontrolle und Einblick autonom arbeiten und sich möglicherweise unbemerkt verselbstständigen.

– Intelligente Manipulationssoftware in Wirtschaft und Politik, die unbemerkt Einfluss auf menschliches Verhalten ausübt – etwa durch Gesichts-, Ausdrucks- und Stimmungserkennung, Psychometrie oder Filter Bubbles.

– Künstliche Intelligenz, die sich selbst programmiert – wie bei Google erprobt – und damit den Übergang zur „Singularity“ herbeiführen könnte[56][57].

Zumindest diese Typologie von Anwendungen sollte unverzüglich unter gesellschaftliche Kontrolle gestellt und strengen Regulierungen unterworfen werden. Für alle nicht unmittelbar systemkritischen sowie für die Zivilgesellschaft direkt weniger gefährlichen Anwendungen gilt es, konsequent auf Gemeinwohlorientierung zu achten.

Wem solche Überlegungen sozialromantisch erscheinen, sei darauf hingewiesen, dass selbst einige der großen Hightech‑Tycoons in den USA in eine ähnliche Richtung denken. So existiert beispielsweise das „Allen Institute for Artificial Intelligence“ in Seattle – finanziert mit über einer Milliarde Dollar – bei dem sämtliche Forschungsergebnisse kostenlos veröffentlicht werden[58]. Beispielhaft ist auch die OpenAI‑Initiative von Elon Musk, die als Non‑Profit‑Organisation gegründet wurde und ebenfalls mit rund einer Milliarde Dollar ausgestattet ist[59]. OpenAI befasst sich mit der Erforschung von Künstlicher Intelligenz und deren potenzieller Bedrohung für die Menschheit. Ziel von OpenAI ist es, KI auf Open‑Source‑Basis zu entwickeln und zu vermarkten, sodass sie der Gesellschaft Vorteile bringt statt zu schaden. Auch diese Organisation macht ihre Patente und Forschungsergebnisse öffentlich zugänglich und sieht darin einen gewissen Schutz vor den Gefahren der KI – durch Gemeinwohlorientierung und Transparenz.

Obwohl häufig behauptet wird, dass ohne Eigennutz kein wirtschaftlicher Fortschritt möglich sei, zeigt sich, dass Gemeinwohlorientierung und gemeinschaftlicher Besitz immer mehr an Bedeutung gewinnen – etwa im Kontext der Commons‑Bewegung, vertreten durch den US‑Soziologen Peter Barnes[60], die Heinrich‑Böll‑Stiftung[61], Silke Helfrich[62] sowie weitere Initiativen (z. B. unter https://commons.blog/about/, letzter Zugriff: 17. Oktober 2017) und – natürlich – auch Professorin Elinor Ostrom, Trägerin des Alfred‑Nobel‑Gedächtnispreises für Wirtschaftswissenschaften[63]. Die 2012 verstorbene Elinor Ostrom zählte zu den führenden Autoritäten auf dem Gebiet der Commons und beschrieb detailliert die wesentlichen Voraussetzungen für das erfolgreiche Management gemeinschaftlicher Güter. Sie widerlegte die These des uneingeschränkten Egoismus (bekannt als „Tragödie der Allmende“[64]) und zeigte, dass es einen „dritten Weg“ zwischen privatem und staatlichem Eigentum gibt.

Herausgeber: Stiftung Media, Stuttgart – www.stiftung-media.de

Copyright © 2017–18 by Michael W. Bader, Göppingen

Fußnoten

[1] Yann LeCun, Yoshua Bengio und Geoffrey Hinton, „Deep learning.“ Nature, Nr. 521 (2015): S. 436–444.

[2] Focus, „Börsencrash in Millisekunden: So reißen Roboter die Aktienkurse in den Abgrund.“ Focus online (09.02.2016).

http://www.focus.de/finanzen/boerse/roboter-als-haendler-wenn-millisekunden-entscheiden-was-loest-einen-boersencrash-aus_id_5205415.html (letzter Zugriff: 18. Oktober 2017).

[3] Die Studie belegt, dass durch Analyse der Facebook‑Likes auf die ethnische Zugehörigkeit, politische Einstellung, Religion, Beziehungsstatus, Geschlecht, sexuelle Orientierung oder Nikotin-, Alkohol- und Drogenkonsum von Personen geschlossen werden kann; siehe Michal Kosinski, David Stillwell und Thore Graepel, „Private traits and attributes are predictable from digital records of human behavior.“ PNAS Proceedings of the National Academy of Sciences Vol. 110, No. 15 (12.02.2013).

http://www.pnas.org/content/110/15/5802.full (letzter Zugriff: 1. Mai 2016).

[4] http://www.acxiom.com (letzter Zugriff: 18. Oktober 2017).

[5] Julian Wheatland, „Personalised marketing in the age of big data: How big data and psychographics are changing the persuasion game“ – Keynote, 16. Zukunftskongress von 2b AHEAD Think Tank, Schloss Wolfsburg, 2017.

https://kongress.zukunft.business/fileadmin/content/videos/2017/Zukunftskongress_2017/170620_Keynote_Wheatland_Julian.mp4?utm_source=Newsletter_DE_170906&utm_medium=Link (letzter Zugriff: 17. Oktober 2017).

[6] Redaktion SZ, „Etwa 87 Millionen Nutzer von Facebook-Datenskandal betroffen: Cambridge Analytica.“ Süddeutsche Zeitung SZ.de (04.04.2018).

https://www.sueddeutsche.de/digital/cambridge-analytica-etwa-millionen-nutzer-von-facebook-datenskandal-betroffen-1.3932186 (letzter Zugriff: 8. April 2018).

[7] Redaktion FAZ, „Frühere Managerin: Es geht um viel mehr als 87 Millionen Nutzer: Cambridge Analytica.“ Frankfurter Allgemeine faz.net (17.04.2018).

http://www.faz.net/aktuell/wirtschaft/facebook-datenskandal-doch-mehr-als-87-millionen-betroffen-15546851.html (letzter Zugriff: 19. April 2018).

[8] Hannes Grassegger und Mikael Krogerus, „Ich habe nur gezeigt, dass es die Bombe gibt.“ Das Magazin, Nr. 48 (2016).

https://www.dasmagazin.ch/2016/12/03/ich-habe-nur-gezeigt-dass-es-die-bombe-gibt/ (letzter Zugriff: 18. Oktober 2017).

[9] Carole Cadwalladr und Emma Graham-Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[10] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[11] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/news/facebook-skandal-sortiert-1012101/ (letzter Zugriff: 31. Juli 2018).

[12] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018)

[13] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[14] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[15] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[16] Horn, „Der Facebook-Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[17] Mit Singularity (Technische Singularität) wird der Zeitpunkt bezeichnet, an dem sich selbstoptimierende Roboter bzw. Algorithmen die menschlichen Fähigkeiten überflügeln. Einige Forscher gehen davon aus, dass KI ab diesem Zeitpunkt von Menschen nicht mehr kontrolliert werden kann und die Welt selbstständig weiterentwickelt. Andere wiederum erwarten, dass dieser Punkt erst in ferner Zukunft oder gar nie erreicht wird.

[18] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

https://motherboard.vice.com/de/article/ae7wwa/google-forscher-erschaffen-ki-die-selbststndig-ki-programmieren-kann (letzter Zugriff: 19. Oktober 2017). Siehe ebenso Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017). http://t3n.de/news/ki-ai-software-787665/ (letzter Zugriff: 19. Oktober 2017). Siehe ferner Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

https://www.technologyreview.com/s/603381/ai-software-learns-to-make-ai-software/?set=603387 (letzter Zugriff: 19. Oktober 2017).

[19] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[20] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[21] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[22] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[23] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[24] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[25] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[26] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[27] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[28] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, hat der Autor beschrieben in Michael W. Bader, Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[29] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[30] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[31] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[32] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[33] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[34] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[35] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[36] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[37] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[38] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[39] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[40] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[41] Mit Singularity (Technische Singularität) … (siehe [17]).

[42] Sebastian Gluschak, „Google‑Forscher erschaffen KI, die selbstständig KI programmieren kann.“ Motherboard (Vice) (24.01.2017).

Siehe auch: Stephan Dörner, „KI‑Software von Google lernt KI‑Software zu schreiben.“ t3n (22.01.2017); Tom Simonite, „AI Software Learns to Make AI Software: Intelligent Machines.“ MIT Technology Review (18.01.2017).

[43] http://allenai.org/ (letzter Zugriff: 17. Oktober 2017).

[44] https://openai.com/ (letzter Zugriff: 17. Oktober 2017).

[45] http://www.matrix-21.net/peter-barnes/ (letzter Zugriff: 17. Oktober 2017).

[46] https://www.boell.de/de/themen/commons/ (letzter Zugriff: 17. Oktober 2017).

[47] https://www.resilience.org/resilience-author/silke-helfrich/ sowie https://commons.blog/about/ (letzter Zugriff: 17. Oktober 2017).

[48] Elinor Ostrom, Governing the Commons: The Evolution of Institutions for Collective Action. Canto Classics (Cambridge: Cambridge University Press, 2015). Siehe auch: Wikipedia, „Elinor Ostrom.“

https://de.wikipedia.org/wiki/Elinor_Ostrom (letzter Zugriff: 19. Oktober 2017).

[49] Garret Hardin, „The Tragedy of the Commons.“ Science, Nr. 162 (1968): 1243–1248.

http://www.garretthardinsociety.org/articles/art_tragedy_of_the_commons.html (letzter Zugriff: 16. Oktober 2017).

[50] Elinor Ostrom, Was mehr wird, wenn wir teilen: Vom gesellschaftlichen Wert der Gemeingüter, hrsg. von Silke Helfrich (München: Oekom, 2011).

[51] Silke Helfrich und Heinrich‑Böll‑Stiftung, Commons: Für eine neue Politik jenseits von Markt und Staat (Bielefeld: transcript, 2012).

[52] Einen Modellversuch, der zwei Jahrzehnte u. a. nach den Gemeinwohlkriterien arbeitete, beschrieb Michael W. Bader in Jenseits von Kapitalismus und Kommunismus (Berlin: BWV Berliner Wissenschafts-Verlag, 2016).

[53] Stefan Meretz, „Ubuntu‑Philosophie: Die strukturelle Gemeinschaftlichkeit der Commons.“ In: Commons: Für eine neue Politik jenseits von Markt und Staat, hrsg. von Silke Helfrich und Heinrich‑Böll‑Stiftung, 58–65 (Bielefeld: transcript, 2012), S. 63.

[54] n‑tv mit dpa et al., „Facebook klemmt 200 Apps ab: Neuer Datenskandal?“ n‑tv.de (14.05.2018).

https://www.n-tv.de/wirtschaft/Facebook-klemmt-200-Apps-ab-article20433215.html (letzter Zugriff: 3. August 2018).

[55] Jörn Brien, „52 Unternehmen hatten Zugriff auf Nutzerdaten von Facebook.“ t3n (02.07.2018).

https://t3n.de/news/zugriff-nutzerdaten-facebook-1092160/ (letzter Zugriff: 3. Juli 2018).

[56] Carole Cadwalladr und Emma Graham‑Harrison, „Revealed: 50 million Facebook profiles harvested for Cambridge Analytica in major data breach.“ The Guardian (17.03.2018).

https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election (letzter Zugriff: 31. Juli 2018).

[57] Dachwitz, Rebiger und Rudl, „FAQ: Was wir über den Skandal um Facebook und Cambridge Analytica wissen“.

https://netzpolitik.org/2018/cambridge-analytica-was-wir-ueber-das-groesste-datenleck-in-der-geschichte-von-facebook-wissen/#Wer%20steckt%20hinter%20Cambridge%20Analytica?

[58] Channel 4 News Investigation team, „Revealed: Trump’s election consultants filmed saying they use bribes and sex workers to entrap politicians.“ Channel 4 News (19.03.2018); Teil 2 von ›Data, Democracy and Dirty Tricks‹.

https://www.channel4.com/news/cambridge-analytica-revealed-trumps-election-consultants-filmed-saying-they-use-bribes-and-sex-workers-to-entrap-politicians-investigation (letzter Zugriff: 31. Juli 2018).

[59] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[60] Sam Biddle, „Facebook Uses Artificial Intelligence to Predict Your Future Actions for Advertisers, Says Confidential Document.“ The Intercept (13.04.2018).

https://theintercept.com/2018/04/13/facebook-advertising-data-artificial-intelligence-ai/ (letzter Zugriff: 31. Juli 2018).

[61] Sascha Lobo, „Der eigentliche Skandal liegt im System Facebook: Fall Cambridge Analytica.“ Spiegel Online (21.03.2018).

http://www.spiegel.de/netzwelt/web/cambridge-analytica-der-eigentliche-skandal-liegt-im-system-facebook-kolumne-a-1199122.html (letzter Zugriff: 24. März 2018).

[62] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[63] Statista, „Statistiken zu Facebook.“

https://de.statista.com/themen/138/facebook/.

[64] Horn, „Der Facebook‑Skandal, aber sortiert“.

https://t3n.de/ (letzter Zugriff: 31. Juli 2018).

[65] Siehe [17] (Singularity‑Definition, vgl. technische Erläuterung).

Stiftung Media Newsletter

Bleiben Sie stets auf dem laufenden, wir versorgen Sie mit Informationen zu Projekten der Stiftung, Veranstaltungen und Publikationen.

Ja, ich möchte den Newsletter der Stiftung Media per E-Mail erhalten. Ich habe die Hinweise zur Datenverarbeitung in den Datenschutzhinweisen gelesen und verstanden. Diese Einwilligung kann ich jederzeit mit Wirkung für die Zukunft widerrufen.

Stiftung Media Newsletter

Bleiben Sie stets auf dem laufenden, wir versorgen Sie mit Informationen zu Projekten der Stiftung, Veranstaltungen und Publikationen.

Ja, ich möchte den Newsletter der Stiftung Media per E-Mail erhalten. Ich habe die Hinweise zur Datenverarbeitung in den Datenschutzhinweisen gelesen und verstanden. Diese Einwilligung kann ich jederzeit mit Wirkung für die Zukunft widerrufen.

Zukunft gestalten

Unsere Adresse

Stiftung Media

Salzmannweg 14

70192 Stuttgart

Stiftung Media Newsletter

Bleiben Sie stets auf dem laufenden, wir versorgen Sie mit Informationen zu Projekten der Stiftung, Veranstaltungen und Publikationen.

Ja, ich möchte den Newsletter der Stiftung Media per E-Mail erhalten. Ich habe die Hinweise zur Datenverarbeitung in den Datenschutzhinweisen gelesen und verstanden. Diese Einwilligung kann ich jederzeit mit Wirkung für die Zukunft widerrufen.

Stiftung Media Newsletter

Bleiben Sie stets auf dem laufenden, wir versorgen Sie mit Informationen zu Projekten der Stiftung, Veranstaltungen und Publikationen.

Ja, ich möchte den Newsletter der Stiftung Media per E-Mail erhalten. Ich habe die Hinweise zur Datenverarbeitung in den Datenschutzhinweisen gelesen und verstanden. Diese Einwilligung kann ich jederzeit mit Wirkung für die Zukunft widerrufen.