Iran und Cyber, Data Overload, Gesichtserkennung und jede Menge Digitalvorhaben — Issue #40
Ich bin ja kein Fan der Feiertage und daher wirklich froh, dass der Trubel seit einer Woche wieder los geht. Hätte auf der Welt nur nicht…
Ich bin ja kein Fan der Feiertage und daher wirklich froh, dass der Trubel seit einer Woche wieder los geht. Hätte auf der Welt nur nicht so arg sein müssen, aber irgendwie hat man in diesen Zeiten eh das Gefühl, dass es drunter nicht mehr geht.
Politisch ging es natürlich auch wieder mit den üblichen Forderungen los: Mehr Überwachungsmaßnahmen — dazu unten mehr — und die CSU forderte auf ihrer Klausurtagung in Seeon auch gleich noch ein paar andere gruselige Sachen, wie die Herabsetzung des Alters zur Strafmündigkeit oder im Zusammenhang mit Überwachungskameras auch Technik einzusetzen, die “anhand von Mustern physischer Gewalt Gefährdungspotentiale erkenn[t]”. Brrr. Überrascht war ich aber auch von diesem Aspekt aus dem Bericht des BR: “In ihrem Papier schlägt die Landesgruppe deshalb vor, eine “Bundeszentrale für digitale Aufklärung” einzurichten. Diese könne mit kostenfreien Angeboten dazu beitragen, dass Internetnutzer besser verstehen, wie Meinungsmanipulation im Netz — zum Beispiel durch Bots — funktioniert oder wie sie mit Hass und Hetze im Internet umgehen können.” Das kam mir doch SEHR bekannt vor und vielleicht erinnert Ihr Euch auch an meinen Gastbeitrag für die Friedrich-Naumann-Stiftung im Sommer, in dem ich eine Bundeszentrale für digitale Bildung vorschlug 😬Loved to inspire you, CSU! In meiner Bundeszentrale wird allerdings nicht vor Meinungsmanipulation durch Bots gewarnt, sondern so aufgeklärt, dass Bürger:innen wissen, dass Social-Bot-Kennzeichnungspflichten quatsch sind und Manipulation durch Bots ebenso und dagegen lautstark aufbegehren. Gleichermaßen gegen Gesichtserkennung, Überwachungsmaßnahmen und Hackbacks. Man braucht ja noch Visionen und Träume. Der Newsletter ist vielleicht ein keiner Anfang 😉
Viel Spaß beim Lesen!
Ann Cathrin
WHAT TO KNOW
Den Konflikt zwischen Iran und den USA hat vermutlich jede:r von Euch mitbekommen. Da auch ein Cyberangriff von Iran ein mögliches Szenario war und auch weiterhin sein wird, haben ich zusammen mit dem promovierten Politikwissenschaftler und US-Außenpolitik-Experten, Payam Ghalehdar, einen Gastbeitrag für den Tagesspiegel Background geschrieben. Da Deutschland ein Bündnispartner der USA ist, gibt es auch hier das Risiko eines Angriffs, auch wenn dies aktuell gering ist. Dennoch war es für mich bzw. uns Anlass darauf hinzuweisen, dass diese Gefahr besteht. Natürlich nicht nur von Iran aus, aber der aktuelle Fall zeigt nochmal, dass wir dringend aufrüsten müssen beim Thema Cybersicherheit. Und das heißt ganz klar: investieren in eine defensive Cyberabwehrstrategie. Welche drei Dinge man nun über den Konflikt wissen sollte und ob ein dritter Weltkrieg bevor stand, das hat Payam nochmal für die Krautreporter aufgeschrieben (Paywall).
Wie wichtig und gefährlich der Cyberraum in der letzten Woche (und weiterhin) dennoch war zeigen noch andere Ereignisse: US-Soldat:innen, die in Nahen Osten geschickt wurden, mussten auf persönliche Smartphone und Laptops verzichten. Wie gefährlich sie für Soldat:innen sein können, zeigte die Fitness-App Strava, durch die Militärbasen entdeckt werden konnten, da Soldat:innen mittels dieser App ihre Standortdaten teilten (ich schrieb erst kürzlich darüber, dass Standortdaten nicht so harmlos sind wie viele denken). Donald Trump nutzte die Tötung Qassem Soleimanis natürlich direkt, um mit Facebook-Werbung Lobeshymnen zu verbreiten und mittels Formularen Daten von potentiellen Wähler:innen für seinen Wahlkampf zu bekommen. Ebenso wurden auf den sozialen Medien Desinformationen verbreitet. Viele Accounts konnten auf Iran zurückgeführt werden, allerdings auch klassische Leserbriefe, was nochmal zeigt, dass dies kein reines digitales Phänomen ist.
Da ich auch die Nacht vor Twitter verbrachte, hier nochmal ein interessanter Text zum Lesen: Did Twitter Help Stop War With Iran?
Der Cyberkrieg hat längst begonnen — Tagesspiegel Background — background.tagesspiegel.de
Einer der auch sprachlich wertvollsten Texte, die ich in letzter Zeit digital gelesen habe. Daher: wenn Ihr einen Text dieses Newsletters ganz lesen wollt, nehmt diesen hier. Danke Lena-Sophie Müller für die Empfehlung!
“We outsource the messy management of the collections we once painstakingly maintained. We cede these decisions to private companies and corporate interests. We get more convenience, but I’m not sure we get more control.” Matthew Braga schreibt hier — passend zum Aufräumen, das so viele am Ende und Anfang eines Jahres tun — über die ganzen Daten, die wir so ansammeln. Auf unseren Computern, externen Festplatten, Smartphones und Cloud-Services. Speicherplatz ist so unfassbar günstig geworden, dass wir mehr und mehr horten, keinen Überblick mehr haben und auch alles existent bleibt. All die Nachrichten in Messengern beispielsweise, oder Tweets. Das mag schön sein für Erinnerung, um zu sehen, wie sehr man sich entwickelt hat, es hat aber auch was Belastendes, das so viel Informationen über einen in der Welt rum liegen. Die Frage ist auch, ob die ganzen Datensammlungen bei Unternehmen über uns unser Leben wirklich angenehmer und selbstbestimmter machen, wenn plötzlich zahlreiche Empfehlungen von algorithmischen Systemen kommen. Die Wahrheit liegt mit Sicherheit wieder irgendwo dazwischen. Dennoch: super food for thought, dieser Text.
Opinion: Data overload: Why it’s time to do a digital purge — The Globe and Mail — www.theglobeandmail.com
Für das neue Jahrzehnt wünsche ich mir, dass nicht mehr nur “Netzaktivist:innen” sich gegen die Einschränkung von Bürgerrechten im Digitalen einsetzen. Denn dass suggeriert, dass man immer noch klar die digitale von der analogen Welt trennen könne und dass die digitale keine Auswirkungen auf die analoge Welt habe. Noch natürlich ist das Gegenteil der Fall. Digitale Technologien haben immer mehr und intensiver Auswirkungen auf die analoge Welt — wenn man denn überhaupt noch trennen möchte. Daher ist es um so wichtiger, dass sich hier ein viel breiteres Bündnis gegen Gesichtserkennung formiert, als nur “Netzaktivist:innen”, denn es geht um die Bürgerrechte aller. Aber — wie so häufig — sind nur bestimmte Gruppen besonders gefährdet. Vielleicht liegt es daran, dass sich so wenige drum sorgen? Als weißer Mensch hat man recht gute Chancen, richtig von der Software erkannt zu werden. als schwarze Frau nicht mehr so. Über den Gender- und Racial-Bias von Gesichtserkennungssoftware habe ich hier schon mehrfach geschrieben. Nochmal zur Erinnerung: Weiße Männer werden mit einer Wahrscheinlichkeit 99,2 bis 100% richtig erkannt (sofern sie denn gerade in die Kamera gucken). Schwarze Frauen nur zu 65,3 bis 79,2%. Das ist eine Diskrepanz von über 30 Prozentpunkten!! Und auch bei einer Fehlerwahrscheinlichkeit von nur einem(!) Prozent ist bei dem Aufkommen von Menschen an Bahnhöfen und Flughäfen die Zahl der Menschen, die fälschlich identifiziert wurden, enorm hoch. Ein Prozent bei 1000 Personen, sind zehn Menschen, die von der Polizei aufgehalten und überprüft werden. Bei einem Fluggastaufkommen am Frankfurter Flughafen von 5,1 Millionen Menschen innerhalb eines Monats (hier November 2019) sind das 51.000 falsch-positive Erkennungen der Software — 1.700 pro Tag an einem Flughafen! Eine Fehlerquote, deren Bearbeitungsaufwand schon nicht zu rechtfertigen ist.
Da wir ja immer auf die USA und das Silicon Valley als Vorbild gucken: San Francisco hat aus diesem Grund die Gesichtserkennung aus dem öffentlichen Raum verbannt. Und da wir zu recht immer auf die Gefahren, insbesondere Überwachungsmaßnahmen aus China hinweisen, sei hier nochmals an Hongkong erinnert und wie dort nicht nur die Kameraüberwachung mit Gesichtserkennung für die Aktivist:innen, die für Demokratie kämpfen, eine große Gefahr ist. Wie man so das Versprechen einer ethisch korrekten Digitalisierung bzw. KI aus Europa umsetzen möchte, erschließt sich mir nicht. Also: Ihr müsst Euch nicht als “Netzaktivist:in” sehen, um Euch gegen Überwachungsmaßnahmen einzusetzen. Demokrat:in und Fan von Bürgerrechten reicht schon.
Und da ich gerade noch den Hinweis auf Twitter bekam: Auch wenn die Software einwandfrei funktionieren würde: Anlasslose Überwachung “stellt einen nicht hinnehmbaren Eingriff in Grundrechte dar, da anlasslos jeder in die Überwachung einbezogen wird, statt sich auf die Personen zu beschränken, zu denen Anhaltspunkte auf Straftat bestehen.”
Überwachung: Bündnis fordert Verbot von Gesichtserkennung — Golem.de — www.golem.de
Friedhelm Greis hat für Golem einen umfassenden Text geschrieben, der aufzeigt, was digitalpolitisch im kommenden Jahr in der Europäischen Union ansteht. Neben E-Privacy und E-Evidence steht auch der Vorschlag der Kommission zu einem “Digitale-Dienste-Gesetz” auf dem Plan, das, wie er aus einem Vortrag von Thomas Lohninger zitiert, “Mutter aller Schlachten um die Internetrechte” werden könnte. Nicht nur, weil das Haftungsprivileg aus der E-Commerce-Richtline zur Disposition steht, sonder auch, weil die gesamte IT-Wirtschaft, die Medien und die Unterhaltungsindustrie davon betroffen sind. Dazu gehört auch, dass die Dienste, die durch das Digitale-Dienste-Gesetz betroffen sein werden, laut aktuellem Entwurf nicht nur illegale Inhalte entfernen sollen, sondern auch “schädliche”. Was schädlich ist, das ist freilich nicht nur subjektiv, sondern auch kontextabhängig und ich befürchte, mit der “Mutter aller Schlachten um die Internetrechte”, liegt man hier nicht so ganz falsch.
Europäische Netzpolitik: Die Rückkehr des Axel Voss — Golem.de — www.golem.de
Twitter möchte wieder ein paar Updates einspielen und die Art und Weise wie Twitter funktioniert ändern. So soll man künftig entscheiden können, wer Tweets kommentieren darf. Man soll weiterhin wie bisher “public” für alle twittern können, dann aber auch so, dass nur die eigenen Follower reagieren können und sogenannte “Statements”, bei denen keiner mehr ein “Reply” drunter setzen kann. Auf Twitter freuten sich einige darüber, gerade die, die sich intensiv gegen Hate Speech einsetzen und/oder (regelmäßig) Opfer von Attacken werden. Dass das, was diese Personen erleben ziemlich beschissen ist, will ich gar nicht in Abrede stellen. Ich halte es aber für fatal, wenn wir Neuerungen nur aus diesem Blickwinkel bewerten. Dass Menschen Opfer von solchen enormen Shitstorms werden, ist nicht nur selten, es ist auch eine extreme Ausnahme auf die Masse von Nutzer:innen betrachtet. Wir sollten bei der Bewertung nicht die Gefahren, die diese Neuerungen mit sich bringen außer acht lassen. Dazu gehört zum Beispiel, dass Widerspruch, insbesondere bei Desinformationen so nicht mehr möglich sein kann, wenn der Absendende das als “Statement” postet. Wenn man bedenkt, dass 90% der Nutzer:innen von Social-Media-Plattformen nur stille Mitleser:innen sind, dann kann das enorme Auswirkungen haben, wenn gewisse Aussagen unwidersprochen bleiben. Dabei gilt zusätzlich zu bedenken, dass Twitter in anderen Ländern in ganz anderem Ausmaß und Kontexten verwendetet wird. Die Ermöglichung, Desinformationen dort unwidersprochen twittern zu können, hat dort ganz andere Dimensionen als hier, wo gerade mal 5% der Deutschen diese Plattform nutzen und wir eine freie Presse haben.
Für die Opfer von solchen Shitstorms und Hate Speech braucht es nicht nur bessere Rechtsdurchsetzung und dafür besser ausgestattete Polizei und Staatsanwaltschaften. Es braucht ebenso Beratungsstellen für die Opfer solcher Attacken, eine aktive Zivilgesellschaft und Community-Richtlinien von Plattformen, die solch ein Verhalten nicht dulden — denn oftmals sind diese Hass-Nachrichten, nicht strafrechtlich relevant. Zu dieser aktiven Zivilgesellschaft gehört auch ein entsprechender Druck auf die Unternehmen, denn es kann meiner Meinung nach nicht sein, dass wir beispielsweise den Datenschutz dafür verantwortlich machen, wenn Behörden sich aus Twitter verabschieden und nicht die Plattformen, die sich nicht ans Gesetz halten. Ebenso können wir noch so häufig den Gesetzgeber und das Strafrecht bemühen und verschärfen wollen, wenn das Hauptproblem nicht-strafbare Inhalte sind. Dann muss eine Plattform ihr Hausrecht anpassen und mit ausreichend Personal durchsetzen, damit Nutzer:innen geschützt werden. YouTube hat dahingehend kürzlich seine Community-Guidelines angepasst — jetzt kommt es auf die Durchsetzung dieser und natürlich das Melden solcher Inhalte durch die Nutzer:innen an.
Twitter will put options to limit replies directly on the compose screen — The Verge — www.theverge.com
Ein Thema über das wir neben Datenschutz, Wettbewerbs- und Kartellrecht ebenso dringend reden sollten, sind sogenannte “Dark Patterns”. Mit psychologischen Tricks werden Menschen dazu gebracht, sich stundenlang auf Plattformen rum zu treiben — dass es kein Ende im Twitter oder Facebook Feed gibt, ist zum Beispiel eines. Ebenso wie “geschickt” platzierte Anzeigen, die einen zu dubiosen Vertragsabschlüssen leiten. Auch hier kann man mit kluger Regulierung entgegenwirken, z.B. Verpflichtungen, dem Endloscrollen irgendwann ein Ende zu bereiten und mehr erst durch ein Klicken auf “mehr” weitere Inhalte anzuzeigen.
“Klebrige” Apps: Bundestagsstudie kritisiert Psycho-Tricks von Entwicklern | heise online — www.heise.de
Shitstorms muss man überstehen, sagt Nicole Dieckmann und sie weiß wovon sie spricht. Vor einem Jahr twitterte sie “Nazis raus” und was daraufhin über sein einbracht, war jenseits von gut und böse. Bei T-Online hat sie nun einen Gastbeitrag über die #Umweltsau veröffentlicht und den katastrophalen Umgang damit seitens der Führung des WDR.
Das Ergebnis sehen wir jetzt: Fehleinschätzungen. Keine Frage danach, ob womöglich eine Agenda hinter einem Shitstorm steckt. Ob im Netz dazu aufgerufen wurde, in Zuschauerredaktionen anzurufen. Stattdessen hektischer Aktionismus, der eben denen in die Hände spielt, die die Algorithmen verstanden haben und sie zu ihren Zwecken zu nutzen wissen. Noch immer fällt man auf sie herein und macht im Zweifel alles nur noch schlimmer mit aussichtslosen Versuchen, die neuen Dynamiken mit den traditionellen Instrumenten in den Griff zu kriegen. In etwa so, als würde man ein Pferd vor ein liegengebliebenes Auto spannen.
Kurz: Katastrophale Krisenkommunikation.
Was es schon seit Langem braucht, ist vor allem eine Einsicht: Wir alle müssen wissen, wie zumindest die wichtigsten Plattformen funktionieren. Wissen. Wir müssen nicht mitmischen. Wir müssen sie nicht mal mögen. Love your friend, know your enemy.
Sie prangert hier zu recht das Versagen von Entscheider:innen an, denn das Netz ist nun wirklich keine Spielerei mehr.
Versagen im sozialen Netz: “Die Empörungsmaschinerie sprang trotzdem an” — www.t-online.de
WHAT TO WATCH
Auf dieses kurzweilige Gespräch zwischen Gregor Gysi und Martin Sonneborn brachte mich Ferdinand Sacksofsky und ich empfehle es gerne weiter!
WHERE TO GO
Friedrich-Naumann-Stiftung für die Freiheit — Shop
Beim Verband der Stipendiaten und Altstipendiaten der Friedrich-Naumann-Stiftung moderiere ich das Gespräch zwischen Mario Brandenburg (MdB der FDP Fraktion im Bundestag) und Lennart Wetzel (Microsoft) zu Künstliche Intelligenz — Herausforderung für die Politik? Am 17. Januar um 19:30 Uhr in der Microsoft Digital Eatery, Berlin.
Teile und herrsche: — Europäische Akademie Berlin — www.eab-berlin.eu
Zusammen mit Alexander Sängerlaub von der Stiftung Neue Verantwortung diskutiere ich über das Thema Desinformation. Am 21. Januar um 18:00 Uhr in der Berliner Landeszentrale für politische Bildung!
WHAT TO READ
Facebook will “künftig Videos von der Plattform nehmen, die so bearbeitet sind, dass es einer “Durchschnittsperson” nicht auffällt und die Menschen glauben machen könnten, dass jemand Dinge gesagt hat, die nicht wirklich gesagt wurden.” Man nimmt sich also dem Problem DeepFakes endlich an. (Ich halte allerdings die falsche Einordnung von Bildern/Videos für deutlich wahrscheinlicher und damit gefährlicher, da sie einfacher zu haben ist)
Dazu passt beispielsweise auch die Aufnahme vom brennenden Australien, das kein Foto aus dem All ist, sondern eine Visualisierung der Brände über einen bestimmten Zeitraum. Das macht die Brände nicht weniger schlimm, dennoch zeigt es nochmal die Manipulationsfähigkeiten falsch eingeordneter Bilder bzw. Videos.
Habe schon ein paar Mal darüber hier geschrieben. Arme Menschen sind besonders in Gefahr beim Thema Digitalisierung. Sie sind häufiger abhängig von algorithmischen Systemen insbesondere beim Staat. Nun fand man heraus, dass staatlich geförderte Smartphones in den USA Malware enthalten, die nicht zu entfernen ist.
“Fast 60 Prozent der Bevölkerung halten die Bundesregierung beim Thema Digitalisierung für wenig kompetent. Zudem trauen gleich 91 Prozent der Führungskräfte aus Wirtschaft und Politik den Bundesressorts nicht zu, den digitalen Wandel zu meistern.”
In Österreich ist nun eine türkis-grüne Regierung an der Macht. Netzpolitik zieht sich quer durch den Koalitionsvertrag. Einiges ist schwierig, anderes sehr begrüßenswert.
Googles Cybersecurity-Team vom Project Zero hat angekündigt, seine Disclosure-Richtlinien zum Umgang mit entdeckten Sicherheitslücken zu ändern.
Social-Media-Aktivitäten von Behörden sind juristisch bedenklich. Es wird Zeit, dass sich die Plattformen an die Gesetze in Europa halten.
“Wenn Deutschland es nicht schaffe, sein volles Potential auszuschöpfen und Frauen für die IT zu begeistern, so sei das nicht nur ein ökonomisches Risiko, vor allem sei das Land im internationalen Vergleich auch schlicht nicht mehr wettbewerbsfähig”, sagt die IT-Chefin von Goldmann Sachs, Joanne Hannaford.
Warum Harry und Meghan als ‘Senior members’ der Royal Family zurücktreten? Rassismus (für jeden, der ein bisschen das Königshaus verfolgt, nicht überraschend).
One Year in Washington — Alexandria Ocasio-Cortez reshaped her party’s agenda, resuscitated Bernie Sanders’s campaign, and hardly has a friend in town.
WHAT I LIKED
SHARE IT!
Ich freue mich, wenn Du diesen Newsletter an Interessierte weiterleitest und ihn teilst!