WMR138 – Lass uns doch mal wieder ein bisschen übersteuern

4 Gedanken zu „WMR138 – Lass uns doch mal wieder ein bisschen übersteuern

  1. Ich bin ehrlich gesagt etwas baff von der Diskussion über Moderation gegen Ende:
    Dass soziale Probleme nicht alleinig mit technischen Mitteln gelöst werden können, sollten zumindest Netzpolitikinteressierte (wie auch ihr) nicht bestreiten. Nun will mspro aber gesellschaftliche Probleme mit technischer/ Plattform-Governance erschlagen.
    Das halte ich für eine schlechte Idee. Das Verbreiten von Falschinformationen mag womöglich durch neue technische Plattformen einfacher und effizienter geworden sein. Dass die Reaktion darauf aber das Bilden von Lynchmobs ist, ist ein gesellschaftliches Problem das lieber eben an dieser Stelle gelöst werden sollte: Dass Lynchmobs keine Lösung sind und Menschen anderer Herkunft/ Religion/ sexueller Orientierung vielleicht trotzdem gute Mitmenschen sind, wird auch die beste Plattformgovernance einer Gesellschaft nicht alleine beibringen können.
    Natürlich hat Facebook schon alleine dadurch eine Mitverantwortung, dass sie (auch mit ihrem zero-rating) eine neue, ungewohnte Art der Informationsverbreitung in Gesellschaften gebracht haben, die kaum darauf vorbereitet waren. Diese jetzt aber nur als Moderation auszuüben, statt womöglich gesamtgesellschaftliche Entwicklungen in den betroffenen Regionen (finanziell?) zu unterstützen halte ich für falsch.

    Auch hier in Deutschland/ Europa müssen wir uns Gedanken machen, wie wir Umgangsmechanismen wie das Presserecht mit falschen Tatsachenbehauptungen oder hate speech auf die neuen Gegebenheiten übertragen können (gut dazu auch die letzte Lage der Nation).
    Aber mspros Rhetorik über “alles mögliche tun” solange nur 1 Person gerettet werden könne hat mich schon sehr erschreckt – dies sind totalitäre Argumentationsmuster, die Verhältnismechanismen und Kausalitäten komplett über Bord werfen.
    Übrigens tun, anders als behauptet, alle Diensteanbieter *nicht* jetzt schon alles technisch bzw. menschenmögliche, wenn es um dokumentierten Kindesmissbrauch geht: Zwar ist das ein Thema, mit dem das Löschen nach Benachrichtigung verständlicherweise sehr schnell geht, präventive Maßnahmen werden aber in den seltensten Fällen, insbesondere gesondert für solche Missbrauchsdarstellungen, zusätzlich getroffen. Und selbst wenn Dateien auf ne Blacklist von Hashwerten gematcht werden, haben sich präventive Bilderkennungstechniken (wie von der Lobbygruppe “white IT” befürwortet) abseits der ohnehin schon aus Copyright-Gründen verwendeten Verfahren (ContentID) meines Wissens glücklicherweise kaum verbreitet.

    • @trolli, ich finde es komisch, dass du Governance hier als “technische Lösung” zu framen versuchst. Governance ist das Mittel der Wahl, soziale Probleme zu lösen, seit es Menschen gibt. Wie denn auch sonst?

      Und dass Governance dort ausgeübt werden sollte, wo sie am wirksamsten ist, heißt ja, dass es keine Entweder-Oder Frage ist, ob vor Ort Strukturen geschaffen werden sollten, um Lünchmobs zu verhindern und auf Facebook, Gerüchte und Fake News zu unterbinden. Jeder Akteur muss das tun, was in seinen Möglichkeiten liegt. Und wenn per Facebook solche Nachrichten verbreitet werden ist dies die richtige Stelle, hier Governance-Mechanismen zu installieren, wenn sich die Plattform nicht mitschuldig machen will.

      Ich sehe in deiner Argumentation das übliche Aufklärerische Narrativ durchscheinen, dass die Leute nur mal ordentlich gebildet werden müssten, dann würde das schon nicht mehr passieren. Endlose Meter an Studien haben diese native Weltsicht widerlegt. Terror, Mobs und Hass hat nichts mit dem Bildungsgrad zu tun.

Kommentar verfassen