Metahinweis: Die so dargestellten Texte geben Erklärungen, weiterführende Fragen oder Quellen an.
Digitale Plattformen haben Transaktionskosten minimiert und Anlagevermögen ausgelagert. Das Ergebnis ist eine fantastische Skalierbarkeit der Angebote und Geschäftsmodelle.
Transaktionskosten sind die Kosten, die nicht für das Produkt, sondern für die Transaktion (bspw. Standmiete, Ordergebühren oder Versand) anfallen.
Skalierbarkeit ist die Fähigkeit von Systemen zur Anpassung auf Größenveränderung. In der Regel geht es dabei um Wachstum.
Diese digitalen Plattformen hatten jedoch das Problem, dass sie die Qualität der angebotenen Waren nur unzureichend (und schon garnicht skalierbar) überprüfen konnten. Dieses Problem der Qualitätssicherung auf skalierbaren Plattformen hat Ebay bereits in den 90ern durch Bewertungen "gelöst".
Bewertungen lösen das Vertrauensproblem, welches durch das Fehlen von menschlicher und insbesondere wiederholender Interaktion entstanden ist. Menschliche Interaktion würde die Skalierbarkeit beschränken. Vertrauen über Bewertungen hat jedoch versteckte Kosten, insbesondere bei umstrittenen Produkten.
Ich frage mich, ob DLT (z. B. Blockchain), welche auch als "Trust without Trust" beschrieben werden, hier eine Antwort parat haben könnten.
Soziale Medien haben dieses Mittel der Qualitätssicherung in den gesellschaftlichen Bereich gebracht. Likes sind nicht so graduell wie Sterne, aber letztlich handelt es sich auch um Bewertungen. Das hat natürlich Auswirkungen.
Wenn das System darauf basiert, dass man positive Bewertungen erhält, dann passen Menschen ihr Verhalten an. Sie verhalten sich so, dass sie positive Bewertungen erhalten.
Verhaltensanpassungen auf Regeländerungen kennen wir aus dem Steuerrecht. So soll eine differenzierte Kraftfahrzeugsteuer oder eine Bevorzugung bei der 1%-Regelung dazu führen, dass umweltfreundlichere Autos gekauft werden. Wenn es dann Leasingrückläufer gibt, bei denen das Ladekabel noch eingeschweißt ist, dann merken wir, dass das System Schwächen hat.
China testet sehr erfolgreich einige Modelle für breite Anwendungsbereiche (sogn. Social-Scoring). Extremvarianten taugen bei uns noch zum satirischen Roman (vgl. Qualityland).
Ein schöner Artikel der NZZ zu diesem Thema findet sich hier.
Nun habe ich mich immer als sehr robust gegenüber Druck zur Konformität gehalten.
Im Zuge der Erstellung meiner Webseite, stellte ich mir dann die Frage: Wie werde ich gefunden? Hier ist das Stichwort "Suchmaschinenoptimierung" oder "SEO". Und schon habe ich mich dabei ertappt, wie ich Überschriften von Unterseiten verlängert habe, weil dies die Auffindbarkeit erhöhen soll.
Auch für LinkedIn lassen sich schnell Tipps finden, die einem helfen sollen, bei den eigenen Beiträgen mehr Reichweite zu erzeugen.
Nachdem mein letzter Beitrag über die neue Webseite und zum Download meiner Masterarbeit auf LinkedIn nicht einmal 10% meines Netzwerks erreicht hat, habe ich mich auch gefragt, ob ich etwas am Beitrag hätte ändern müssen. Der Beitrag wurde unmittelbar begraben, obwohl Content dahinter stand, der mehrere Wochen Arbeit in sich hatte.
Vielleicht möchte LinkedIn mich dazu konditionieren meine Beiträge direkt auf LinkedIn zu posten? Das ist vermutlich sehr erfolgreich, wenn man (etwa wirtschaftlich) auf die Reichweite angewiesen ist.
Wenn auf der Basis von Bewertungen eine Vorauswahl getroffen wird, was für mich und meine Umgebung relevant ist, dann werde ich mit fremden, neuen und vielleicht widersprüchlichen Meinungen oder Produkten überhaupt nicht mehr konfrontiert.
Kinder wachsen heute mit Filterblasen auf. Wie sollen sie dann lernen, fremde Meinungen auszuhalten und damit umzugehen? Wie sollen wir Erwachsene lernen, dass uns große Teile der Diskussion vielleicht vorenthalten werden?
Gerade im Widerspruch entsteht Erkenntnis. Ich ertappe mich regelmäßig selbst, wie ich Meinungen vertrete, die nicht meine sind, weil es a) die Diskussion voranbringt oder b) ich meine eigene Meinung auf die Probe stellen möchte.
Das macht es anderen hin und wieder schwierig, mich schnell in ein Raster einzusortieren. Je nach Umfeld vertrete ich soziale, liberale oder konservative Meinungen.
Natürlich gab es diesen Effekt bereits im analogen Zeitalter. In der FAZ wird man keinen Aufruf zur Revolution finden. Aber alle FAZ-Nutzer hatten denselben "Filter" und haben diesen "Filter" offen gewählt. Es lag auch offen, dass die Zusammenstellung von der Redaktion vorgenommen wurde. Bei nutzergeneriertem Content, von dem mir nur der Teil angezeigt wird, der auf Basis meiner bisherigen Bewertungen gefiltert wird, liegt die Sache anders.
Natürlich könnte ich meine Filterblase durchbrechen, indem ich mit Content außerhalb oder am Rande meiner Filterblase interagiere. Bei StudiVZ gab es damals eigens eine Gruppe für diese Taktik. Das kann aber hohe soziale Kosten haben. So vertritt Tijen Onaran in der Berliner Zeitung die Position, dass es in Ordnung ist, dass zwei "Likes" eine Karriere beenden.
Hier ein Zitat von Tijen Onaran aus der Berliner Zeitung (Hervorhebungen durch mich):
"Nehmen wir beispielsweise einen Like. Es ist ein Klick, nichts weiter. Es dauert nur den Bruchteil einer Sekunde – doch dieser kann eine Karriere beenden[...].
Ist das nun übertrieben oder gerechtfertigt? Ich finde, dass eindeutig Letzteres der Fall ist. Viel zu oft nehmen wir die Aktivitäten, die in Social Media stattfinden, auf die leichte Schulter. Aussagen wie „Ist doch eigentlich gar nicht so gemeint“ oder „Wird man ja wohl gut finden dürfen“ dürfen im Ernstfall nicht als Ausreden gelten."
Ich finde es traurig, weil es dazu führt, dass wir in allen Bereichen unseres Lebens defensiv handeln. Ich selbst jedenfalls habe schon öfter Kommentare nicht geschrieben, weil ich mir nicht sicher war, ob der Kommentar mir später mal schaden könnte und mir das Thema nicht wichtig genug war, das Risiko einzugehen. Ich schäme mich dann kurz, denke dann aber daran, dass man seine Schlachten sorgsam wählen sollte.
In der ersten Version dieses Beitrags war der der Absatz unmittelbar über diesem – aus den genannten Gründen – nicht enthalten.
Klasse finde ich in diesem Zusammenhang die Frage von Peter Thiel in Bewerbungsgesprächen (nach From Zero to One): Er fragt nach einer Überzeugung, die der Bewerber für wahr hält, jedoch nur wenige Personen mit ihm teilen würden.
Vielleicht gibt es aber auch Menschen in Sozialen Netzwerken, die dort nicht wegen der eigenen Marke sind. Marken sind stimmig und konsistent, Menschen sind es in der Regel nicht.
Ein Mörder kann ein liebevoller Vater sein.
Es gibt andere Motive auf Sozialen Medien aktiv zu sein, wie die Suche nach Erkenntnis. Vermutlich gibt es auch noch weitere Gründe. Wenn man dann noch einbezieht, dass Positionen sich ändern können, kommt das "Festnageln" auf alte Likes einem doch als Wink aus der Vergangenheit vor. Aus meiner Sicht liegt das Problem fast immer im Umgang mit dem Fehler und nicht im Fehler selbst.
Ich war zum Beispiel lange der festen Überzeugung, dass Förderschulen sinnvoll sind und es keine überzeugenden Gegenargumente gibt. Neulich bin ich dann mit jemandem ins Gespräch gekommen, der fehlerhaft diagnostiziert auf eine Förderschule geschickt wurde und nun seine Schulabschlüsse nachholt. Nun frage ich mich, wie oft Fehldiagnosen in dem Bereich wohl vorkommen.
Eine Demokratie muss sogar dumme Meinungen aushalten können und den Leuten das Recht geben, ihre Position zu ändern. Dazu gehört aus meiner Sicht aber der Wille zu erklären, dass sich die Position geändert hat. Als positives Beispiel erscheint mir in diesem Zusammenhang das Verhalten von Petra Pau.
Bei den wenigsten Problemen unserer Zeit gibt es ein schwarz-weiß. Die Reduktion auf richtig und falsch führt bei komplexen Themen häufig in die Irre. Es gibt eine ganze Reihe von Themen (beispielhaft: Homosexualität, Kernkraft, Wiedervereinigung), in denen die Auffassungen der Mehrheit der Bevölkerung sich in den letzten Jahrzehnten geändert hat. Dies ist jedoch nur möglich, wenn man Mindermeinungen in der Diskussion zulässt.
Die Befassung mit der Vergangenheit ist wichtig. Nur durch eine Befassung mit der Geschichte können wir diese Fehler in der Zukunft vermeiden. Es kann aber weder sein, dass man schon jeden Kontakt mit der anderen Meinung ablehnt, noch dass ein Algorithmus verhindert, dass ich mit andersartigen Meinungen in Kontakt komme.
Es bleibt gefährlich, wenn Plattformen davon ausgehen, dass sie vorhersagen, was mich interessiert. Meine aktuellen Umstände lässt der Algorithmus regelmäßig außer Acht. Vielleicht ist mir etwas Schlimmes widerfahren und nun sind Beiträge zur Resilienz für mich relevant. Sehr plakativ wird das Problem durch das Gedankenspiel zur Truthahn-Illusion.
Ein Truthahn sieht den Bauern. Er hat Angst, der Bauer könnte ihn töten, doch der Bauer füttert ihn. Am nächsten Tag füttert der Bauer ihn abermals. Mit jedem Tag wird der Truthahn sicherer, dass der Bauer zum Füttern kommt. Der Truthahn weiß nichts über Thanksgiving, US-amerikanische Bräuche oder den Kalender. Er kann den Tag seiner Schlachtung nicht vorhersagen.
Die Befassung mit neuen Themen, neuen Produkten und fremden Meinungen lohnt sich, weil wir daraus etwas für uns lernen können. Es wird uns auch helfen, Streit konstruktiv zu führen und damit zu besseren Lösungen zu kommen.
Legal Design
Legal Operations
Steuerrecht
Ralf Hermes
Was denkst du?