Facebook testet eine neue Warnung, wenn ein Benutzer einen Artikel teilen möchte, nach dem Vorbild von Twitter, das sogar eine spezieller Hashtag Dafür gibt es eine Reihe von Möglichkeiten. Mögliche Interaktionen mit einem im sozialen Netzwerk veröffentlichten Link sind Reaktionen, Kommentare oder das Teilen. Die Plattform empfiehlt außerdem, dass diejenigen, die eine Veröffentlichung weitergeben möchten, den Link vorher öffnen.
Wenn das soziale Netzwerk nicht erkennt, dass der Nutzer vor dem Teilen auf einen Artikel geklickt hat, kann ein Popup-Fenster angezeigt werden, das den Nutzer auffordert, den Link zu öffnen. Dies soll den Nutzer darauf aufmerksam machen, dass Überschriften allein nicht ausreichen, um alle wichtigen Punkte einer Diskussion aufzulisten. Daher kann das Teilen ohne vollständige Lektüre zu Fehlinformationen führen.
https://twitter.com/fbnewsroom/status/1391816265891778560
Bei Twitter gab es bereits einen ähnlichen Mechanismus: Wenn der Benutzer versucht, Inhalte zu retweeten, und die App keinen Klick auf den Artikel erkennt, erscheint ein Popup mit der Bitte um Bestätigung, dass der Benutzer die Veröffentlichung wirklich teilen möchte, ohne den Artikel zu erweitern. David Gillis, Designer und Mitarbeiter im Bereich Produktsicherheit bei Facebook, ließ die bahnbrechende Umsetzung nicht außer Acht und erwähnte den kleinen blauen Vogel über sein Profil im Konkurrenznetzwerk.
Warnung ist nur eine Warnung
Es ist erwähnenswert, dass weder auf Twitter noch auf Facebook die Warnung Nutzer daran hindert, einen Artikel zu teilen, selbst wenn sie sich weigern, näher darauf einzugehen. Der Mechanismus ist lediglich ein Versuch, das Bewusstsein zu schärfen, oder sogar ein Mittel der Plattformen, um mit die ständigen Anschuldigungen dass ihnen die nötigen Moderationsressourcen fehlen, um in ihren digitalen Umgebungen mit Fake News umzugehen.
Noch immer auf Facebook, Anfang des Jahres eine Umfrage von Digitalem Hass entgegentreten Die Möglichkeit wurde angesprochen, dass der Instagram-Algorithmus Impfgegner-Posts und Verschwörungstheorien begünstigen könnte. Dies ist nicht das erste Mal, dass diese Maschinenintelligenzen unangemessenes Verhalten „beschuldigt“ werden. im Rahmen sozialer Netzwerke.
Über TechCrunch