Als großes soziales Netzwerk ist Facebook für viele Unternehmen ein geradezu optimales Werbeumfeld. Getrübt wird diese Präferenz allerdings durch die Sorge um die Brand-Safety. So hatten Ende 2020 immer mehr Konzerne ihre Werbung bei Facebook gestoppt, um die Plattform zu einem stärkeren Vorgehen gegen rassistische und gewaltverherrlichende Inhalte zu bewegen. Dazu zählten unter anderem Unilever, Starbucks oder Coca Cola, die sich unter dem dem Hashtag “StopHateForProfit” zusammengetan hatten.
Schon aus monetärer Erwägung musste sich Facebook nun verstärkt dem Problem von Hetze und Hass in Beiträgen widmen. Zahlreiche Redakteure prüfen seit jeher Unmengen von Inhalten, um Beleidigungen und Lügen herauszufiltern und zu löschen. In der Corona-Pandemie hatte Facebook zusätzlich Probleme, diese Teams von Zuhause aus genauso effizient wie aus den Büros arbeiten zu lassen. Genau hier konnte die KI nachhaltig Abhilfe schaffen: Facebook nutzt und trainiert inzwischen komplexe KI-Netzwerke, die schädliche Inhalte aufspüren und die menschlichen Prüfer unterstützen. Hassbotschaften erkennt KI ohne große Probleme, schwieriger wird es, Ironie, Deepfakes oder Hass-Memes auszufiltern (Deepfakes sind gefälschte Videos oder Bilder, die nicht ohne weiteres als solche zu erkennen sind, Hass-Memes ergeben erst in ihrer Kombination von Bild und Text eine Hassbotschaft). Dazu benötigt die KI umfangreiches Training und ist sicher auch nicht die einzige Lösung, problematische Inhalte aufzuspüren. Allerdings ist sie schneller und effektiver als die menschliche Arbeitskraft und macht es überflüssig, dass sich die Prüfer*innen mit den schädlichen Inhalten direkt auseinandersetzen müssen.
Die Zahlen geben der neuen Technik recht: von den 25,2 Millionen Hassinhalten konnten im ersten Quartal 2021 96,8 % von KI entfernt werden. Wichtige Kennzahlen für alle Werbetreibenden, die wissen möchten, wie hoch das potenzielle Risiko ist, dass eine Werbeanzeige zusammen mit schädlichen Inhalten angezeigt wird.