logistic ready

Fachportal für Intralogistik

Facebook-Algorithmus nennt schwarze Männer „Affen“

Ein Programm des sozialen Netzwerks Facebook wurde deaktiviert, nachdem ein Video mit Schwarzen zum Thema „Prime“ ausgewählt wurde. Das Unternehmen hat sich entschuldigt und wird analysieren, was in einer anderen Episode eines Softwarefehlers im Zusammenhang mit der Gesichtserkennung nicht-weißer Menschen passiert ist.

Ein Facebook-Sprecher gab zu, dass „a Es ist eindeutig ein inakzeptabler Fehler„Wir entschuldigen uns bei all denen, die diese beleidigenden Empfehlungen gesehen haben könnten“, sagte er, und das fragliche Empfehlungsprogramm wurde aus dem sozialen Netzwerk entfernt. Auf eine Frage von Facebook antwortete Facebook: Frankreich Presseagentur.

Wir haben alle Themenempfehlungsfunktionen deaktiviert Als wir erkannten, dass dies passierte, konnten wir die Ursache untersuchen und verhindern, dass es erneut passiert.“ Mehrere Gesichtserkennungsprogramme sind von Bürgerrechtlern unter Beschuss geraten, die auf Genauigkeitsprobleme hinweisen, insbesondere in Bezug auf nicht-weiße Menschen.

Dieser Fall wurde durch ein britisches Zeitungsvideo ausgelöst tägliche Post Bei schwarzen Männern wurde eine automatische Nachricht angezeigt, in der gefragt wurde, ob der Benutzer das möchte „Schau weiter Affenvideos“. Das fragliche Video vom Juni 2020 trug den Titel „Weißer Mann ruft Polizei wegen schwarzer Männer in Marina“.

Ein Screenshot der Empfehlung wurde von Facebooks ehemaligem Director of Content Design auf Twitter geteilt Darcy Groves. „Diese ‚Keep Watch‘-Nachricht ist inakzeptabel“, sagte Groves und bezog sich auf die Nachricht an seine ehemaligen Facebook-Kollegen.


Siehe auch  Das Potenzial künstlicher Intelligenz (KI) für Unternehmen hängt von der Qualität der Daten und dem Reifegrad der KI-Technologie ab