Microsofts neue KI-Redakteure sehen sich bereits mit Gegenreaktionen wegen Rassismus-Geschichte konfrontiert
In den letzten zehn Jahren haben verschiedene Technologiebranchen die Tugenden der künstlichen Intelligenz und ihren Platz in der Zukunft der Menschheit gepriesen. Leider haben sich nicht alle Vorteile gleichermaßen auf alle ausgeweitet und ein kürzlicher Microsoft-Ausrutscher erneut hebt einen anhaltenden blinden Fleck der KI für Farbige hervor .
Da die Spannungen in den USA nach der Ermordung mehrerer Farbiger durch Polizisten in den letzten Monaten hoch sind, veröffentlichte Microsofts neue KI-Publishing-Software eine Geschichte über die persönlichen Auswirkungen von Rassismus auf die bi-rassische Sängerin Jade Thrilwall, die jedoch die falsche Mischung enthielt -Rennsportler.
Borderlands 3 Xbox One vorbestellen
Während es in der Geschichte darum ging Jade und ihre Reflexionen über Rassismus , das vorgestellte Bild war von Bandmitglied Leigh-Anne Pinnock, einer weiteren gemischtrassigen Sängerin der Band Little Mix. Obwohl es sich laut Jade anscheinend um einen wiederkehrenden Vorfall handelte, wurde Microsofts Ausrutscher insbesondere von Jade in den sozialen Medien aufgerufen.
@MSN Wenn Sie Artikel aus anderen genauen Medien kopieren und einfügen, möchten Sie möglicherweise sicherstellen, dass Sie ein Bild des richtigen gemischtrassigen Mitglieds der Gruppe verwenden.
Diese Scheiße passiert @leighannepinnock und mir die ganze Zeit, dass es zu einem Laufwitz geworden ist, sagte sie. Es beleidigt mich, dass man die beiden farbigen Frauen nicht aus vier Mitgliedern einer Gruppe unterscheiden konnte … BESSER!
Der Fehler kommt ein paar Tage nach der Nachricht, dass Microsoft es war inmitten der Erschießung von Hunderten von Menschen Redaktion zugunsten einer eigenen KI-Redaktionsplattform.
Trotz der optimistischen Ambitionen der Technologiebranche in Bezug auf KI hat die Software weiterhin eine fleckige Beziehung im Umgang mit Farbigen mit Berichten von die besten Algorithmen, die Schwierigkeiten haben, schwarze Gesichter gleichermaßen zu erkennen , oder sogar Microsofts eigener KI-Bot Tay mit rassenunempfindlicher Rhetorik vergleiche schwarze menschen mit affen .
Wann konfrontiert mit The Guardian zu dem verpfuschten Artikel angesichts der kürzlich erfolgten redaktionellen Verkleinerung antwortete ein Microsoft-Sprecher mit: Sobald uns dieses Problem bekannt wurde, haben wir sofort Maßnahmen zur Behebung ergriffen und das falsche Bild ersetzt.
Leider scheint Microsofts KI-Redaktionsfehler dem Unternehmen keine Pause zu geben, um seinen neuen Prozess zur Veröffentlichung von Nachrichten weiter zu verlagern. Stattdessen werden die verbleibenden Mitarbeiter angewiesen, das durch den KI-Ersatz verursachte Durcheinander zu beseitigen.
Da sie den neuen Roboter-Editor nicht daran hindern können, Artikel von externen Nachrichtenseiten wie dem Guardian auszuwählen, wurde den verbleibenden Mitarbeitern gesagt, dass sie wachsam bleiben und eine Version dieses Artikels löschen sollen, wenn der Roboter entscheidet, dass sie von Interesse ist, und sie automatisch veröffentlicht auf MSN.com. Sie wurden auch gewarnt, dass der Roboter-Editor sie möglicherweise überstimmt und erneut versucht, sie zu veröffentlichen, selbst wenn sie sie löschen.
Watchdogs 2 Framerate
Da die Nachrichten weiterhin Proteste, Rasse und Ungerechtigkeit in den Vereinigten Staaten und insbesondere in Bezug auf das Leben schwarzer Menschen hervorheben, wird Microsofts neue KI definitiv Überstunden machen, um schwarze Gesichter mit neuen Geschichten, die auftauchen, richtig zuzuordnen. Die Frage ist, wie oft sie erfolgreich sein wird ?