Schönheits-KI-Algorithmen sind voreingenommen – dieser Informatiker will das ändern

0
5

Bildquelle: Mit freundlicher Genehmigung von Joy Buolamwini

Zu oft werden die besten Beauty-Geschichten nicht erzählt, allein aufgrund der Hautfarbe, der Religion, des Geschlechtsausdrucks, der Behinderung oder des sozioökonomischen Status einer Person. Hier geben wir das Mikrofon an einige der ehrgeizigsten und talentiertesten Stimmen der Branche weiter, damit sie in ihren eigenen Worten die bemerkenswerte Geschichte ihrer Entstehung erzählen können – und wie sie Schönheit nutzen, um sich zu verändern die Welt zum Besseren. Als nächstes: Joy Buolamwini, Informatikerin und Gründerin der Algorithmic Justice League (AJL).

Schon in jungen Jahren interessierte ich mich für Möglichkeiten, Computer zu nutzen, um Menschen zu helfen. Als ich aufwuchs, nahm mich mein Vater, ein Professor für medizinische Chemie und pharmazeutische Wissenschaften, mit in sein Labor, um Krebszellen zu füttern. Er zeigte mir auch, wie er Computer einsetzte, um Medikamente gegen Krebs zu entwickeln.

Dank meiner Mutter, die Künstlerin ist, bin ich mit einer Wertschätzung für die Suche nach der Wahrheit aufgewachsen, sowohl in der Kunst als auch in der Wissenschaft. Ich war mir zunächst nicht sicher, ob ich den künstlerischen Teil meiner Arbeit mit dem algorithmischen Auditing verbinden könnte, aber ich nutzte die Gelegenheit, um mich zu fragen, wie es aussehen würde, ein Poet des Codes zu sein, jemand, der beide Welten vermischt, um das zu tun, was Dichter tun, nämlich unbequeme Wahrheiten oder verborgene Einsichten in den alltäglichen Interaktionen, die wir haben, zu beleuchten?

Ich hatte auch schon immer ein bisschen Unternehmergeist. In der High School hatte ich eine kleine Webdesign-Firma, mit der ich etwas Geld verdienen konnte, um Ausrüstung für Basketball, Leichtathletik und Langlauf zu bezahlen analysieren den Haartyp und geben persönliche Produktempfehlungen.

Danach hatte ich das große Glück, ein Fulbright-Stipendium für Sambia zu bekommen, und ich gründete eine Organisation, die Mädchen das Programmieren beibrachte. Als ich mein Abitur machte, hatte ich die Erfahrung und das Selbstvertrauen, die Algorithmic Justice League zu gründen, eine Organisation, die Kunst, akademische Forschung und Interessenvertretung vereint, um für Menschen zu kämpfen, die durch KI geschädigt werden, die ich gerne nenne das „ex-codierte.“

Ich begann zu untersuchen, ob KI-Systeme je nach Gesichtstyp, der analysiert wird, unterschiedlich funktionieren, und was meine Forschung ergab, ist dies tatsächlich der Fall.

Als ich als Doktorand am MIT an einer Kunstinstallation arbeitete, sollte ein Teil der Installation die Position meines Gesichts mit Software verfolgen, aber es funktionierte nicht so gut auf meinem Gesicht, bis ich eine weiße Maske aufsetzte. Dies führte 2017 zu meiner Recherche zu Gesichts- und Analysetechnologien, die versuchen könnten, das Geschlecht eines Gesichts zu erraten. Diese Erfahrung, eine weiße Maske aufzusetzen, die für eine Maschine sichtbar gemacht wird, hat mich wirklich dazu gebracht zu fragen, sind diese Maschinen so neutral?

Ich begann zu untersuchen, ob KI-Systeme je nach Gesichtstyp, der analysiert wird, unterschiedlich funktionieren, und was meine Forschung ergab, ist dies tatsächlich der Fall. Bei der Untersuchung von KI-Systemen einer Reihe großer Technologieunternehmen stellte ich fest, dass die Systeme bei der Einschätzung des Geschlechts bei Männern besser abschneiden als bei Frauen, und bei helleren Gesichtern besser abschneiden als bei dunkleren Gesichtern. Das ließ mich denken, wenn diese Ergebnisse umgekehrt wären, würden diese Computer überhaupt auf dem Markt sein? Es war diese Erfahrung mit der Codierung in einer weißen Maske und die Gelegenheit, einige der größten Genauigkeitsunterschiede bei kommerziell verkauften KI-Produkten zu dieser Zeit aufzuzeigen, die mich dazu veranlasste, mich weiter mit Fragen der codierten Voreingenommenheit zu befassen, die wirklich die Saat war für den Start der Algorithmic Justice League.

Bildquelle: Mit freundlicher Genehmigung von Olay

Wenn wir in der Beauty-KI darüber nachdenken, Gesichter zu analysieren oder Gesichter von einer Maschine bearbeiten zu lassen, werden Sie dies an den Arten von Filtern sehen, die verwendet werden, um Ihre Haut aufzuhellen oder Ihre Nase zu verschlanken, um zu behaupten, die Schönheit zu verbessern – das auf eurozentrischen Schönheitsstandards basiert und farbige Frauen marginalisiert. Durch meine Recherchen wurde mir klar, dass ich diese wichtige Perspektive aus meiner gelebten Erfahrung des Nicht-Gesehen-Werdens, des Ex-Codes mitbringen kann. Es ist etwas, das nicht nur mich betrifft, sondern auch in unserer größeren Gesellschaft, weil KI-Systeme zunehmend in alle Bereiche eindringen.

Etwas anderes, über das man im Beauty-Bereich nachdenken sollte, ist der Einsatz von KI in der Beschäftigung – die Entscheidung, wer eingestellt wird, wer entlassen wird, wer befördert wird. Die Schönheitsindustrie beschäftigt so viele Menschen und verständlicherweise möchten Unternehmen versuchen, die neuesten Technologien zu übernehmen, aber wir müssen wirklich darüber nachdenken, wie KI als Torwächter für diejenigen dient, die überhaupt in der Branche teilnehmen können.

Ein wichtiger Teil dessen, was wir mit der Algorithmic Justice League tun, ist die Frage, wie wir eine Welt mit gerechterer und rechenschaftspflichtigerer KI erreichen können. Ein Teil davon ist die Sensibilisierung, weil Sie ein Problem nicht beheben können, von dem Sie nicht einmal wissen, und viele Leute sind sich der codierten Voreingenommenheit nicht bewusst. Aus diesem Grund war ich so glücklich, mit Olay bei der Kampagne Decode the Bias zusammenzuarbeiten, um Vorurteile in Schönheitsalgorithmen zu bekämpfen. Die Überlegung, wer und wie wir codieren, ist ein so wesentlicher Bestandteil, um eine Veränderung herbeizuführen. Die Initiative der Marke, 1.000 Mädchen zum Black Girls CODE Camp zu schicken, um ihnen zu helfen, MINT-Karrieren zu verfolgen, trägt dazu bei, dass die Menschen, die die Technologien entwickeln, die die Gesellschaft prägen, die Gesellschaft tatsächlich widerspiegeln. Die Vorurteile zeigen weiterhin, was passiert, wenn wir nicht im Raum sind.

Wenn wir in der Beauty-KI darüber nachdenken, Gesichter zu analysieren oder Gesichter von einer Maschine bearbeiten zu lassen, werden Sie dies an den Arten von Filtern sehen, die verwendet werden, um Ihre Haut aufzuhellen oder Ihre Nase zu verschlanken, um zu behaupten, die Schönheit zu verbessern .

Als ich mit meiner Recherche begann, hörte ich entmutigende Kommentare, aber ich ließ mich nicht davon abhalten, etwas zu verfolgen, das ich für extrem wichtig hielt. Eine Frau zu sein und dunkle Haut zu haben, gab mir eine gelebte Erfahrung, die zu wirkungsvollen Forschungen führte, die zu dieser Zeit von mehr Mainstream-Kollegen einfach nicht verfolgt oder priorisiert wurden. Und so hat meine Erfahrung mit der Codierung in einer weißen Maske diese Forschung tatsächlich katapultiert.

Wenn Sie sich in einem Bereich befinden, in dem Ihre Perspektive nicht zentriert ist, müssen Sie wirklich eine Gemeinschaft der Unterstützung finden. Ich hatte ein sehr starkes Unterstützungssystem und großartige Mentoren und eine wirklich solide Grundlage, und ich denke, das war von Anfang an sehr hilfreich für mich. Das hat mir gezeigt, wie wichtig es ist, diese Art von Gemeinschaft zu haben, besonders als junge farbige Frau und für farbige Mädchen. Ich würde jeden ermutigen, der Ideen hat und diesen Raum betreten möchte, aber Angst hat, dass er einen Rückstoß erleidet, trotzdem voranzuschreiten. Wir brauchen dich noch.

Bildquelle: Olay

Vorheriger Artikel5 Gründe, warum Sie eine Umstellung der Geburtenkontrolle in Betracht ziehen sollten
Nächster ArtikelAdam Devine und Chloe Bridges haben offiziell den Bund fürs Leben geschlossen!