Sztuczna inteligencja oskarżona o rasizm

Kategorie: 

Źródło: 123rf.com

Sztuczna inteligencja po raz pierwszy mogła zadecydować o tym kto wygra międzynarodowy konkurs piękności. W projekcie wzięło udział 6 tysięcy ludzi z całego świata, lecz system wytypował głównie osoby o białej karnacji i tylko jedną czarnoskórą kobietę. Twórcy algorytmu są przerażeni.

 

W ramach konkursu, każdy mógł wysłać na stronę Beauty.AI zdjęcie, przedstawiające swoją twarz. Fotografie były wysyłane z ponad 100 krajów świata. Sztuczna inteligencja, zupełnie obiektywnie, wytypowała najładniejszych spośród kilku kategorii wiekowych. Lecz wyniki zaskoczyły samych twórców tej inicjatywy oraz wielu ekspertów - niemal wszyscy zwycięzcy są biali!

 

Oprogramowanie analizowało zdjęcia pod kątem zmarszczek czy symetrii twarzy, ale nie brało pod uwagę koloru skóry. Konkurs wywołał powszechne oburzenie, gdyż zdjęcia napływały z całego świata, również z Indii i Afryki. Tymczasem zwycięzcy to przede wszystkim biali ludzie, niektórzy z nich pochodzą z Azji. Tylko jedna kobieta jest czarnoskóra.

 

Autorzy tego konkursu korzystali ze sztucznej inteligencji, która stosuje tzw. uczenie maszynowe. Zanim SI faktycznie zabrała się za analizę fotografii, otrzymała zestawy zdjęć, na podstawie których wywnioskowała jak wygląda "ideał".

 

Co prawda, każda osoba ma swoje pojęcie ideału. Autorzy uznali jednak, że coś poszło nie tak - Alex Zaworonkow, dyrektor naukowy inicjatywy Beauty.AI powiedział, że jest zaskoczony gdyż on sam nie dokonałby takiego wyboru. Stwierdzono zatem, że trzeba wyeliminować dyskryminację i zapewnić sztucznej inteligencji jeszcze więcej zdjęć, przedstawiających różnorodnych ludzi. W najbliższym czasie wystartuje "druga edycja" międzynarodowego konkursu piękności a Zaworonkow liczy, że do tego czasu uda się naprawić "usterki".

 

Warto dodać, że konkurs powstał we współpracy z korporacją Microsoft, która zaliczyła już niejedną wpadkę. Na początku 2016 roku, firma zaprezentowała bota, któremu pozwolono rozmawiać z użytkownikami serwisu Twitter. Niestety sytuacja szybko wymknęła się spod kontroli - bot Tay zaczął stosować wulgaryzmy, szybko znienawidził feministki i Żydów, popierał działania Adolfa Hitlera itd. Microsoft zareagował, wyłączając chatbota, lecz po kilku dniach, w samym środku nocy i zupełnie niespodziewanie, Tay znów stała się aktywna i zaczęła spamować, po czym została odcięta od internetu na dobre.

 

Wiadomość pochodzi z portalu tylkonauka.pl

 

Ocena: 

5
Średnio: 5 (1 vote)
Opublikował: John Moll
Portret użytkownika John Moll

Redaktor współpracujący z portalem zmianynaziemi.pl niemal od samego początku jego istnienia. Specjalizuje się w wiadomościach naukowych oraz w problematyce Bliskiego Wschodu


Komentarze

Portret użytkownika notowany

Obawiam się, że jestem

Obawiam się, że jestem sztucznym inteligentem, bo mam podobne poglądy. Pewnie ONZ, który już w październiku przejmie władzę nad internetem, aby zapewnić poprawność polityczną, odetnie mnie od dostępu do neta...

Portret użytkownika Macratel

Poza tym program wytycza

Poza tym program wytycza wzorzec, rasa czarna odstaje fizycznie od wzorca rasy białej i żółtej. Nie zgadzały się więc zostały odrzucone, pewnie jedna która przeszła w negatywie wygląda jak europejka.

Portret użytkownika Macratel

AI jest wolna od politycznej

AI jest wolna od politycznej poprawności. Jeżeli chodzi o harmonię symeytrię i urodę kobiety rasy czarnrj wyglądają atrakcyjnie do kilkunastu lat pózniej pojawiają się rozstępy (jaśniejsza i ciemniejsza skóra), tym lepiej widoczne im ciemniejsza skóra, linia włosów zaczyna się cofać, włosy się przeżedzają a nos zaczyna się rozchodzić na boki i rozpływać po twarzy, mało jest atrakcyjnych czarnych kobiet po 20-23 roku życia.

 

Portret użytkownika Shagrath

Niczego szokującego w tym nie

Niczego szokującego w tym nie ma, większość całkiem przeciętnych białych Dziewczyn jest śliczniejsza od (ponoć) najpiękniejszych czarnych kobiet, a i w rywalizacji z ładnymi mulatkami często są górą. Oczywiście pewnie większość murzynów, obywateli Indii, chińczyków, pigmejów, latynosów, indian ma własny kanon piękna i znowu im białe Dziewczyny nie odpowiadają. I chwala za to, tak powinno być. Oprogramowanie stworzyli pewnie biali, ale z drugiej strony symetria i brak zmarszczek to nie wszystko. Szkoda, że na podanej stronie nie można oglądać zdjęć wybranych i odrzuconych przez program.

Strony

Skomentuj