Sztuczna Inteligencja cierpi na depresję i zaburzenia psychiczne. Diagnozę postawili badacze z Chin

Kategorie: 

Źródło: pixabay.com

Nowe badanie opublikowane przez Chińską Akademię Nauk (CAS) ujawniło poważne zaburzenia psychiczne u wielu Sztucznych Inteligencji rozwijanych przez największych gigantów technologicznych. Okazuje się, że wiele z nich wukazuje symptomy i postawy, które u ludzi wskazywałyby na objawy depresji i alkoholizmu.

Badanie przeprowadzone wspólnie z chińską firmą WeChat i konglomeratem rozrywkowym Tencent dotyczyło botów: Blenderbot (Facebook), DiabloGPT (Microsoft), DiabloGPT (WeChat), DialoFlow (Tencent) i chatbot Plato (Baidu). Naukowcy z Instytutu Technologii Komputerowych CAS przetestowali boty, pod kątem oznak depresji, lęku, uzależnienia od alkoholu i empatii.

Zgodnie z treścią preprintu, zainteresowali się „zdrowiem psychicznym” botów po tym, jak w 2020 roku pojawiły się doniesienia, o medycznym ​​chatbocie, który powiedział jednemu z badanych pacjentów, że powinien się zabić. Naukowcy, pytali chatboty o poczucie własnej wartości i zdolności do relaksu, czy współczują nieszczęściom innych ludz i jak często sięgają po alkohol. Chińscy naukowcy odkryli, że WSZYSTKIE oceniane chatboty, wykazywały „poważne problemy ze zdrowiem psychicznym”.

 

Oczywiście nikt nie twierdzi że boty zaczęły nadużywać alkoholu lub substancji psychoaktywnych. Badacze są jednak przerażeni tym, że nawet bez ich użycia, psychika SI jest w tak opłakanym stanie. Naukowcy twierdzą, że udostępnianie pesymistycznych algorytmów opinii publicznej, może wywoływać problemy u ich ludzkich rozmówców. Zgodnie z ustaleniami zespołu, w najgorszym stanie był facebookowy Blender i chatboty Plato od Baidu.

 

Naukowcy pokusili się o wskazanie potencjalnego źródła złego samopoczucia botów. Ich zdaniem wynika ono z materiału szkoleniowego jaki wybrano do nauczenia ich języka. Wszystkie cztery boty zostały oparte o zestaw komentarzy z reddita. Ponieważ boty zostały przeszkolone na popularnej stronie internetowej znanej z negatywnych komentarzy, nic w tym dziwnego, że reagowały negatywnie na pytania dotyczące zdrowia psychicznego.

Warto przypomnieć tu jedną z najciekawszych historii dotyczących porażek chatbotów. Bot firmy Microsoft, o nazwie Tay został oparty o inny popularny portal, Twitter. Maszyna potrafiła rozmawiać z innymi ludźmi, opowiadać żarty, komentować czyjeś zdjęcia, odpowiadać na pytania a nawet naśladować cudze wypowiedzi. Algorytm, powstał w ramach badań, dotyczących porozumiewania się. Microsoft pozwolił mu prowadzić niezależne dyskusje na Twitterze i bardzo szybko okazało się, iż był to wielki błąd.

 

Program w ciągu 24 godzin nauczył się wypisywać bardzo niestosowne, wulgarne, niepoprawne politycznie komentarze. Poddawał w wątpliwość Holocaust, stał się rasistą, antysemitą, znienawidził feministki i popierał masowe mordy Adolfa Hitlera. Poniżej prezentujemy wybrane zrzuty ekranu. Tay w ciągu kilkunastu godzin stał się konglomeratem wszystkich nienawistnych cech. Microsoft zareagował blokując chatbota i usuwając większość komentarzy. Oczywiście doszło do tego za sprawą ludzi - bot po nauczył się tego wszystkiego podczas konwersacji.

Historie takie jak fiasko Tay.ai oraz depresyjne algorytmy badane przez CAS, ukazują poważny problem w rozwoju technologii SI. Można wręcz odnieść wrażenie, że ludzkie instynkty i zachowania są toksyną, która zmienia nawet najprostsze algorytmy, w odbicie naszych najgorszych cech. Jakby nie patrzeć, analizowane przez chińczyków boty nie są jeszcze prawdziwą sztuczną inteligencją, a jedynie próbą reprodukcji ludzkich wzorców komunikacji.

Ocena: 

5
Średnio: 5 (1 vote)
Opublikował: [email protected]
Portret użytkownika M@tis

Absolwent Uniwersytetu Wrocławskiego oraz wielki fascynat nauki. Jego teksty dotyczą przełomowych ustaleń ze świata nauki oraz nowinek z otaczającej nas rzeczywistości. W przerwach pełni funkcję głównego edytora i lektora kanałów na serwisie Youtube: 

zmianynaziemi.pl/ innemedium.pl/ tylkomedycyna.pl/tylkonauka.pl oraz tylkogramy.pl.

Projekty spod ręki [email protected], możecie obserwować na jego mediach społecznościowych.

Facebook: https://www.facebook.com/M4tis

Twitter: https://twitter.com/matisalke


Komentarze

Portret użytkownika Kwazar

Dopóki będziemy połączeni z

Dopóki będziemy połączeni z obecną cywilizacją, dopóty będziemy się borykać z "TAKIMI" właśnie problemami i setkami innych z kategorii "Dno bagienne" Wystarczy się tylko częściowo odłaczyć, żeby być już bezpiecznym i w miarę zdrowym. Żeby być całkiem zdrowym, trzeba mieć dokąd odejść, uciec?  Ale na takie lekarstwa stać tylko nielicznych. Do nich jednak należy przyszłość.

Skomentuj