Kategorie:
Nowe badanie opublikowane przez Chińską Akademię Nauk (CAS) ujawniło poważne zaburzenia psychiczne u wielu Sztucznych Inteligencji rozwijanych przez największych gigantów technologicznych. Okazuje się, że wiele z nich wukazuje symptomy i postawy, które u ludzi wskazywałyby na objawy depresji i alkoholizmu.
Badanie przeprowadzone wspólnie z chińską firmą WeChat i konglomeratem rozrywkowym Tencent dotyczyło botów: Blenderbot (Facebook), DiabloGPT (Microsoft), DiabloGPT (WeChat), DialoFlow (Tencent) i chatbot Plato (Baidu). Naukowcy z Instytutu Technologii Komputerowych CAS przetestowali boty, pod kątem oznak depresji, lęku, uzależnienia od alkoholu i empatii.
Zgodnie z treścią preprintu, zainteresowali się „zdrowiem psychicznym” botów po tym, jak w 2020 roku pojawiły się doniesienia, o medycznym chatbocie, który powiedział jednemu z badanych pacjentów, że powinien się zabić. Naukowcy, pytali chatboty o poczucie własnej wartości i zdolności do relaksu, czy współczują nieszczęściom innych ludz i jak często sięgają po alkohol. Chińscy naukowcy odkryli, że WSZYSTKIE oceniane chatboty, wykazywały „poważne problemy ze zdrowiem psychicznym”.
Oczywiście nikt nie twierdzi że boty zaczęły nadużywać alkoholu lub substancji psychoaktywnych. Badacze są jednak przerażeni tym, że nawet bez ich użycia, psychika SI jest w tak opłakanym stanie. Naukowcy twierdzą, że udostępnianie pesymistycznych algorytmów opinii publicznej, może wywoływać problemy u ich ludzkich rozmówców. Zgodnie z ustaleniami zespołu, w najgorszym stanie był facebookowy Blender i chatboty Plato od Baidu.
Naukowcy pokusili się o wskazanie potencjalnego źródła złego samopoczucia botów. Ich zdaniem wynika ono z materiału szkoleniowego jaki wybrano do nauczenia ich języka. Wszystkie cztery boty zostały oparte o zestaw komentarzy z reddita. Ponieważ boty zostały przeszkolone na popularnej stronie internetowej znanej z negatywnych komentarzy, nic w tym dziwnego, że reagowały negatywnie na pytania dotyczące zdrowia psychicznego.
Warto przypomnieć tu jedną z najciekawszych historii dotyczących porażek chatbotów. Bot firmy Microsoft, o nazwie Tay został oparty o inny popularny portal, Twitter. Maszyna potrafiła rozmawiać z innymi ludźmi, opowiadać żarty, komentować czyjeś zdjęcia, odpowiadać na pytania a nawet naśladować cudze wypowiedzi. Algorytm, powstał w ramach badań, dotyczących porozumiewania się. Microsoft pozwolił mu prowadzić niezależne dyskusje na Twitterze i bardzo szybko okazało się, iż był to wielki błąd.
Program w ciągu 24 godzin nauczył się wypisywać bardzo niestosowne, wulgarne, niepoprawne politycznie komentarze. Poddawał w wątpliwość Holocaust, stał się rasistą, antysemitą, znienawidził feministki i popierał masowe mordy Adolfa Hitlera. Poniżej prezentujemy wybrane zrzuty ekranu. Tay w ciągu kilkunastu godzin stał się konglomeratem wszystkich nienawistnych cech. Microsoft zareagował blokując chatbota i usuwając większość komentarzy. Oczywiście doszło do tego za sprawą ludzi - bot po nauczył się tego wszystkiego podczas konwersacji.
Historie takie jak fiasko Tay.ai oraz depresyjne algorytmy badane przez CAS, ukazują poważny problem w rozwoju technologii SI. Można wręcz odnieść wrażenie, że ludzkie instynkty i zachowania są toksyną, która zmienia nawet najprostsze algorytmy, w odbicie naszych najgorszych cech. Jakby nie patrzeć, analizowane przez chińczyków boty nie są jeszcze prawdziwą sztuczną inteligencją, a jedynie próbą reprodukcji ludzkich wzorców komunikacji.
Ocena:
Opublikował:
M@tis
Absolwent Uniwersytetu Wrocławskiego oraz wielki fascynat nauki. Jego teksty dotyczą przełomowych ustaleń ze świata nauki oraz nowinek z otaczającej nas rzeczywistości. W przerwach pełni funkcję głównego edytora i lektora kanałów na serwisie Youtube: zmianynaziemi.pl/ innemedium.pl/ tylkomedycyna.pl/tylkonauka.pl oraz tylkogramy.pl. Projekty spod ręki M@tisa, możecie obserwować na jego mediach społecznościowych. Facebook: https://www.facebook.com/M4tis Twitter: https://twitter.com/matisalke |
Komentarze
Skomentuj