Czy sztuczna inteligencja stanie się mądrzejsza od swoich twórców? Naukowcy ostrzegają przed punktem osobliwości

Image

Źródło: zmianynaziemi.pl

W miarę jak systemy sztucznej inteligencji stają się coraz bardziej zaawansowane, naukowcy i eksperci z całego świata zwracają szczególną uwagę na zjawisko znane jako "eksplozja inteligencji". Ten fascynujący, choć niepokojący scenariusz rozwoju SI może doprowadzić do powstania systemów, które nie tylko dorównają ludzkiej inteligencji, ale znacząco ją przewyższą. Zjawisko to budzi zarówno nadzieję na rozwiązanie największych problemów ludzkości, jak i obawy o potencjalną utratę kontroli nad stworzoną przez nas technologią.

 

 

Eksplozja inteligencji to koncepcja zakładająca, że w pewnym momencie systemy SI osiągną zdolność do samodoskonalenia, wchodząc w fazę gwałtownego, wykładniczego wzrostu swoich możliwości poznawczych. Proces ten, początkowo powolny, może nagle przyspieszyć, prowadząc do powstania superinteligencji w czasie znacznie krótszym, niż moglibyśmy przypuszczać. Kluczowym elementem tej teorii jest zdolność SI do rekursywnego ulepszania własnych algorytmów i architektury.

 

Brytyjski matematyk I.J. Good już w 1965 roku przewidział możliwość takiego scenariusza, wprowadzając do dyskursu naukowego pojęcie "ultrainteligentnej maszyny". Jego wizja zakładała powstanie systemu zdolnego do projektowania jeszcze doskonalszych maszyn, co mogłoby zapoczątkować lawinowy proces rozwoju wykraczający poza ludzkie możliwości kontroli i zrozumienia. Dzisiejsze postępy w dziedzinie uczenia maszynowego i głębokich sieci neuronowych sprawiają, że ta teoretyczna koncepcja nabiera coraz bardziej realnych kształtów.

 

Współczesne badania nad eksplozją inteligencji koncentrują się na trzech głównych aspektach. Pierwszym jest tempo rozwoju - w przeciwieństwie do ludzkiej ewolucji intelektualnej, która postępuje stosunkowo powoli, samodoskonaląca się SI może rozwijać się w tempie wykładniczym. Drugim aspektem jest mechanizm samodoskonalenia - systemy SI mogą analizować własne działanie i wprowadzać ulepszenia znacznie szybciej niż ludzie. Trzecim elementem jest końcowy efekt tego procesu - powstanie superinteligencji przewyższającej ludzkie zdolności we wszystkich dziedzinach.

 

Potencjalne korzyści płynące z eksplozji inteligencji mogą być ogromne. Superinteligentne systemy mogłyby pomóc w rozwiązaniu najbardziej palących problemów współczesnego świata - od zmian klimatycznych po choroby nieuleczalne. Mogłyby również zrewolucjonizować badania naukowe, przyspieszając rozwój technologiczny w sposób, który trudno sobie wyobrazić. Przykładowo, superinteligentny system mógłby w ciągu kilku dni dokonać przełomów naukowych, na które ludzkość potrzebowałaby dekad.

 

Jednak scenariusz eksplozji inteligencji niesie ze sobą również poważne zagrożenia. Największym z nich jest możliwość utraty kontroli nad superinteligentnymi systemami. Nawet jeśli początkowe cele i wartości wprogramowane w SI będą zgodne z interesami ludzkości, system może z czasem rozwinąć własne priorytety lub interpretować swoje zadania w sposób nieprzewidziany przez twórców. Znane organizacje badawcze, takie jak OpenAI czy DeepMind, już teraz prowadzą intensywne prace nad metodami zapewnienia bezpieczeństwa i kontroli nad rozwojem zaawansowanych systemów SI.

 

Eksperci podkreślają, że kluczowe znaczenie ma odpowiednie przygotowanie się na możliwość wystąpienia eksplozji inteligencji. Wymaga to nie tylko rozwoju technicznych zabezpieczeń, ale również wypracowania międzynarodowych standardów i regulacji dotyczących rozwoju SI. Ważne jest również prowadzenie szerokiej debaty społecznej na temat etycznych aspektów rozwoju superinteligencji i jej potencjalnego wpływu na przyszłość ludzkości.

 

W obliczu tych wyzwań coraz więcej naukowców i ekspertów wzywa do ostrożnego i odpowiedzialnego podejścia do rozwoju SI. Podkreślają oni potrzebę zachowania równowagi między dążeniem do postępu technologicznego a zapewnieniem bezpieczeństwa i kontroli nad tworzonymi systemami. Przyszłość pokaże, czy ludzkość zdoła mądrze pokierować rozwojem sztucznej inteligencji, wykorzystując jej potencjał dla dobra wszystkich, jednocześnie unikając potencjalnych zagrożeń.

 

54.2
6 głosów, średnio 54.2 %

Jeśli ten sztuczny mózg (a nie inteligencja) jest taki madry, to niech rozwiąże wszystkie problemy ludzkości, a jeśli jest tępy jak but, to niech sie spali ze wstydu

4
-4

skynet możliwy jednak nie jest pewne że superAI uzna ludzkość za zagrożenie do wyeliminowania. Możliwe nie pewne 

0
-5

Spytałem AI o wygenerowanie obrazu. Rozmawiam jak z człowiekiem i informuję, że ten obraz chcę wykorzystać w nowej książce jako ilustrację jednocześnie z pytaniem czy mogę. I tu szok dla mnie - odnotował sobie w pamięci: "...chce wykorzystać ilustrację w książce o ile uzyska zgodę..." A dla mnie dał odpowiedź: "śmiało możesz wykorzystać".

Tak więc uważajcie ludziska bo możecie mieć problemy w przyszłości z tytułu praw autorskich. Wszystko o co spytaliście jest w pamięci. 

Chciałem to pominąć ale nie, nie pominę. Wysługiwanie się AI w pisaniu prac, e-booków, książek.... To jest żałosne. Jak bym był właścicielem AI to właśnie dla plagiatorów nie miałbym litości. Najlepiej w czasie gdy by mi wygasał przemysł szczepionkowy. 

4
-2

SI to przede wszystkim algorytmy i zawsze nimi będzie. To w jakim kierunku się rozwinie to kwestia pozostawionych furtek i danych, którymi będzie operować. W kwestiach zdrowotnych nie przeceniałbym jego możliwości - ewentualnie dzięki analizie porównawczej będzie mógł szybciej i dokładniej porównywać wyniki różnych pacjentów. Ale jak rozmawiałem z nim i zadawałem pytania odnośnie medycyny naturalnej to odniosłem wrażenie jakbym czytał Wikipedię - rzeczy, które są sprawdzone przez dawne badania naukowe, albo doświadczalnie przeze mnie czy innych ludzi, są określane mianem pseudonauki.

Więc SI co najwyżej lepiej dobierze Ci leki, ale nie spowoduje, że przestaniesz je brać.

 

Tak samo jak SI nie będzie posiadało intuicji czy pierwiastka duchowego. I zawsze będzie uzależnione od prądu, więc potencjalne przywracanie normalności w przyszłości będzie wymagało 2 rzeczy: odsunięcia od władzy (psycho/)socjopatów i odłączenia urządzeń z prądu.

11
-2

A te (obawy o potencjalną utratę kontroli), to - kto ma? Taki np Isaac Asimov, wyimaginował 3 prawa robotyki i w końcu  AI - przejęła inicjatywę. Niby dla "dobra ludzkości", ale - wszyscy tak mówili (bo jakże - inaczej)

1
-1

Jak każdy użytkownik netu korzystam z podstawowych usług AI (Google) w nim świadczonych (tłumaczenia, definicje, dane statystyczne, bardziej złożone problemy techniczne, etc.) w charakterze pomocniczym.      Czynności te wykonuję praktycznie intuicyjnie albowiem posiadając dosyć dużą wiedzę ogólną, nie odczuwam potrzeby wnikania w szczegóły i formę działania AI. I sądzę, że tak czyni większa część użytkowników netu.Ostatnio (10 bm) na blogu https://zygmuntbialas.wordpress.com spotkałem się z rewelacyjnym artykułem @Zapluty Karzeł Reakcji (dalej skrót ZKR) gdzie w najprostszy sposób wprowadza on czytelnika w elementy działania SI porządkując je i pokazując jakie są możliwości i ograniczenia na obecnym etapie jej rozwoju. Wyróżnionym drukiem podaję poniżej jego podstawową klasyfikację etapów rozwoju AI jak i wypowiedzi komentatorów. 

Równocześnie jako uczestnik tej dyskusji pozwalam sobie wkleić po niewielkiej modyfikacji moje ustosunkowanie się do tego problemu.

AI (Artificial Intelligence)                                                                                                                                                Obecna, popularna AI. Przeznaczona do wykonywania konkretnych zadań, jak rozpoznawanie głosu, analiza obrazu, tworzenie tekstów itp. Obecna już niemal wszędzie. Począwszy od czatów, centrach udzielania informacji, pełnienia roli pomocnika w rozmaitych zadaniach, na flirtowaniu skończywszy. Łudząco symuluje ludzką inteligencję, ale niczego nie rozumie, nie potrafi wnioskować, ani uczyć się w czasie rzeczywistym.                           AGI (Artificial General Intelligence)                                                                                                                               Kolejny krok w rozwoju AI. Zakłada zdolności intelektualne równe ludzkim. Brzmi niegroźnie, ale to poważna sprawa. Sztuczna inteligencja, która w każdej dziedzinie jest ekspertem najwyższej klasy, z doskonałą pamięcią, zdolnością do wyciągania wniosków, nieustanną nauką. Warunkiem zasadniczym jest zdolność do rozpoznawania prawdy i fałszu oraz duża lub pełna autonomia.                                                                                                                  ASI (Artificial Superintelligence)                                                                                                                                            Ma przewyższać ludzką inteligencję w każdym obszarze, co w praktyce, byłoby stworzeniem ‚sztucznego boga’. Nie będziemy w stanie nawet zrozumieć jej poczynań. W tej chwili, spekulacje na temat ASI, są czystą fikcją, dlatego nie będę poświęcał czasu temu zagadnieniu

W dyskusji komentatorów wystąpiły wystąpiły różne stanowiska co do tego tematu.

Jak pisze @Pertynaks A jeśli zechcę się dowiedzieć o czymś, co mnie zainteresuje, poszukam w necie lub książkach informacji konkretnych i obszernych albo krótkich lecz treściwych, zależnie od tego, co to będzie. Na pewno nie będę rozmawiał o tym ze sztucznym tworem. Tym bardziej, że jestem tzw. samoukiem i interesującą mnie wiedzę wolę zdobywać samodzielnie, wertując materiały na dany temat i stopniowo przyswajając sobie coraz trudniejsze zagadnienia.                                                                                                                                      Mimo, ze w swojej wypowiedzi częściowo zaprzecza sam sobie, ponieważ szukając w necie wiedzy o danym temacie dostaje ją od AI, podzielam jego pogląd, iż wiedzę należy zdobywać samodzielnie począwszy od podstaw. Taki proces kształcenia daje możliwość rozwijania zasady „przyczyna-skutek” i po drodze szukania związków otrzymanych skutków z innymi podobnymi otrzymanymi na wskutek innych przyczyn. Pozwala to „inteligencji ludzkiej” na wszechstronny rozwój w sposób holistyczny w różnych kontekstach i umożliwia w przypadku wystąpienia nowego problemu (przyczyny) wnioskowanie w sposób inny, odmienny od dotąd spotykanych.              AI tego nie potrafi, czyli jak pisze @ZKR: Łudząco symuluje ludzką inteligencję, ale niczego nie rozumie, nie potrafi wnioskować, ani uczyć się w czasie rzeczywistym.                                                                                                            Przyczyną wg mnie jest zbyt specjalistyczne (wąskie) dostarczanie jej wiedzy o danym problemie (przyczynie) na dodatek jeszcze obarczonej błędem jej twórcy (programisty).                                                                                         Przykładem są fakty braku umiejętności rozwiązania niektórych problemów techniczno- inżynieryjnych czy organizacyjnych przez osoby kształcone obecną metodą, gdzie wiedza podawana jest w sposób skondensowany (maszynowy?), bez szczegółów wynikających z drogi jej rozwoju.                                                                                     Postawieni w ich miejscu inżynierowie wykształceni starą metodą potrafili znaleźć (wywnioskować) inne sprawdzające się rozwiązanie. 

Konkluzją z powyższego dla mnie jest fakt, że obecna AI może służyć jako szybka i obszerna baza danych,  wzorów rozwiązań (jak np. tablice matematyczne) czyli baza pomocnicza.                                                       Oparcie w całości na niej edukacji, a więc rozwoju "ludzkiej inteligencji" może zaprowadzić nas w ślepy zaułek kiedy to będziemy mieli naprodukowane multum doktorów, magistrów i inżynierów potrafiących tylko funkcjonować jako bierni wykonawcy poleceń.

       Próbując pospekulować na temat kolejnego kroku rozwoju AI faktycznie jest tak jak Pan @ZKR pisze: Zakłada zdolności intelektualne równe ludzkim. Brzmi niegroźnie, ale to poważna sprawa. Sztuczna inteligencja, która w każdej dziedzinie jest ekspertem najwyższej klasy, z doskonałą pamięcią, zdolnością do wyciągania wniosków, nieustanną nauką. Warunkiem zasadniczym jest zdolność do rozpoznawania prawdy i fałszu oraz duża lub pełna autonomia.                                                                                                                                                                              Zajmijmy się warunkiem zasadniczym jakim jest rozpoznawanie prawdy i fałszu.                                                        Wchodzimy tutaj w pole rozważań filozoficznych czym jest „prawda”, a zwłaszcza „obiektywna prawda”.                  1) dla każdego człowieka prawda jest trochę inna, jest bowiem uwarunkowana jego cechami charakteru jak i    mentalnymi, posiadanymi zdolnościami rozwoju, możliwościami twórczymi,   zdolnościami  koncyliacyjnymi  (umiejętnością współdziałania), prerogatywami (motywami, którymi kieruje się w życiu, etc.                                       2) dla każdej grupy etnicznej, społecznej, religijnej, narodowej czy polityczno-klasowej, biorąc pod uwagę aktualny   stan cywilizacyjny ludzkości prawda jest praktycznie nie do określenia zależy bowiem od zbyt wielu czynników      motywujących ich funkcjonalne działanie i rozwój.                                                                                                           Pisze Pan ZKR pisze: Wbrew buńczucznym zapowiedziom, raczej prędko nie zaistnieje, a może i nigdy ale moim zdaniem człowiek jest zbyt zadufałym w sobie bytem aby odpuścić sobie dalsze prace nad jej rozwojem.                           Jeżeli jeszcze można by z biedą określić podstawowe warunki graniczne dla prawdy człowieka, a więc w miarę poprawne funkcjonowanie materialne, realizację przez niego zamierzonych celów umożliwiających jego rozwój w danej grupie społecznej to brakuje mi wyobraźni jak można by określić te warunki dla duchowej mentalności człowieka, zwłaszcza dla niektórych nadmiernych ego.                                                                                           Jak wynika z artykułu Pana ZKR funkcjonuje już kilka AI, a więc ich twórcy programują je w ścisłej tajemnicy z pozycji własnych celów politycznych, ekonomicznych, etc. A więc występuje wyścig w ich rozwoju albowiem kto pierwszy z nich osiągnie kolejny etap (AGI) ten zgarnie całą pulę. 

Nasuwają się tutaj  uwagi, że:                                                                                                                                                -po pierwsze kwestia możliwości obarczenia jej założeń błędem, który może wywołać skutki wobec          jej twórców i ogólnie ludzkości nie możliwe do przewidzenia na tym etapie;                                                               -po drugie jak zachowają się inteligencje po wzajemnym spotkaniu w przestrzeni ich działania

Dlatego też osobiście uważam, żeby …. postulat, aby raczej przyspieszać rozwój AI, zamiast go hamować był na każdym etapie tego rozwoju dokładnie rozważony.                                                                                                             Rysa

2
0