Inteligentne roboty mogą stanowić poważne zagrożenie dla ludzkości

Kategorie: 

Źródło: 123rf.com
Prace nad robotami i sztuczną inteligencją trwają w najlepsze, tymczasem Stephen Hawking uważa, że inteligentne maszyny mogą być "najgorszą rzeczą, jaka może się przytrafić ludzkości". Naukowiec jest przekonany o tym, że roboty nie mogą być postrzegane jedynie jako twór filmów science fiction a ludzkość powinna być przygotowana na ewentualne przyszłe zagrożenia.

 

Hawking starał się powiedzieć dokładnie to, co uważa na temat robotów i rozwoju sztucznej inteligencji - mózgu maszyn. Dziś, roboty nie posiadają jeszcze na tyle rozwiniętej inteligencji, aby mogły w poważnym stopniu zagrozić ludzkości, jednak prace rozwojowe nadal trwają. Przeznaczane są na to miliony, jeśli nie miliardy dolarów, więc można się spodziewać, że pewnego dnia robot będzie odznaczał się wyjątkową inteligencją.

 

Roboty i sztuczna inteligencja mają przede wszystkim ułatwić życie przeciętnego człowieka. Stephen Hawking widzi w tym jednak poważne zagrożenie, które nie może być ignorowane ani postrzegane jako wymysł reżyserów. Maszyny stają się coraz bardziej inteligentne i to jest fakt, jednak zdaniem naukowca, nasze dzieło może się kiedyś odwrócić przeciwko nam i doprowadzić nawet do upadku ludzkości.

 

Najlepszym wyjściem byłaby oczywiście całkowita rezygnacja z prac i całkowite porzucenie sztucznej inteligencji, jednak jeśli chcemy korzystać z maszyn, to zdaniem Hawkinga powinniśmy przygotować się na ewentualne zagrożenia. Jednym z nich jest przygotowanie odpowiednich działań na wypadek, gdyby technologia uzyskała zdolność do samodzielnego myślenia i przystosowania się do otoczenia.

 

"Potencjalne korzyści są ogromne. Wszystko, co ma do zaoferowania cywilizacja, jest wytworem ludzkiej inteligencji. Nie jesteśmy w stanie przewidzieć co możemy osiągnąć, gdy ta inteligencja zostanie spotęgowana przez narzędzia, posiadające sztuczną inteligencję, ale zwalczanie wojen, chorób i ubóstwa będzie znajdować się wysoko na liście każdej osoby. Sukces w tworzeniu sztucznej inteligencji będzie największym wydarzeniem w historii ludzkości. Niestety, może to też być ostatnie wydarzenie, jeśli nie nauczymy się jak unikać zagrożeń" - powiedział Stephen Hawking.

 

Sztuczna inteligencja może przydać się ludzkości, jednak obecnie jest ona implementowana w maszynach, które prowadzą działania wojenne. Autonomiczne systemy w uzbrojonych robotach są najpoważniejszym zagrożeniem, gdyż z czasem to właśnie one będą decydować o tym, kto ma zginąć, a kto ma żyć. To one będą znajdować się na polu walki a pełna autonomizacja oznacza iż to one będą decydować o tym, co robić, a czego nie robić.

 

Wystarczy dodać do tego jeszcze kwestię niespodziewanego uzyskania świadomości oraz czynnik, który spowoduje bunt maszyn. Wystarczy, że roboty uznają człowieka za zagrożenie dla środowiska naturalnego, życia zwierząt bądź dla samej egzystencji inteligentnych maszyn i wojna gotowa - scenariusz z filmu "Terminator" wejdzie w naszą rzeczywistość.

 

Stephen Hawking twierdzi również, że sztuczna inteligencja na wysokim poziomie może nawet przewyższyć człowieka w myśleniu a roboty zaczną konstruować swój własny świat lub będą ulepszać ten, który został stworzony przez ludzi. Maszyny mogą nawet tworzyć projekty własnych broni, których człowiek nie będzie w stanie nawet zrozumieć. Najważniejsze w tym wszystkim jest to, aby ludzkość zawsze miała pewną możliwość kontrolowania tego, co "myśli" robot, do jakich wniosków dochodzi oraz jakie może mieć zamiary. Ważne jest to, aby ludzkość mogła w ostatniej chwili zapobiec poważnej katastrofie.

 

 

Wiadomość pochodzi z portalu tylkonauka.pl

 

Źródło: http://tylkonauka.pl/wiadomosc/stephen-hawking-ostrzega-ze-roboty-moga-zagrozic-istnieniu-ludzkosci

Ocena: 

Nie ma jeszcze ocen
Opublikował: John Moll
Portret użytkownika John Moll

Redaktor współpracujący z portalem zmianynaziemi.pl niemal od samego początku jego istnienia. Specjalizuje się w wiadomościach naukowych oraz w problematyce Bliskiego Wschodu


Komentarze

Portret użytkownika Krzychu

Smieszne to jest. NIgdy nie

Smieszne to jest. NIgdy nie da stworzyc się układu autonomicznego mogacego mysleć abstrakcyjnie nie mowiac juz o uzyskaniu swiadomosci. To poprostu jest niemozliwe i nierealne. W innym wypadku taki uklad musial by poddawać tworczek krytyce samego siebie. Maszyna to tylko maszyna mniej lub bardziej skomplikowana, takie roboty mogą tylko i wylacznie być super skomplikowanymi urzadzeniami automatycznymi z duza iloscia funkcji w programie. Jaka swiadomość?? NIkt nie wie jak dziala świadomosć i skad sie bierze, tymbardziej nie można nic z tych rzeczy budować. za duzo filmow i komiksów czysta fikcja. Mozna stworzyc skomplikowany program, ktory bedzie imitował czysto automatycznie jakieś tam ludzkie objawy ale to tylko zawsze program..

Portret użytkownika Ja

z tego co się orientuję to

z tego co się orientuję to był/jest "pewien" instytut któremu udało się uzyskać moc obliczeniową stworzonych sztucznych sieci neuronowych porywnywalną z ludzkim mózgiem, jednak nie udało im się wycisnąć z S.I. więcej niż inteligencję czterolatka, wynikałoby z tego że coś więcej niż tylko tkanka mózgowa lub jej symulacja jest potrzebna do stworzenia inteligentnego samomyślącego twórczego bytu ;] teraz ten instytut pracuje głównie nad maszynami bojowymi ;]

Kochane pieniążki cóż by głupcy robili gdybyście nie istniały ;]

Portret użytkownika Krzychu

Inteligancja 4 -latka ,

Inteligancja 4 -latka , ciekawe. To, że zbudowali uklad dajacy wiele mozliwosci programowi , to nie znaczy, ze była to inteligencja. Za duzo filmów komiksów, zejdzmy na ziemię ludzie. Pozatym najbardziej rozbudowana siec neuronowa ma poprostu mozliwosc wyboru metody do do nawet najskompszych danych wejsciowych jest w stanie rozpoznac problem i dobrac mozliwosc rozwiazania jego. Natomiast niegdy nie zrobi tego swiadomie. Sieć neuronowa to bardzo potrzebna maszyna obliczeniowa i nic wiecej.

Portret użytkownika barra barra

Głupota ludzka rośnie

Głupota ludzka rośnie proporcjonalnie wraz ze wzrostem ludzkiej inteligencji. Tym samym głopota robotów nigdy nie wzrośnie, gdyż robot nigdy nie będzie sam myślał, co oznacza, że "inteligencją" nie prześcignie człowieka. Każdy niby robot, który widzimy robi to, co ma wgrane i z czego jest zbdowany, chcę przez to powiedzieć, że innych ruchów nie wykona i niczego nie poczuje ani nie zrobi czego nie ma w swoim programie/systemie. Problem władzy androidów nad ludzkością, polegać będzie na tym, że nastanie moment, kiedy ludzkość straci kontrolę nad adroidem. Łaczenie systemów na całym świecie w jeden, spowoduje błędy w systemach, których ludzkość nie będzie mogła rozwiązać. samoloty, auta, drony, roboty, zwykłe kompy, ... zacznie samoistnie wykonywać czynności w oparciu o swoją budowę. Zainfekowany system globalnym łączem zrobi dziwny reset. Dla przykładu podam, że np. dron wojskowy ma odpowiednią budowę, uzbrojenie i systemy umożliwiające poszukiwanie, naprowadzanie i unicestwienie swpjego celu. a jakie ma wgrane cele w swoim systemie? sami sobie odpowiedźcie.
 
To był ten programista z TERMINATORA, który niewiedział co głupiego wymyślił. Nastanie czas, kiedy człowiek powie: "Terminator z Arnoldem, też był wizją przyszłości". Mało kto wie, ze Iluminaci, to chrześcijańscy mnisi. Wielu ich nie lubi, a okazuje się, że to właśnie oni przekazują nam info w filmach o smutnej przyszłości (mnożyć można przykłądy, które wizjonersko zapowiadały przyszłość, którą już poznaliśmy). Później niech nikt nie mówi, ze nie było sygnałów a my nic z tym nie zrobiliśmy dla naszych dzieci i swoją bezczynnością zgotowaliśmy im gnój w życiu. Ten film pokazuje smutną prawdę.

Nadzwyczajne twierdzenia wymagają nadzwyczajnych dowodów

Portret użytkownika olo manolo

1) Oczywiscie ze sztuczna

1) Oczywiscie ze sztuczna inteligencja moze sama myslec (teoria podejmowania decyzji lezy u jej podstaw) w takim zakresie w jakim pozwala system i program. Problemem jest przewidywalnosc i okreslenie ograniczen jakim powinna podlegac - zle zdefiniowane lub zaimplementowane doprowadza do katastrofy

2) Niedoskonalosc alogorytmu - juz dzis, nawet w srednio zlozonych systemach, dochodzi do wykonywania programow w nieprzewidziany sposob

3) Programy ktore modyfikuja sie same - to juz jest znane od dawna i dosyc latwe do osiagniecia, sadze ze sztuczna inteligencja otworzy przed tymi technikami nowe horyznoty - i to jest dopiero niebezpieczne

4) Aby maszyna byla niebezpieczna nie potrzeba sztucznej inteligencji czy jej "przebudzenia". Wystarczy ukryty blad programisty lub projektanta systemu lub blad wdrozeniowy lub blad uzycia (ten moze spowodowac, a raczej ujawnic cala lawine pozostalych bledow) i dojdzie do lancucha wypadkow ktorego nie bedzie mozna zatrzymac albo katastrofy fatalnej w skutkach dla calej ludzkosci

PS.
Sadze ze powszechne wyobrazenie o "wojnie z maszynami" powstale w wyniku serii kinowych produkcji sie nie zisici. Predzej bedzie to cos w rodzaju sprowadzenia globalnej katastrofy, wyrafinowanego przejecia kontroli nad zasobami ludzkosci albo przejecia kontroli nad rzadami i na przyklad prowadzenie swoistej rozgrywki na mapie swiata (czyli maszyny zastapia ludzi ktorzy teraz to robia).

Strony

Skomentuj