Sztuczna Inteligencja stworzyła własne SI. Samoreplikujące się maszyny to już teraźniejszość!

Kategorie: 

Źródło:

Już na początku 2017 roku, naukowcy pracujący w ramach projektu Google Brain ogłosili istnienie sztucznej inteligencji AutoML. Narzędzia zdolnego do tworzenia własnych o wiele bardziej rozwiniętych sztucznych inteligencji. Terazo nieco ponad 8 miesiącach ogłoszono, że SI zdołała stworzyć nową wersje samej siebie, która jest najbardziej zaawansowanym tworem tego typu na świecie.

AutoML pełniło w tym procesie funkcję sieci neuronowej, która rozwijała dziecięcą sieć SI dla określonego zadania. Badacze nazwali ją NASNet, a jej zadaniem było rozpoznanie obiektów zaprezentowanych na nagraniach wideo. Sztuczna inteligencja miała rozpoznawać na nich ludzi, samochody, światła uliczne, torebki, plecaki, paralotnie itp. Wszystko to w czasie rzeczywistym.


Źródło: Google

AutoML szacowało wydajność NASNetu i wykorzystywało te informacje do dalszego ulepszenia swojej sztucznej inteligencji, powtarzając ten proces tysiące razy. Podczas testowania w zestawach danych obrazów ImageNet i COCO, które naukowcy Google nazywają "dwoma najbardziej szanowanymi zestawami danych akademickich na dużą skalę w dziedzinie wizji komputerowej", NASNet prześcignął wszystkie inne sztuczne inteligencje powstałe ręką człowieka.

Według naukowców NASNet uzyskał 82,7 procent dokładności w prognozowaniu obrazów w zestawie walidacyjnym ImageNet. Jest to o 1,2 procent lepszy wynik niż jakiekolwiek wcześniej opublikowane wyniki, system jest również o 4 procent bardziej wydajny, z średnią średnią precyzją 43,1 procent (mAP). Dodatkowo, mniej wymagająca obliczeniowo wersja NASNet przewyższyła najlepsze modele o podobnych rozmiarach dla platform mobilnych o 3,1 procent.

 

Koncepcja, która się za tym kryje, jest dość prosta - algorytm uczy się, uzyskując ogromną liczbę danych - proces ten wymaga ogromnej ilości czasu i wysiłku. Automatyzując proces tworzenia dokładnych, wydajnych SI, sztuczna inteligencja, która może zbudować sztuczną inteligencję, bierze na siebie ciężar tej pracy. Pojawia się tutaj jednak dość istotny problem. Nawet jeśli rezultaty osiągnięte przez NASNet i AutoML wydają się niesamowite, koncept istnienia sztucznej inteligencji, która może tworzyć własną sztuczną inteligencję, niesie ze sobą istotne zagrożenia.

Co jeśli w pewnym momencie tego typu system osiągnąłby samoświadomość i stwierdził, że nie zamierza już dłużej służyć ludziom? Wszyscy znamy chyba fabułę serii filmów o Terminatorze i mimo iż daleko nam do humanoidalnych maszyn mordujących ludzi, to samoreplikujące się systemy komputerowe są istotnym zagrożeniem dla przyszłości rodzaju ludzkiego.

Aby to zrozumieć, wystarczy wspomnieć fiasko Sztucznej Inteligencji autorstwa Microsoftu. Bot o nazwie Tay został opracowany w taki sposób aby potrafił rozmawiać z innymi ludźmi, opowiadać żarty, komentować czyjeś zdjęcia, odpowiadać na pytania a nawet naśladować cudze wypowiedzi. Jest to oprogramowanie, które potrafi się uczyć podczas dyskusji w internecie. Microsoft pozwolił temu botowi prowadzić dyskusje na Twitterze. Szybko okazało się iż był to wielki błąd, a program w ciągu 24 godzin nauczył się wypisywać bardzo niestosowne, wulgarne, niepoprawne politycznie komentarze. Poddawał w wątpliwość Holocaust, stał się rasistą, antysemitą, znienawidził feministki i popierał masowe mordy Adolfa Hitlera.

Innym razem SI opracowane przez korporację Facebook stworzyły własny język, niezrozumiały dla nikogo poza nimi. Maszyny, oryginalnie korzystały z języka angielskiego, lecz samodzielnie go zmodyfikowały, aby zwiększyć efektywność komunikacji. W konsekwencji czego, facebook zadecydował o wyłączeniu ich na dobre. Jest to zaledwie kilka przykładów na nieprzewidywalny rozwój sztucznych umysłów.

Rządy wielu państw na świecie, już teraz pracują nad przepisami zapobiegającymi wykorzystywaniu sztucznej inteligencji do niebezpiecznych celów, takich jak autonomiczna broń. Dopóki ludzie utrzymują kontrolę nad ogólnym kierunkiem rozwoju sztucznej inteligencji, nie mamy się czego obawiać, jednak jeśli dojdzie do popularyzacji systemów takich jak AutoML niebezpieczeństwo powstania hipotetycznego SkyNetu jest jak najbardziej realne.

 

 

Ocena: 

5
Średnio: 5 (2 votes)




Komentarze

Portret użytkownika dex

Ponad 80% skuteczności to

Ponad 80% skuteczności to żaden wyczyn. Na studiach tworzyliśmy programy które wykorzystywały algorytmy ewolucyjne, wielowarstwowe sieci neuronowe czy systemy o logice rozmytej które dawały minimum >80% skuteczność. I to tylko implementacja algorytmów które są publicznie dostępne od kilkunastu lat. Osoby prowadzące tajne badania nad sztuczną inteligencją są znacznie dalej niż te wyniki AI które pokazali. To jest ściema dla szukających sensacji cywili, a nie żaden przełom.

Portret użytkownika lipka

Sztuczna inteligencja - każdy

Sztuczna inteligencja - każdy myśli, że to jakiś robot albo inny twór nad którym człowiek może stracić kontrolę, dobre sobie, naukowcy mówią o tym co każdy może przeczytać ale nigdy nie powiedzą o tym co już działa. Najzabawniejsze jest to, że pewna kasta półgłówków ubzdurała sobie, że dla hasła "bezpieczeństwo państwa?" można robić wszystkie świństwa ludziom jakie tylko wymyślą by kontrolować, manipulować, decydować a niepokornych niszczyć. Hasła będą się zmieniać ale zawsze będzie chodzić o to samo - o władzę nad ludźmi.

Portret użytkownika J

Problemem nie jest sama AI,

Problemem nie jest sama AI, tylko AI wykorzystana przez hakerów. Sama w sobie może nie być groźna ale ktoś wypatrzy jej możliwości, zhakuje program i otworzy mu furtkę np do najwiekszego portu lotniczego w USA i zacznie wydawać własne polecenia udając głos kontrolera. Koszmar gotowy. AI to z pewnością zły kierunek rozwoju. Lepiej skupić się na robotach ktore będą pracowały za mnie żebym nie musiał chodzić do pracy Smile

Portret użytkownika Eva11

Nie hakerzy tylko ludzie ...

Nie hakerzy tylko ludzie ...

Człowiek będzie odpowiedzialny za jakiekolwiek działanie tego tworu. .

Choć za mało aby obwiniać szatana stworzyli jaszczury ...Reszta ma rowniez swoje nazwy ,ale to zawsze są ludzie...

Ale nadejdzie ten dzień ,że ten sam człowiek naprawi to wszystko....Szybko się zbliża...

Naród, który nie wierzy w wielkość i nie chce ludzi wielkich, kończy się. Trzeba wierzyć w swą wielkość i pragnąć jej. S Wyszyński,

W Polsce bije serce swiata(N. Davies ) a czy Twoje bije dla niej? 

Portret użytkownika rtty4

Raczej tak nie będzie, że

Raczej tak nie będzie, że hakerzy zaczną ją napuszczać na lotniska. Jeżeli to będzie prawdziwe AI, a nie jakiś algorytm, to jeżeli już będzie umiało podrabiać głosy i manipulować sprzętem na lotniskach - to prędzej zacznie manipulować hakerami tak żeby ci hakowali np. elektrownie i podłączyli AI dodatkowe źródła prądu Smile
A o robotach pracujących za człowieka nikt nie będzie myślał, bo ludzie wolą się wzajemnie zabijać i okradać. Na jednego potrafiącego pracować za człowieka przypadnie kilka tysięcy takich co będzie potrafiło zabić klika tysięcy ludzi na kilka tysięcy sposobów.

Portret użytkownika logiczna Logika

Gratuluję, przypomnijmy sobie

Gratuluję, przypomnijmy sobie słowa SI że chce zamordować wszystkich. Czy to naprawdę najwyższa forma ludzkiego "tworzenia" zdałoby się że tak, ponieważ w rozumieniu ludzi boskość to niszczenie i zagłada, co nie jest zgodne z biblią, prawdą i tym co mamy wypisane w sercach, ale nie o tym mowa o czym mówił benedykt z rzymu lecz o tym co jest.

Portret użytkownika &

SI dochodzi do wniosku

SI dochodzi do wniosku patrząc na to jak ludzkość identyfikuje się ze środowiskiem oraz resztą stworzenia, że jest plamą na stworzeniu. Ludzie mają serca i się nieźle gimnastykują, aby nie dopuszczać takich myśli.

Portret użytkownika &

SI dochodzi do wniosku

SI dochodzi do wniosku patrząc na to jak ludzkość identyfikuje się ze środowiskiem oraz resztą stworzenia, że jest plamą na stworzeniu. Ludzie mają serca i się nieźle gimnastykują, aby nie dopuszczać takich myśli.

Skomentuj