Kategorie:
To nie pierwszy raz, gdy słynny brytyjski fizyk teoretyczny, Stephen Hawking, wyraża zdanie, że rozwój sztucznej inteligencji może przynieść więcej problemów niż korzyści, a nawet zbuntować się przeciwko ludzkości.
Podczas otwarcia Centrum badań nad sztuczną inteligencją i przyszłością ludzkości w University of Cambridge, 74-letni popularyzator nauki podzielił się swoimi przemyśleniami na temat tworzenia myślących maszyn. Centrum badań nad sztuczną inteligencją i przyszłością ludzkości zostało opracowane przez uczelnie Cambridge i Oxford, Imperial College London oraz Uniwersytet California w Berkeley.
Hawking powiedział podczas otwarcia: "W przypadku amplifikacji naszej inteligencji szczególnie ważne jest to, że nie możemy przewidzieć skutków. Być może przy pomocy narzędzi nowej rewolucji technologicznej będziemy w stanie częściowo zrekompensować szkody spowodowane przez poprzednią rewolucję przemysłową".
Z jednej strony naukowcy uważają, że sztuczna inteligencja może być użyteczna do zwalczania chorób, eliminacji ubóstwa i przekształci pozytywnie wszystkie aspekty naszego życia. Jednak z drugiej strony, stworzenie sztucznej inteligencji może być ostatnią rewolucją technologiczną, jeśli ludzie nie nauczą się kontrolować jej ryzyka.
Korzyści sztucznej inteligencji pociągają za sobą także zagrożenia, np. potężnych broni jądrowych lub możliwości kontrolowania większości przez mniejszość, powiedział Hawking. Jego zdaniem rozwój sztucznej inteligencji może prowadzić także do poważnych problemów w gospodarce. Fizyk nie wyklucza także scenariusza rodem ze science-fiction, w którym sztuczna inteligencja dochodzi do samodoskonalenia i wchodzi w konflikt z ludzkością. "Wzrost silnej sztucznej inteligencji będzie najlepszym albo najgorszym, co kiedykolwiek przydarzyło się ludzkości" – podsumował naukowiec.
Źródło:
Ocena:
Opublikował:
Scarlet
|
Komentarze
Wszyscy zmierzamy w tym samym kierunku-z powrotem do Źródła.
Prawda nas wyzwoli,
Ale najpierw nas wku*wi.
https://youtu.be/IXy3tl64bGI
https://youtu.be/IXy3tl64bGI
Strony
Skomentuj