Pentagon zamierza pozwolić sztucznej inteligencji na podejmowanie niezależnych decyzji o zabijaniu ludzi

Kategorie: 

Źródło: zmianynaziemi.pl

Rozwój technologii związanych z bezzałogowymi statkami powietrznymi sterowanymi sztuczną inteligencją (AI) wywołuje poważne obawy etyczne i strategiczne na arenie międzynarodowej. Według doniesień The New York Times, Stany Zjednoczone, Chiny, Izrael oraz inne kraje aktywnie pracują nad rozwijaniem tzw. „robotów-zabójców”, czyli maszyn zdolnych do podejmowania decyzji o eliminacji ludzkich celów bez bezpośredniego nadzoru człowieka.

 

Krytycy tej technologii wyrażają obawy, że przekazanie maszynom decyzji o życiu i śmierci na polu bitwy może prowadzić do niepokojących konsekwencji. Podkreślają, że autonomiczne systemy uzbrojenia, podejmujące decyzje bez ludzkiej interwencji, stwarzają ryzyko naruszenia zasad etycznych i prawa międzynarodowego.

 

Zgodnie z raportem Pentagonu, Stany Zjednoczone intensywnie pracują nad rozmieszczeniem sztucznie inteligentnych dronów, które mogą działać w formie rojów. Zastępca sekretarza obrony USA, Kathleen Hicks, podkreśliła, że takie technologie, jak roje dronów sterowanych przez AI, mogą pomóc USA zrównoważyć przewagę liczebną Chińskiej Armii Ludowo-Wyzwoleńczej (PLA) pod względem broni i ludzi. Hicks stwierdziła, że amerykańska „masa” będzie trudniejsza do trafienia i pokonania.

 

Frank Kendall, sekretarz Sił Powietrznych USA, wskazał na konieczność wyposażenia dronów w AI zdolną do samodzielnego podejmowania decyzji o zabijaniu celów. Wskazuje to na strategiczną potrzebę adaptacji do nowoczesnego pola bitwy, gdzie szybkość i skuteczność decyzji mogą decydować o wyniku konfliktu. Kendall podkreśla, że wstrzymywanie się od takich działań mogłoby dać przewagę przeciwnikom.

 

Ten rozwój technologiczny budzi pytania dotyczące odpowiedzialności za działania autonomicznych systemów uzbrojenia oraz ich wpływu na przyszłość prowadzenia działań wojennych. Wyzwania związane z integracją „robotów-zabójców” w strukturach obronnych są zarówno techniczne, jak i moralne, co stawia przed decydentami trudne pytania o granice wykorzystania technologii AI w dziedzinie obronności.

Ocena: 

5
Średnio: 5 (1 vote)
Opublikował: admin
Portret użytkownika admin

Redaktor naczelny i założyciel portalu zmianynaziemi.pl a także innemedium.pl oraz wielu innych. Specjalizuje się w tematyce naukowej ze szczególnym uwzględnieniem zagrożeń dla świata. Zwolennik libertarianizmu co często wprost wynika z jego felietonów na tematy bieżące. Admina można również czytać na Twitterze   @lecterro


Komentarze

Portret użytkownika ba19

Tylko nie biorą jednego pod 

Tylko nie biorą jednego pod  uwagę,  czyj to dron,  który został wyprodukowany  i podejmuje decyzje , to ten za ten dron odpowiada , nie róbcie  z ludzi wariatów , bo jest zasada :

Galatów 6:  Nie dajcie się wprowadzić w błąd:+ Bóg nie jest kimś, z kogo można drwić.+ Albowiem co człowiek sieje, to będzie też żąć;+

Tego drona jakiś człowiek, kraj  wyprodukował i za niego odpowiada !!!!!

Rzymian 14; 12  Tak więc każdy z nas sam za siebie zda sprawę Bogu.+

Objawienia 22: 12  „‚Oto przychodzę szybko+ — a zapłata,+ którą daję, jest ze mną — aby każdemu oddać według tego, jakie jest jego dzieło.+

Portret użytkownika wiktor wektor

I tu warto się zastanowić nad

I tu warto się zastanowić nad rolą filmów fantastycznych, które ukazują taką zrobotyzowaną przyszłość (Robocop, Terminator itp.) Bo czym skorupka za młodu nasiąknie tym na starość trąci. Wychodzi więc na to że ci którzy się takich produkcji naoglądali i nimi zafascynowali, teraz gdy już są dorośli i mają wpływ na rzeczywistość, starają się te projekcje z dawnych lat zrealizować. Rodzi się tylko pytanie: czy jest to przypadkowa zbieżność, czy też ktoś celowo w ten sposób "programuje" nowe pokolenia ? Fanatyków chcących zawładnąć światem i zmienić w nim wszystko wszak nie brakuje. 

Skomentuj