Giganci technologiczni wzywają do zawieszenia eksperymentów ze sztuczną inteligencją z obawy przed „poważnym zagrożeniem dla społeczeństwa”

Kategorie: 

Źródło: ZmianynaZiemi

Miliarder Elon Musk i wielu wtórujących mu ekspertów wezwało do wstrzymania rozwoju potężnych systemów sztucznej inteligencji (AI), aby dać czas na upewnienie się, że są one bezpieczne. List otwarty, podpisany przez ponad 1000 osób, w tym Muska i współzałożyciela Apple, Steve'a Wozniaka, został poproszony o wstrzymanie rozwoju chatbota GPT-4 przez wspieraną przez Microsoft firmę OpenAI. Firma twierdzi, że jej najnowszy model jest znacznie potężniejszy niż poprzednia wersja, która była używana do uruchamiania ChatGPT, bota zdolnego do generowania tekstów , ksiażek oprogramowania i wielu innych rzeczy.

 

Globalne implikacje eksplozji sztucznej inteligencji dla większości z nas są jeszcze całkowitą abstrakcją. Trzeba jednak uzmysłowić sobie, że AI zmieni świat n awet bardziej niż zmienił go Internet.


Zdaniem sygnatariuszy listu otwartego zatytułowanego „Zawiesić eksperymenty AI na dużą skalę”, "systemy sztucznej inteligencji z inteligencją podobną do ludzkiej mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości”. „Potężne systemy sztucznej inteligencji powinny być opracowywane dopiero po upewnieniu się, że ich wpływ będzie pozytywny, a ryzyka możliwe do opanowania”. Problem w tym, że niektórych ryzyk nie umiemy sobie nawet wyobrazić. 

Musk był pierwotnie inwestorem w OpenAI, spędził nawet kilka lat w radzie dyrektorów organizacji, ale wycofał się gdy jego firma motoryzacyjna Tesla zaczęła opracowywać własne systemy sztucznej inteligencji, aby między innymi zasilać technologię autonomicznej jazdy. Odejście motywował konfliktem interesów.

 

List, opublikowany przez finansowany przez Muska "Future of Life Institute", został podpisany przez wybitnych krytyków, a także konkurentów OpenAI, takich jak szef Stability AI, Emad Mostak. Kanadyjski pionier sztucznej inteligencji, Yoshua Bengio, który również podpisał list, ostrzegł na wirtualnej konferencji prasowej w Montrealu, że „społeczeństwo nie jest gotowe” na to potężne narzędzie i możliwe nadużycia.

„Zwolnijmy. Upewnijmy się, że stworzymy mocniejsze ogrodzenia” – powiedział, wzywając do gruntownej międzynarodowej dyskusji na temat sztucznej inteligencji i jej implikacji – „tak jak zrobiliśmy to w przypadku energii jądrowej i broni jądrowej”.

List cytuje post na blogu założyciela OpenAI, Sama Altmana, który zasugerował, że „w pewnym momencie może być ważne uzyskanie niezależnej recenzji przed przejściem do szkolenia zaawansowanych systemów”. „Zgadzamy się. Nadeszła ta chwila” – piszą autorzy listu otwartego.  „Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego zawieszenia szkoleń w zakresie systemów AI potężniejszych niż GPT-4 na co najmniej 6 miesięcy”.

Wezwali też rządy do interwencji i nałożenia moratorium, jeśli firmy nie osiągną porozumienia. Te sześć miesięcy należy wykorzystać na opracowanie protokołów bezpieczeństwa, systemów kontroli sztucznej inteligencji i ponowne ukierunkowanie badań na uczynienie systemów sztucznej inteligencji bezpieczniejszymi, dokładniejszymi, „niezawodnymi i lojalnymi”.

List nie zawierał szczegółowego opisu zagrożeń zidentyfikowanych poprzez pojawienie się GPT-4,  ale badacze, w tym Gary Marcus z New York University, który podpisał list, od dawna twierdzą, że chatboty są doskonałymi kłamcami i mogą stać się robo-trollami rozpowszechniającymi dezinformację.

 

Ocena: 

5
Średnio: 5 (1 vote)
Opublikował: admin
Portret użytkownika admin

Redaktor naczelny i założyciel portalu zmianynaziemi.pl a także innemedium.pl oraz wielu innych. Specjalizuje się w tematyce naukowej ze szczególnym uwzględnieniem zagrożeń dla świata. Zwolennik libertarianizmu co często wprost wynika z jego felietonów na tematy bieżące. Admina można również czytać na Twitterze   @lecterro


Komentarze

Strony

Skomentuj