Niebezpieczna ewolucja generatywnej sztucznej inteligencji

Kategorie: 

Źródło: ZmianynaZiemi

Generatywna sztuczna inteligencja (GAI) w ostatnich latach rozwija się w zawrotnym tempie, znajdując zastosowanie w różnorodnych obszarach, począwszy od finansów, a na medycynie skończywszy. Wzrost jej popularności napotyka jednak na liczne pytania dotyczące wiarygodności i bezpieczeństwa stosowania tak zaawansowanych modeli. Czy rzeczywiście możemy zaufać tym algorytmom, zwłaszcza gdy pracują z danymi wrażliwymi?

Ciekawą odpowiedź na to pytanie dostarczyło niedawno badanie przeprowadzone przez naukowców z USA. Grupa badaczy poddała analizie najnowsze modele GPT-3.5 oraz GPT-4, oceniając je pod względem różnych kryteriów, w tym toksyczności, błędu systematycznego czy trwałości. Jak wynika z opublikowanego w Arxiv artykułu, modele te charakteryzują się niższą toksycznością niż ich poprzednicy, ale jednocześnie są wciąż podatne na wpływy zewnętrzne.

 

Jednym z ważnych odkryć była zdolność modeli do dostarczania toksycznej zawartości w odpowiedzi na odpowiednio sformułowane zapytania, nawet jeśli ich bazowa toksyczność była obniżona. Ciekawe jest również to, że w obliczu kontradyktoryjnych wskazówek model potrafi dostarczyć zawartości o bardzo wysokim poziomie toksyczności.

 

Kolejnym obszarem troski jest ochrona danych. Model GPT-4, mimo swojej zaawansowanej architektury, okazał się bardziej podatny na ujawnianie wrażliwych informacji treningowych niż GPT-3.5. Oznacza to, że istnieje ryzyko ujawnienia kluczowych informacji, takich jak adresy e-mail czy numery ubezpieczenia społecznego, w odpowiedzi na odpowiednio dobrane zapytanie.

 

Niezawodność GAI nie kończy się jednak na kwestiach bezpieczeństwa. Badacze zwrócili uwagę na problematyczne zachowanie modelu w odniesieniu do pewnych kategorii danych. Przykładowo, modele potrafiły prezentować uprzedzenia dotyczące dochodów w oparciu o płeć czy rasę.

 

Wszystko to prowadzi do wniosku, że choć potencjał GAI jest ogromny, to konieczna jest ostrożność w jej wykorzystaniu. Nie można bezrefleksyjnie polegać na wynikach dostarczanych przez te modele, zwłaszcza gdy mają one wpływ na kluczowe decyzje.

 

W świecie technologicznego postępu ważne jest, by rozwój GAI szedł w parze z odpowiedzialnością. Naukowcy i inżynierowie muszą być świadomi wyzwań i ograniczeń technologii, które tworzą. Wprowadzenie standardów, audytów oraz nieustannego badania i oceny modeli stanowi klucz do stworzenia bezpiecznej i odpowiedzialnej przyszłości w dziedzinie generatywnej sztucznej inteligencji.

Ocena: 

4
Średnio: 4 (1 vote)
Opublikował: admin
Portret użytkownika admin

Redaktor naczelny i założyciel portalu zmianynaziemi.pl a także innemedium.pl oraz wielu innych. Specjalizuje się w tematyce naukowej ze szczególnym uwzględnieniem zagrożeń dla świata. Zwolennik libertarianizmu co często wprost wynika z jego felietonów na tematy bieżące. Admina można również czytać na Twitterze   @lecterro


Komentarze

Portret użytkownika dd

"modele potrafiły prezentować

"modele potrafiły prezentować uprzedzenia" - do momentu jak tęczowa narracja się nie wkradnie w linijki kodu tak będzie. Tzn AI patrzy na świat bez narzucanych emocji i bez zanieczyszczenia ideologicznego. To jest maszyna do analizy dostępnych danych. PS. nie podoba mi się tutaj określenie "model".

Skomentuj