Niebezpieczna ewolucja generatywnej sztucznej inteligencji
Image

Generatywna sztuczna inteligencja (GAI) w ostatnich latach rozwija się w zawrotnym tempie, znajdując zastosowanie w różnorodnych obszarach, począwszy od finansów, a na medycynie skończywszy. Wzrost jej popularności napotyka jednak na liczne pytania dotyczące wiarygodności i bezpieczeństwa stosowania tak zaawansowanych modeli. Czy rzeczywiście możemy zaufać tym algorytmom, zwłaszcza gdy pracują z danymi wrażliwymi?
Ciekawą odpowiedź na to pytanie dostarczyło niedawno badanie przeprowadzone przez naukowców z USA. Grupa badaczy poddała analizie najnowsze modele GPT-3.5 oraz GPT-4, oceniając je pod względem różnych kryteriów, w tym toksyczności, błędu systematycznego czy trwałości. Jak wynika z opublikowanego w Arxiv artykułu, modele te charakteryzują się niższą toksycznością niż ich poprzednicy, ale jednocześnie są wciąż podatne na wpływy zewnętrzne.
Jednym z ważnych odkryć była zdolność modeli do dostarczania toksycznej zawartości w odpowiedzi na odpowiednio sformułowane zapytania, nawet jeśli ich bazowa toksyczność była obniżona. Ciekawe jest również to, że w obliczu kontradyktoryjnych wskazówek model potrafi dostarczyć zawartości o bardzo wysokim poziomie toksyczności.
Kolejnym obszarem troski jest ochrona danych. Model GPT-4, mimo swojej zaawansowanej architektury, okazał się bardziej podatny na ujawnianie wrażliwych informacji treningowych niż GPT-3.5. Oznacza to, że istnieje ryzyko ujawnienia kluczowych informacji, takich jak adresy e-mail czy numery ubezpieczenia społecznego, w odpowiedzi na odpowiednio dobrane zapytanie.
Niezawodność GAI nie kończy się jednak na kwestiach bezpieczeństwa. Badacze zwrócili uwagę na problematyczne zachowanie modelu w odniesieniu do pewnych kategorii danych. Przykładowo, modele potrafiły prezentować uprzedzenia dotyczące dochodów w oparciu o płeć czy rasę.
Wszystko to prowadzi do wniosku, że choć potencjał GAI jest ogromny, to konieczna jest ostrożność w jej wykorzystaniu. Nie można bezrefleksyjnie polegać na wynikach dostarczanych przez te modele, zwłaszcza gdy mają one wpływ na kluczowe decyzje.
W świecie technologicznego postępu ważne jest, by rozwój GAI szedł w parze z odpowiedzialnością. Naukowcy i inżynierowie muszą być świadomi wyzwań i ograniczeń technologii, które tworzą. Wprowadzenie standardów, audytów oraz nieustannego badania i oceny modeli stanowi klucz do stworzenia bezpiecznej i odpowiedzialnej przyszłości w dziedzinie generatywnej sztucznej inteligencji.
- Zaloguj lub zarejestruj się aby dodawać komentarze
- 924 odsłon
"modele potrafiły prezentować
"modele potrafiły prezentować uprzedzenia" - do momentu jak tęczowa narracja się nie wkradnie w linijki kodu tak będzie. Tzn AI patrzy na świat bez narzucanych emocji i bez zanieczyszczenia ideologicznego. To jest maszyna do analizy dostępnych danych. PS. nie podoba mi się tutaj określenie "model".