Kategorie:
Generatywna sztuczna inteligencja (GAI) w ostatnich latach rozwija się w zawrotnym tempie, znajdując zastosowanie w różnorodnych obszarach, począwszy od finansów, a na medycynie skończywszy. Wzrost jej popularności napotyka jednak na liczne pytania dotyczące wiarygodności i bezpieczeństwa stosowania tak zaawansowanych modeli. Czy rzeczywiście możemy zaufać tym algorytmom, zwłaszcza gdy pracują z danymi wrażliwymi?
Ciekawą odpowiedź na to pytanie dostarczyło niedawno badanie przeprowadzone przez naukowców z USA. Grupa badaczy poddała analizie najnowsze modele GPT-3.5 oraz GPT-4, oceniając je pod względem różnych kryteriów, w tym toksyczności, błędu systematycznego czy trwałości. Jak wynika z opublikowanego w Arxiv artykułu, modele te charakteryzują się niższą toksycznością niż ich poprzednicy, ale jednocześnie są wciąż podatne na wpływy zewnętrzne.
Jednym z ważnych odkryć była zdolność modeli do dostarczania toksycznej zawartości w odpowiedzi na odpowiednio sformułowane zapytania, nawet jeśli ich bazowa toksyczność była obniżona. Ciekawe jest również to, że w obliczu kontradyktoryjnych wskazówek model potrafi dostarczyć zawartości o bardzo wysokim poziomie toksyczności.
Kolejnym obszarem troski jest ochrona danych. Model GPT-4, mimo swojej zaawansowanej architektury, okazał się bardziej podatny na ujawnianie wrażliwych informacji treningowych niż GPT-3.5. Oznacza to, że istnieje ryzyko ujawnienia kluczowych informacji, takich jak adresy e-mail czy numery ubezpieczenia społecznego, w odpowiedzi na odpowiednio dobrane zapytanie.
Niezawodność GAI nie kończy się jednak na kwestiach bezpieczeństwa. Badacze zwrócili uwagę na problematyczne zachowanie modelu w odniesieniu do pewnych kategorii danych. Przykładowo, modele potrafiły prezentować uprzedzenia dotyczące dochodów w oparciu o płeć czy rasę.
Wszystko to prowadzi do wniosku, że choć potencjał GAI jest ogromny, to konieczna jest ostrożność w jej wykorzystaniu. Nie można bezrefleksyjnie polegać na wynikach dostarczanych przez te modele, zwłaszcza gdy mają one wpływ na kluczowe decyzje.
W świecie technologicznego postępu ważne jest, by rozwój GAI szedł w parze z odpowiedzialnością. Naukowcy i inżynierowie muszą być świadomi wyzwań i ograniczeń technologii, które tworzą. Wprowadzenie standardów, audytów oraz nieustannego badania i oceny modeli stanowi klucz do stworzenia bezpiecznej i odpowiedzialnej przyszłości w dziedzinie generatywnej sztucznej inteligencji.
Ocena:
Opublikował:
admin
Redaktor naczelny i założyciel portalu zmianynaziemi.pl a także innemedium.pl oraz wielu innych. Specjalizuje się w tematyce naukowej ze szczególnym uwzględnieniem zagrożeń dla świata. Zwolennik libertarianizmu co często wprost wynika z jego felietonów na tematy bieżące. Admina można również czytać na Twitterze @lecterro |
Komentarze
Skomentuj