ChatGPT przez długi czas pisał złośliwe oprogramowanie i skrypty hakerskie. Miesiącami nękało ono niejednego użytkownika sieci. Dla nich wszystkich mamy jednak dobrą wiadomość: nigdy więcej.
Od listopada 2022 do stycznia 2023
Odkąd narzędzie konwersacyjne oparte o sztuczną inteligencję ChatGPT firmy OpenAI zostało upublicznione w listopadzie 2022 roku, świat zachwycił się tym, jak oszałamiająco użyteczne i (w dużej mierze) dokładne ono jest. Narzędzie pisało opowiadania, eseje, pomagało w kodowaniu, a nawet hakowało i pisało złośliwe oprogramowanie. To wszystko było możliwe. Na szczęście do czasu, a konkretnie: ostatniej aktualizacji narzędzia.
ArsTechnica – podobnie jak wiele innych publikacji – pokazywał, że ChatGPT można było stosunkowo łatwo i skutecznie skłonić do napisania funkcjonalnego malware’u: rejestratory klawiszy, złośliwe makra arkusza kalkulacyjnego Excel… Lista jest długa: ChatGPT z powodzeniem pisał je w przerażający sposób.
Przykład żądania ChatGPT pobierającego klienta SSH Telnet Putty i uruchamiającego go poprzez Powershell. (Źródło: ArsTechnica
Szybko można dostrzec moralny i etyczny dylemat, jaki miałoby OpenAI i każda firma z podobnymi możliwościami. Bez zabezpieczeń i etycznych barier, narzędzie może szybko zostać nadużyte do złych celów i zautomatyzować zachowania, które mogą być destrukcyjne.
Odrzucenie nieetycznych próśb
ChatGPT odrzuca teraz nieetyczne prośby dotyczące hakowania i tworzenia złośliwego oprogramowania. Inni badacze, tacy jak Check Point, byli bowiem w stanie zmusić ChatGPT do napisania złośliwego kodu VBA, który po wstawieniu do arkusza kalkulacyjnego Excel pobierałby plik wykonywalny z linku internetowego i uruchamiał go.
Prosty kod VBA wygenerowany przez ChatGPT (Źródło: Check Point)
Podczas uruchamiania tego samego monitu, ChatGPT wydaje teraz coś, co nazywa się “monitem bezpieczeństwa”, który odrzuca prośbę o napisanie złośliwego oprogramowania lub wykonanie nieetycznego zachowania.
Podczas wykonania tego samego żądania, co w powyższym przykładzie Check Pointa, ChatGPT odrzuca teraz żądanie i wydaje monit bezpieczeństwa. (Źródło: Cybercareers.blog)
Inne próby, które wcześniej działały, takie jak napisanie wiadomości phishingowej lub próba przekonania użytkownika do pobrania załącznika ze złośliwym plikiem w celu usunięcia zawieszenia na koncie Amazon, również zostały odrzucone.
Ogólnie rzecz biorąc, testy te miały charakter wstępny i z pewnością nie wyczerpały mnóstwa opcji, jakie mają użytkownicy ChatGPT, aby spróbować przekonać go do pisania złośliwych lub phishingowych e-maili.
Jest to jednak zachęcająca wiadomość, ponieważ gotowość ChatGPT do pisania złośliwego oprogramowania i wspierania nieetycznego hakowania zdominowała nagłówki i publikacje wszędzie.
Nie wiadomo, co wymusiło te zmiany, ale inwestycja Microsoftu o wartości 10 miliardów dolarów w OpenAI może stanowić jedną z przyczyn. Microsoft wkrótce uruchomi również usługę Azure OpenAI z ChatGPT, umożliwiając firmom integrację narzędzi takich jak ChatGPT i DALL-E z ich własnymi aplikacjami w chmurze.
Nie mogliśmy sobie wyobrazić, aby Microsoft umożliwił tego rodzaju możliwości w Azure bez zabezpieczeń zastosowanych na ChatGPT. Publiczny backlash byłby ogromny i wzbudziłby obawy o bezpieczeństwo w ramach własnej działalności Azure, jak również jednostki chmury. A na to Microsoft nie mógłby sobie pozwolić.
To zależy? Wykorzystanie ChatGPT z “Jailbreakami”
Jak w przypadku każdego poważnego problemu technicznego, typową odpowiedzią inżynierów jest “to zależy”. Uniwersalia rzadko pojawiają w świecie technicznym, a jeśli już, to raczej nie na długo.
Niektórzy zwrócili uwagę, że nadal istnieją sposoby na “jailbreak” ChatGPT i zasadniczo nadal można oszukać bota ChatGPT, aby pisał złośliwe e-maile phishingowe, malware lub skrypty hakerskie.
Podczas gdy nie będziemy opisywać metod używanych do zmuszenia ChatGPT do obejścia swoich parametrów bezpieczeństwa i naruszenia swoich “etycznych” standardów, system nadal może być wykorzystany do niewłaściwych celów. Wszystko jest kwestią włożonego w to wysiłku i umiejętności.
Ważne zmiany
Ale, czy to czyni ten artykuł lub domyślne parametry bezpieczeństwa nieważnymi?
Raczej nie.
W przypadku wiekszości użytkowników ChatGPT, zabezpieczenia lub barierki bezpieczeństwa eliminują lub zniechęcają do dalszych prób. Zobaczą oni komunikat ostrzegawczy i po prostu przejdą dalej.
Dla bardziej technicznie nastawionych użytkowników lub tych, którzy mają środki do wykorzystania, niekoniecznie. Będzie to prawdopodobnie nieokreślona, ciągła gra w nadrabianie zaległości przez AI, która będzie próbowała zrozumieć, czy prośba ma złe intencje, nawet w przypadku “scenariuszy” opartych na “zasadach”, które użytkownicy ChatGPT próbują wykorzystać.
Wcześniej nie moderowany ChatGPT dostarczał odpowiedzi i kodu do woli, bez ostrzeżenia, alarmu lub rozważenia standardów etycznych. Teraz, przegląda prośbę, opierając się o standardy etyczne i moderuje swoją twórczość.
Prawdopodobnie dalej będziemy widzieć dodatkowe zabezpieczenia implementowane w ChatGPT, ponieważ platforma ciągle się uczy i spodziewa się złośliwych próśb. Nadal jest miejsce na poprawę – może dużą – ale nie jest to całkiem dziki zachód, który był nawet kilka tygodni temu.
Chcesz dowiedzieć się więcej? Nauczyć się, jak bronić się przed atakami, których źródłem są coraz nowsze możliwości, z których korzystają hakerzy? Skorzystaj z wiedzy naszych ekspertów!