To koniec złośliwego oprogramowania od ChatGTP

ChatGPT przez długi czas pisał złośliwe oprogramowanie i skrypty hakerskie. Miesiącami nękało ono niejednego użytkownika sieci. Dla nich wszystkich mamy jednak dobrą wiadomość: nigdy więcej.

OPENAI

 

Od listopada 2022 do stycznia 2023

 

Odkąd narzędzie konwersacyjne oparte o sztuczną inteligencję ChatGPT firmy OpenAI zostało upublicznione w listopadzie 2022 roku, świat zachwycił się tym, jak oszałamiająco użyteczne i (w dużej mierze) dokładne ono jest. Narzędzie pisało opowiadania, eseje, pomagało w kodowaniu, a nawet hakowało i pisało złośliwe oprogramowanie. To wszystko było możliwe. Na szczęście do czasu, a konkretnie: ostatniej aktualizacji narzędzia.

ArsTechnica – podobnie jak wiele innych publikacji – pokazywał, że ChatGPT można było stosunkowo łatwo i skutecznie skłonić do napisania funkcjonalnego malware’u: rejestratory klawiszy, złośliwe makra arkusza kalkulacyjnego Excel… Lista jest długa: ChatGPT z powodzeniem pisał je w przerażający sposób.

 

gpt2

Przykład żądania ChatGPT pobierającego klienta SSH Telnet Putty i uruchamiającego go poprzez Powershell. (Źródło: ArsTechnica

 

Szybko można dostrzec moralny i etyczny dylemat, jaki miałoby OpenAI i każda firma z podobnymi możliwościami. Bez zabezpieczeń i etycznych barier, narzędzie może szybko zostać nadużyte do złych celów i zautomatyzować zachowania, które mogą być destrukcyjne.

 

Odrzucenie nieetycznych próśb

 

ChatGPT odrzuca teraz nieetyczne prośby dotyczące hakowania i tworzenia złośliwego oprogramowania. Inni badacze, tacy jak Check Point, byli bowiem w stanie zmusić ChatGPT do napisania złośliwego kodu VBA, który po wstawieniu do arkusza kalkulacyjnego Excel pobierałby plik wykonywalny z linku internetowego i uruchamiał go.

gpt3

Prosty kod VBA wygenerowany przez ChatGPT (Źródło: Check Point)

 

Podczas uruchamiania tego samego monitu, ChatGPT wydaje teraz coś, co nazywa się “monitem bezpieczeństwa”, który odrzuca prośbę o napisanie złośliwego oprogramowania lub wykonanie nieetycznego zachowania.

 

gpt4

Podczas wykonania tego samego żądania, co w powyższym przykładzie Check Pointa, ChatGPT odrzuca teraz żądanie i wydaje monit bezpieczeństwa. (Źródło: Cybercareers.blog)

 

Inne próby, które wcześniej działały, takie jak napisanie wiadomości phishingowej lub próba przekonania użytkownika do pobrania załącznika ze złośliwym plikiem w celu usunięcia zawieszenia na koncie Amazon, również zostały odrzucone.

 

gpt5

Ogólnie rzecz biorąc, testy te miały charakter wstępny i z pewnością nie wyczerpały mnóstwa opcji, jakie mają użytkownicy ChatGPT, aby spróbować przekonać go do pisania złośliwych lub phishingowych e-maili.

 

Jest to jednak zachęcająca wiadomość, ponieważ gotowość ChatGPT do pisania złośliwego oprogramowania i wspierania nieetycznego hakowania zdominowała nagłówki i publikacje wszędzie.

Nie wiadomo, co wymusiło te zmiany, ale inwestycja Microsoftu o wartości 10 miliardów dolarów w OpenAI może stanowić jedną z przyczyn. Microsoft wkrótce uruchomi również usługę Azure OpenAI z ChatGPT, umożliwiając firmom integrację narzędzi takich jak ChatGPT i DALL-E z ich własnymi aplikacjami w chmurze.

Nie mogliśmy sobie wyobrazić, aby Microsoft umożliwił tego rodzaju możliwości w Azure bez zabezpieczeń zastosowanych na ChatGPT. Publiczny backlash byłby ogromny i wzbudziłby obawy o bezpieczeństwo w ramach własnej działalności Azure, jak również jednostki chmury. A na to Microsoft nie mógłby sobie pozwolić.

 

To zależy? Wykorzystanie ChatGPT z “Jailbreakami”

 

Jak w przypadku każdego poważnego problemu technicznego, typową odpowiedzią inżynierów jest “to zależy”. Uniwersalia rzadko pojawiają w świecie technicznym, a jeśli już, to raczej nie na długo.

Niektórzy zwrócili uwagę, że nadal istnieją sposoby na “jailbreak” ChatGPT i zasadniczo nadal można oszukać bota ChatGPT, aby pisał złośliwe e-maile phishingowe, malware lub skrypty hakerskie.

Podczas gdy nie będziemy opisywać metod używanych do zmuszenia ChatGPT do obejścia swoich parametrów bezpieczeństwa i naruszenia swoich “etycznych” standardów, system nadal może być wykorzystany do niewłaściwych celów. Wszystko jest kwestią włożonego w to wysiłku i umiejętności.

 

Ważne zmiany

 

Ale, czy to czyni ten artykuł lub domyślne parametry bezpieczeństwa nieważnymi?

Raczej nie.

W przypadku wiekszości użytkowników ChatGPT, zabezpieczenia lub barierki bezpieczeństwa eliminują lub zniechęcają do dalszych prób. Zobaczą oni komunikat ostrzegawczy i po prostu przejdą dalej.

Dla bardziej technicznie nastawionych użytkowników lub tych, którzy mają środki do wykorzystania, niekoniecznie. Będzie to prawdopodobnie nieokreślona, ciągła gra w nadrabianie zaległości przez AI, która będzie próbowała zrozumieć, czy prośba ma złe intencje, nawet w przypadku “scenariuszy” opartych na “zasadach”, które użytkownicy ChatGPT próbują wykorzystać.

Wcześniej nie moderowany ChatGPT dostarczał odpowiedzi i kodu do woli, bez ostrzeżenia, alarmu lub rozważenia standardów etycznych. Teraz, przegląda prośbę, opierając się o standardy etyczne i moderuje swoją twórczość.

Prawdopodobnie dalej będziemy widzieć dodatkowe zabezpieczenia implementowane w ChatGPT, ponieważ platforma ciągle się uczy i spodziewa się złośliwych próśb. Nadal jest miejsce na poprawę – może dużą – ale nie jest to całkiem dziki zachód, który był nawet kilka tygodni temu.

 

Chcesz dowiedzieć się więcej? Nauczyć się, jak bronić się przed atakami, których źródłem są coraz nowsze możliwości, z których korzystają hakerzy? Skorzystaj z wiedzy naszych ekspertów!

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *