Korzystanie z generatywnej sztucznej inteligencji (AI) w biznesie przestało być jedynie modnym hasłem, a stało się nieodzownym elementem nowoczesnych firm, które przechodzą cyfrową transformację. Dla menedżerów i dyrektorów oznacza to, że wdrażanie AI nie jest już tylko technologiczną ciekawostką, stając się niezbędnym krokiem, aby utrzymać przewagę nad konkurencją. Tendencja ta jest już wyraźnie zauważalna w branży IT. Z raportu Capgemini Gen AI in software wynika, że aż 85% programistów zamierza korzystać z generatywnej AI w ciągu najbliższych dwóch lat. Dodatkowo, 80% badanych wskazuje, że automatyzacja prostych, powtarzalnych zadań za pomocą narzędzi AI znacząco zmieni charakter ich pracy, pozwalając im skupić się na bardziej wartościowych zadaniach.

Już teraz prawie połowa (46%) osób zajmujących się inżynierią oprogramowania korzysta z narzędzi AI w codziennych obowiązkach. Co więcej, specjaliści z różnych branż coraz częściej sięgają po generatywną sztuczną inteligencję, aby usprawnić swoje zadania. Zamiast zastanawiać się, czy warto wdrażać AI, powinniśmy zadać sobie pytanie, jak to robić w sposób bezpieczny i zgodny z interesami firmy.

Uwaga na fałszywe aplikacje i strony imitujące ChatGPT

Popularność ChatGPT rośnie w zawrotnym tempie, a szacuje się, że narzędzie to stanowi już 60% rynku generatywnej AI. Niestety, sukces ten został odnotowany przez cyberprzestępców, co prowadzi do rosnącego zagrożenia dla użytkowników.

– Statystyki są druzgocące – tylko w drugiej połowie 2023 r. ESET zablokował ponad 650 000 prób wejścia użytkowników na fałszywe strony związane z „chatgpt” lub podobnym tekstem w nazwie. Drugim znaczącym wektorem ataku na użytkowników jest reklamowanie i próba nakłonienia do instalacji fałszywych aplikacji bliźniaczo podobnych do Chat GPT. W sklepach z aplikacjami (szczególnie mobilnymi) zaroiło się od fałszywych kopii różnych aplikacji imitujących najnowsze wersje, np. ChatGPT 5, Sora czy MidJourney, zawierających złośliwe oprogramowanie – ostrzega Beniamin Szczepankiewicz, analityk z laboratorium antywirusowego ESET.

 

Chęć zaoszczędzenia czasu i usprawnienia pracy sprawia, że to właśnie pracownicy stają się najsłabszym ogniwem w systemie bezpieczeństwa, wprowadzając do firm niebezpieczne sytuacje. Po zainstalowaniu, fałszywe aplikacje mogą bombardować użytkowników reklamami, zachęcać do niepotrzebnych zakupów wewnątrz aplikacji, a nawet wymuszać subskrypcje usług, które nie istnieją lub są niskiej jakości.

– Odkryliśmy również próby oszustw, w których cyberprzestępcy, obiecywali dostęp do zaawansowanych możliwości sztucznej inteligencji, które miałyby zostać udostępnione za dodatkową opłatą. Znaczna część ataków jest przeprowadzana za pomocą reklam w mediach społecznościowych, gdzie masowo proponowane są użytkownikom fałszywe strony lub aplikacje – wyjaśnia Beniamin Szczepankiewicz.

 

Zainstalowane aplikacje, zarówno na komputerach, jak i na urządzeniach mobilnych, które nie są zweryfikowane, mogą zawierać złośliwe oprogramowanie. To z kolei umożliwia oszustom przejęcie kontroli nad urządzeniem, a tym samym dostęp do przechowywanych na nim danych, w tym informacji osobowych (także klientów), finansowych i innych wrażliwych danych. Otwiera to przed cyberprzestępcami drzwi do dalszych oszustw, takich jak wyłudzanie pieniędzy lub szantażowanie. Przejęcie danych uwierzytelniających do kont służbowych może prowadzić do bezpośredniego ataku na firmę lub jej klientów.

Praktyka pokazuje, że pracownicy korzystając z narzędzi AI, często zapominają o podstawowych zasadach bezpieczeństwa cyfrowego. Jak wynika z badań Cyberhaven Labs, ilość danych wprowadzanych do narzędzi AI przez pracowników wzrosła niemal sześciokrotnie w ciągu jednego roku, od marca 2023 roku do marca bieżącego roku! Pracownicy wprowadzają do tych systemów poufne informacje, takie jak dane finansowe, dane klientów i pracowników, co stwarza poważne zagrożenia. Należy pamiętać, że dane wprowadzone do narzędzi AI mogą być wykorzystywane do trenowania nowych wersji tych narzędzi, co obniża poziom prywatności i bezpieczeństwa.

Uważaj na fałszywe wtyczki tłumaczy

Cyberprzestępcy, zdając sobie sprawę z popularności AI, wykorzystują ów trend do nakłonienia użytkowników do instalacji fałszywych wtyczek, które na pierwszy rzut oka wyglądają jak prawdziwe. Przykładem jest wtyczka imitująca Google Translate, do której prowadzą fałszywe reklamy na Facebooku, często wykorzystujące wizerunek OpenAI lub Gemini. Choć na pierwszy rzut oka wydaje się, że mamy do czynienia z autentyczną wtyczką, w rzeczywistości jest to złośliwe oprogramowanie mające na celu kradzież danych logowania do Facebooka. W ciągu roku systemy ESET zarejestrowały i zablokowały około 4 000 prób tego rodzaju oszustw.

Generatywna sztuczna inteligencja oferuje przedsiębiorstwom ogromne możliwości, jednak jej wdrożenie wymaga odpowiedzialnego podejścia ze strony menedżerów i zarządów firm. Pozostawienie pracownikom zbyt dużej swobody w korzystaniu z tych narzędzi może prowadzić do wycieków danych, a w konsekwencji do strat finansowych i reputacyjnych. Jak można temu zapobiec? Kluczowe jest opracowanie w firmie polityk i procedur związanych z używaniem AI, regularne aktualizowanie oprogramowania antywirusowego oraz przeprowadzanie szkoleń wśród pracowników. Warto też przypominać o uniwersalnych zasadach dotyczących weryfikacji linków, w które się klika, oraz konieczności korzystania z wieloskładnikowego uwierzytelniania.

źródło: informacja prasowa
grafiki przygotowane przez DALL-E od ChatGPT