W ostatnich miesiącach ilość danych wprowadzanych przez pracowników do narzędzi generatywnej sztucznej inteligencji gwałtownie wzrosła. Od marca 2023 do marca 2024 odnotowano niemal sześciokrotny wzrost (485%). Badania przeprowadzone przez Cyberhaven Labs ujawniają, że pracownicy często korzystają z prywatnych kont, co stanowi poważne zagrożenie dla organizacji, ponieważ ponad ¼ tych informacji to dane wrażliwe.
Niebezpieczeństwo związane z korzystaniem z prywatnych kont
Rosnąca popularność narzędzi AI sprawia, że coraz więcej pracowników wykorzystuje je do wykonywania swoich obowiązków zawodowych. Niestety, większość z nich korzysta z prywatnych kont, które nie są monitorowane przez działy IT. Modele LLM (Large Language Model) gromadzą wprowadzone informacje w swojej bazie danych, a wiele z nich to dane wrażliwe, które nie powinny opuszczać firmy.
Niekontrolowany przepływ informacji
Analiza Cyberhaven Labs, obejmująca 3 miliony pracowników, wykazała, że od marca 2023 do marca 2024 ilość danych korporacyjnych wprowadzanych do narzędzi AI wzrosła o 485%. Pracownicy korzystają głównie z narzędzi oferowanych przez gigantów technologicznych takich jak OpenAI, Google i Microsoft (96%).
Najwięcej danych wprowadzają pracownicy firm technologicznych. W marcu tego roku aż 23,6% z nich używało narzędzi AI do wprowadzania danych firmowych. Częstotliwość tego zjawiska wśród pracowników tej branży była wyjątkowo wysoka – odnotowano ponad 2 miliony zdarzeń na 100 tys. pracowników wprowadzających dane i 1,7 miliona zdarzeń ich kopiowania. Z narzędzi AI korzystali także pracownicy sektora mediów i rozrywki (5,2%), finansów (4,7%) oraz firm farmaceutycznych (2,8%).
Wzrost wprowadzania danych wrażliwych
Wyniki badań pokazują, że aż 27,4% danych wprowadzanych do narzędzi AI to dane wrażliwe. W porównaniu z rokiem wcześniejszym, kiedy odsetek ten wynosił 10,7%, jest to znaczny wzrost.
– Narzędzia AI mają ogromny potencjał do pozytywnej transformacji miejsc pracy, zwiększają efektywność i produktywność pracowników. Wykorzystanie tych narzędzi przyspiesza i ułatwia im wykonywanie zadań, wiąże się jednak z szeregiem wyzwań. Dlatego ważne jest odpowiednie zarządzanie tą technologiczną zmianą i zadbanie o takie kwestie jak bezpieczeństwo i etyka – tłumaczy Natalia Zajic z Safesqr, firmy specjalizującej się w cyberbezpieczeństwie. – Modele AI działają w ten sposób, że dane, którymi są zasilane, stają się częścią ich bazy danych. Wprowadzanie informacji dotyczących organizacji do takich narzędzi może stworzyć ryzyko ich niewłaściwego wykorzystania – dodaje ekspert.
Rodzaje wprowadzanych danych
Badanie Cyberhaven Labs uwzględniło również typy danych wprowadzanych do narzędzi AI. Najczęściej były to informacje związane z obsługą klienta (16,3% danych wrażliwych), obejmujące poufne treści od klientów zgłaszających swoje problemy. Kolejne to kod źródłowy (12,7%), materiały badawczo-rozwojowe (10,8%), dokumentacja dotycząca pracowników (3,9%) i dane finansowe (2,3%).
Największym problemem jest wprowadzanie danych dotyczących organizacji przez prywatne konta pracowników. Aż 82,8% dokumentów prawnych umieszczanych przez pracowników w narzędziach AI trafia tam w ten sposób. Może to prowadzić do niebezpiecznego wykorzystania danych firmowych. Przykładowo, 3,4% materiałów badawczo-rozwojowych stworzonych w marcu br. pochodziło z narzędzi AI. Jeśli na ich podstawie przyznany zostanie patent, może to stanowić poważne ryzyko. W tym samym okresie 3,2% kodu źródłowego wygenerowały narzędzia AI, co budzi obawy o bezpieczeństwo. Narzędzia AI odpowiadają już za 3% grafik i projektów, co może prowadzić do naruszeń praw autorskich i znaków towarowych.
Potrzeba procedur i szkoleń
W miarę jak narzędzia AI zyskują na popularności, coraz większe znaczenie mają kwestie prywatności, transparentności i odpowiedzialności.
– Rzeczywistość wyprzedza regulacje i legislacje. Sztuczna inteligencja to dla nas cały czas nowość – tłumaczy Natalia Zajic. – Najbardziej paląca potrzeba na dziś to stworzenie własnych, wewnętrznych regulaminów oraz zadbanie o szkolenia dla pracowników. To najlepsza droga, aby nowe technologie mogły być korzyścią, a nie potencjalnym zagrożeniem.
Narzędzia AI mogą być dla firm i instytucji ogromnym wsparciem, ale potrzebne są jasne zasady i regulacje, chroniące prywatność i bezpieczeństwo wprowadzanych danych. To pilna sprawa, ponieważ popularność sztucznej inteligencji rośnie tak szybko, że przeciętny pracownik umieszcza dziś więcej danych korporacyjnych w narzędziach AI w sobotę lub niedzielę niż w środku tygodnia pracy rok temu.
źródło: informacja prasowa
grafiki przygotowane przez DALL-E od ChatGPT