w ,

Najczęściej dzielonymi danymi wrażliwymi w ChatGPT jest kod źródłowy

ChatGPT

Netskope, czołowy dostawca usług w obszarze Secure Access Service Edge (SASE) i cyberbezpieczeństwa, udostępnił dane wskazujące, że przeciętna firma zatrudniająca do 10 000 pracowników odnotowuje miesięcznie średnio 183 incydenty związane z udostępnianiem wrażliwych danych aplikacjom AI.

Najwięcej ujawnianych danych stanowi kod źródłowy. Dane te są częścią raportu Cloud & Threat Report: AI Apps in the Enterprise, pierwszej wszechstronnej analizy wykonanej przez Laboratoria Zagrożeń Netskope dotyczącej wykorzystania sztucznej inteligencji w biznesie i powiązanych zagrożeń. Bazując na informacjach pochodzących od milionów korporacyjnych użytkowników na całym świecie, Netskope zauważył, że stosowanie generatywnych aplikacji AI wzrosło o 22,5% w ciągu ostatnich dwóch miesięcy, co zwiększa ryzyko ujawnienia danych wrażliwych.

Zwiększone wykorzystanie aplikacji AI

Firmy i korporacje zatrudniające co najmniej 10 000 lub więcej pracowników korzystają średnio z 5 aplikacji AI dziennie. Należy zauważyć, że ChatGPT ma ponad 8 razy więcej aktywnych użytkowników niż jakakolwiek inna generatywna aplikacja AI.

Przy obecnej szybkości wzrostu przewiduje się, że liczba użytkowników korzystających z aplikacji AI podwoi się w ciągu najbliższych siedmiu miesięcy.

W ciągu ostatnich dwóch miesięcy najszybciej rozwijającą się aplikacją AI był Google Bard. Tygodniowo liczba użytkowników korzystających z tego rozwiązania rośnie o ponad 7%, w porównaniu do 1,6% w przypadku ChatGPT. Przy obecnym tempie Google Bard nie jest w stanie dogonić ChatGPT w ciągu najbliższego roku, choć oczekuje się, że zakres i liczba generatywnych aplikacji AI znacznie się rozwinie do tego czasu, biorąc pod uwagę inne aplikacje w fazie rozwoju.

Użytkownicy wprowadzają do ChatGPT dane wrażliwe: kod źródłowy, dane finansowe, dane medyczne i dane osobowe

Analitycy Netskope odkryli, że kod źródłowy jest częściej publikowany w ChatGPT niż jakikolwiek inny typ danych wrażliwych, z częstotliwością 158 incydentów miesięcznie na 10 000 użytkowników. Inne wrażliwe dane udostępniane w ChatGPT obejmują także informacje poufne, w tym dane finansowe, medyczne, dane osobiste, a co najbardziej niepokojące, hasła i klucze, zwykle osadzone w kodzie źródłowym.

Laboratoria zagrożeń Netskope obecnie monitorują serwery proxy ChatGPT oraz ponad 1000 potencjalnie złośliwych adresów URL i domen, które cyberprzestępcy mogą wykorzystać, próbując skorzystać z rosnącej popularności sztucznej inteligencji do kradzieży danych. Chociaż blokowanie dostępu do treści i aplikacji AI może pomóc ograniczyć ryzyko ujawnienia wrażliwych informacji, może to jednocześnie pozbawić organizacje potencjalnych korzyści z innowacji i wzrostu produktywności, jakie oferuje AI. W branżach wysoko regulowanych, takich jak finanse i opieka zdrowotna, prawie jedna na pięć organizacji wprowadziła pełne ograniczenia dla pracowników w korzystaniu z ChatGPT, podczas gdy w sektorze technologicznym jedynie jedna na dwadzieścia firm podjęła takie kroki.

Czy zabraniać korzystania z AI?

Jak podkreślił James Robinson, zastępca dyrektora ds. bezpieczeństwa informacji w Netskope, liderzy w dziedzinie bezpieczeństwa nie powinni po prostu zabraniać korzystania z aplikacji AI. Zamiast tego, powinni skupić się na edukacji pracowników i wprowadzaniu polityk dotyczących bezpiecznego przesyłania i pobierania danych. Bezpieczne korzystanie z generatywnej sztucznej inteligencji w biznesie to nie tylko kwestia odpowiednich zabezpieczeń, ale także zdrowego rozsądku wspartego przez wewnętrzne regulacje.

Aby umożliwić organizacjom bezpieczne korzystanie z aplikacji AI, powinny one identyfikować dopuszczalne aplikacje i wprowadzać kontrolę, która umożliwi użytkownikom pełne wykorzystanie ich potencjału, jednocześnie chroniąc firmę przed zagrożeniami. Do takiego podejścia powinny należeć między innymi: filtrowanie domen, filtrowanie adresów URL i kontrola treści.

Dodatkowo, organizacje powinny blokować dostęp do aplikacji, które nie mają uzasadnionego celu biznesowego lub które mogą stanowić duże ryzyko dla firmy. Ważne jest także wdrożenie programów edukacyjnych, które przypomną użytkownikom o polityce firmy dotyczącej korzystania z aplikacji AI.


  1. Body Leasing i inne formy outsourcingu IT
  2. Program Horyzont Europa, czyli jak skutecznie aplikować o dotacje unijne?
  3. Jakie formaty eventów warto prowadzić w branży IT?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

raport deloitte

Firmy inwestują w marketing celem przeciwdziałania konsekwencjom spowolnienia gospodarczego [raport Deloitte]

zielone miejsca pracy

Polskie firmy chcą powiększać zespoły o zielone miejsca pracy – aktywnie rekrutuje już 6 na 10 pracodawców