AI nie tylko wyręcza nas w coraz większej liczbie obowiązków, ale również staje się coraz większym zagrożeniem dla cyberbezpieczeństwa. Eksperci Check
AI nie tylko wyręcza nas w coraz większej liczbie obowiązków, ale również staje się coraz większym zagrożeniem dla cyberbezpieczeństwa. Eksperci Check Point Research zwracają uwagę, że najbardziej podatni na złośliwe działania cyberprzestępców jesteśmy korzystając z urządzeń mobilnych. Jak wynika z badań, aż 75 proc. pracowników korzysta obecnie ze swoich prywatnych smartfonów w miejscu pracy, a niemal 83 proc. firm decyduje się na wdrożenie u siebie polityki BYOD. Oznacza to, że słabo kontrolowane mobilne urządzenia osobiste mogą być głównym źródłem zagrożeń dla firm.
Narzędzia generatywnej sztucznej inteligencji (AI), takie jak Chat GPT i Google Bard, zyskują popularność na całym świecie. Pozwalają użytkownikom zwiększyć wydajność i produktywność w codziennych zadaniach i obowiązkach.
Jednak część z ich możliwości może być niewłaściwie wykorzystanych – np. do tworzenia złośliwych programów, z których wiele pojawiło się w oficjalnych sklepach z aplikacjami. Generatywna sztuczna inteligencja została wykorzystana również do tworzenia e-maili i kampanii phishingowych, czy generowania fałszywych filmów na YouTube.
Niestety firmy zajmujące się generatywną sztuczną inteligencją nie radzą sobie z tymi problemami. W niedawnym raporcie zespół Check Point Research udowodnił, że Bard nie nakłada prawie żadnych ograniczeń na tworzenie wiadomości phishingowych i że przy małych zmianach można go wykorzystać do tworzenia keyloggerów i innego złośliwego oprogramowania, co stanowi zagrożenie dla bezpieczeństwa.