Ако сте забелязали ръст в броя на подозрително изглеждащите имейли, които получавате през последната година, това може отчасти да се дължи на популярния чатбот ChatGPT, пише Darik Buisness Review. Според анализ на фирмата за киберсигурност SlashNext, цитиран от Techradar, ChatGPT и останалите AI алгоритми се използват за "производство" на фишинг имейли с ускорена скорост.
Фишингът е злонамерен опит за придобиване на чувствителна информация като потребителски имена, пароли, данни за кредитни карти и др., като извършителят обикновено приема чужда самоличност при електронните комуникации, използвайки фалшиви линкове и уеб адреси.
Докладът се основава на експертния опит на фирмата в областта на заплахите и анкета сред над триста специалисти по киберсигурност в Северна Америка. Резултатите показват, че злонамерените фишинг имейли са се увеличили с 1265% от четвъртото тримесечие на 2022 г.
Злонамерените участници използват генеративни инструменти за изкуствен интелект, като ChatGPT, за съставяне на правдоподобни и прецизно таргетирани фишинг съобщения.
Опитите за компрометиране на бизнес имейли са друг често срещан вид киберизмама, целяща нанасянето на финансови вреди за компаниите. Тези подхранвани от изкуствен интелект заплахи се разрастват с главоломна скорост, като увеличават не само обемите, но и сложността си.
Докладът показва, че фишинг атаките са средно 31 000 на ден, като приблизително половината от анкетираните специалисти по киберсигурност съобщават, че са били обекти на опити за атака на бизнес имейли. Когато става дума за фишинг, 77% от участниците в допитването твърдят, че са получавали и опити за такъв тип атаки.
Какво казват експертите?
Главният изпълнителен директор на SlashNext Патрик Хар коментира пред Techradar, че данните затвърждават опасенията относно използването на генеративния изкуствен интелект за експоненциалния растеж на фишинга. Той уточнява, че технологията позволява на киберпрестъпниците да увеличават скоростта на атаките, като същевременно ги разнообразяват.
Хар посочва конкретно ChatGPT, който отбеляза огромен ръст на потребителите в края на миналата година. Той твърди, че с навлизането на генеративните AI ботове за начинаещите да хакери вече е много по-лесно да се включат в играта с фишинг измамите, като в същото време са се превърнали и в допълнителен инструмент в арсенала на по-квалифицираните киберпрестъпни. Сега те могат да увеличават мащаба и да насочват атаките си по-лесно от преди. Тези инструменти могат да помогнат за генерирането на по-убедителни и по-адекватно формулирани съобщения, на които повече хора биха повярвали.
Крис Щефен, изследователски директор в Enterprise Management Associates, потвърждава тази констатация.
"Отминаха дните на "нигерийските принцове". Злонамерените играчи убедително имитират и се представят за други личности и компании. Те дори изпращат официална кореспонденция, която изглежда точно като тази, изпращана от държавните агенции и доставчиците на финансови услуги. Те могат да направят това по-добре от преди, като използват инструменти за изкуствен интелект, за да анализират публичната информация", смята Щефен.
В доклад за интернет престъпленията на ФБР се твърди, че атаките на корпоративни имейли са стрували на бизнеса около 2.7 милиарда долара, заедно с 52 милиона долара загуби, дължащи се на други видове фишинг.
Има ли надеждна защита срещу заплахите?
Някои експерти и технологични гиганти предприемат ответни действия. Редица компании, сред които Amazon, Google, Meta и Microsoft, обещаха, че ще извършат тестове за борба с рисковете за киберсигурността. Те използват изкуствения интелект за защита от подобни "нападения", като подобряват системи за откриване и филтриране на злонамерени имейли.
Експертите на SlashNext са открили конкретен опит за атака на бизнес имейл през юли, който използвал ChatGPT в комбинация с WormGPT - инструмент за киберпрестъпления, който се рекламира като "черна алтернатива на GPT моделите, проектирана специално за злонамерени дейности“. Друг злонамерен чатбот, FraudGPT, също циркулира в киберпространството.
Част от изследванията на SlashNext са свързани с разработването на т. нар. "jailbreak" атаки, които са проектирани специално срещу чатботовете с изкуствен интелект. Те премахват вградените в тях предпазни алгоритми за безопасност и законност. Този сегмент от киберсигурността също е основна област на изследване в много изследователски институции, свързани с AI.
Какво да направим, ако сме обект на кибератака?
Фишингът е сериозна заплаха както в професионален, така и в личен план, но срещу него има и надеждни средства за "отбрана". Експертите по киберсигурност обмислят начини за противодействие и отговор на тези атаки. Една от мерките, които много компании прилагат, е непрекъснатото обучение на крайните потребители и служители, за да могат те сами да разпознават тези имейли.
Освен тази промяна на културно ниво в бизнеса, Крис Щефен подчертава и важността на автоматизираните инструментите за филтриране на имейли, които могат да включват и AI компоненти. Това е постоянна битка, която изисква редовни тестове и одити, тъй като заплахите непрекъснато се развиват и с подобряването на способностите на софтуера с изкуствен интелект, ще се подобряват и заплахите, които го използват.
Компаниите трябва да подобрят своите системи за сигурност и нито едно решение не може напълно да се справи с всички опасности, породени от имейл атаките, генерирани от AI. Според Щефен, стратегията за "нулево доверие" може да помогне за запълване на пропуските в контрола, причинени от атаките, и да помогне за осигуряване на защита за повечето организации. Индивидуалните потребители трябва да бъдат по-бдителни за възможността да бъдат измамени, тъй като рисковете действително са се увеличили.
Слушайте и гледайте новия подкаст на darik.bg „В тренда“ в YouTube, Instagram и TikTok
Най-интересните разговори от ефира на Дарик слушайте в подкаста на радиото в Soundcloud, Spotify, Apple Podcasts и Google Podcasts