Изкуственият интелект (AI) е вече тук и тепърва ще превзема всеки аспект на живота ни. Това звучи както притеснително, така и интересно, тъй като AI има огромен потенциал да промени и подобри много от дейностите, които смятаме за даденост.
Рисковете от технологията обаче не са за подценяване. Затова още отсега много правителства и институции вече работят по създаване на ясни регулации за разработката и използването на AI и релевантни технологии. Как обаче да регулираш нещо, което все още не съществува в пълната си форма и няма ясна представа как ще се развие?
В момента неофициалното съгласие е, че е по-добре все пак да се започне от някъде и да се положат основите, а с течение на времето всичко да се адаптира според развитието на технологията. За целта обаче ще се изисква сериозна гъвкавост и бързина от страна на институциите, което традиционно е слабото им място. Някои от тях се опитват да използват казуса именно, за да се научат да са по-навременни с действията си.
Така направи Китай. Страната стана първата в света, която прие базови правила за разработката и използването на изкуствен интелект още през първата половина на тази година. Европейският съюз също се движи доста бързо. По-рано тази година той представи своя Закон за изкуствения интелект (AI Act), който има амбицията да приеме до края на тази година. Законът предвижда доста правила и разделя умните алгоритми на няколко категории според вида и употребата им. САЩ също обмислят свои правила.
Много идеи, малко яснота
Още отсега личи, че регулацията на AI ще създаде доста предизвикателства за всички. Основната причина е, че липсва универсален поход. Първоначално ИТ индустрията призоваваше за изготвяне на единни правила, които да се спазват глобално. В действителност обаче, няма да стане така. Вижданията на страните отново са доста различни и съответно идеите им за регулация отразяват това.
Организацията IEEE, която е отговорна за изработката и предлагането на много от единните технически стандарти, които се използват от ИТ бранша по света, също предлага как да се определи кои алгоритми на какви правила да отговарят. Тя казва, че правилата трябва да се определят първо според нивото на риска на AI системите. За отправна точка се използва стандарта IEEE 1012, който всъщност е от 1988 г. и е за верификацията и валидацията на всякакви системи, софтуер и хардуер.
Той разделя рисковете на четири вида – пренебрежими, маргинални, критични и катастрофични. Също така зависи и от честотата на тяхното реализиране - рядко, от време на време, вероятно и разумно често. Всичко това се подрежда в таблица и за всяка категория се дава оценка от 1 до 4, като 4 е най-висока степен. Така според IEEE лесно може да се определи каква ще е степента на риск и вероятността за случването му за всяка AI разработка и да се приложат съответните правила за нея.
Да очакваме (не)предвидимото
ИТ браншът също не „спи“. Той е наясно с рисковете и факта, че е неизбежно част от AI системите да бъдат използвани и за недобронамерени цели. Това си пролича особено с възхода на популярността и използването на генеративния AI – чатботове и системи за генериране на изображения и видеоклипове.
Pexels
Доста хора започнаха да създават т.нар. дийпфейкове – снимки, видеа и аудиозаписи, които поставят други лица в компрометиращи ситуации и изказвания. Също така се наблюдава и ръст на кражбата на самоличност чрез дийпфейк и опити за измами с тях, включително чрез представяне за бизнесмени. Дийпфейк съдържание се използва все повече и за дезинформация по най-различни теми, включително политически и военни конфликти.
Всичко това подкопава сериозно доверието към AI, а съответно и към потенциален бизнес за много милиарди. Има и сериозен риск от нанасяне на тежки щети и загуби заради дийпфейкове, а само с регулации и правила не става. Нужни са и технологии. Много компании, експерти и организации вече разработиха системи, които да засичат AI съдържание и да издават предупреждение за повишена бдителност.
Ефективността и точността на тези инструменти е все още спорна. Обаче още преди тяхната прецизност да се подобри, те също бяха подкопани, съобщава 404Media. Оказва се, че инструментите бъркат не само в разпознаването на това дали дадена снимка е направена от AI, или не. Доста от тях твърдят, че съвсем реални снимки са дело на изкуствен интелект. Така се получава второ ниво на дезинформация, когато се посява съмнение дори и за реалната информация, казва Хани Фарид, професор от Университета на Калифорния Бъркърли, един от водещите експерти по дигитално манипулирани изображения.
Това позволява на всеки да твърди, че дадено съдържание е реално, или пък не, в зависимост от това, което му е угодно, и винаги ще намери поне 2-3 инструмента, които да потвърдят тезата му. Дори и друг участник да покаже 4-5 инструмента, които я оборват, съмнението винаги ще си остане.
Този казус трудно може да бъде решен и от регулациите. Така че колкото и правила да се въвеждат, личната бдителност и критичното мислене ще станат още по-важни в ерата на изкуствения интелект, в чиято зора вече сме.
Слушайте и гледайте новия подкаст на darik.bg „В тренда“ в YouTube, Instagram и TikTok
Най-интересните разговори от ефира на Дарик слушайте в подкаста на радиото в Soundcloud, Spotify, Apple Podcasts и Google Podcasts