Бихте ли споделили най-дълбокото си безпокойство с Alexa? Или може би да помолите Siri за емоционална подкрепа след особено напрегнат ден?
снимка: Pexels
Все повече се обръщаме към чатботове на интелигентни високоговорители или уебсайтове и приложения, за да отговаряме на въпроси, пише Би Би Си. И тъй като тези системи, захранвани от софтуер с изкуствен интелект (AI), стават все по-сложни, те започват да предоставят доста прилични, подробни отговори. Но дали такива чатботове някога ще бъдат достатъчно подобни на хора, за да станат и ефективни терапевти?
Публикуваха първия филм, направен почти изцяло от изкуствен интелект (видео)
Компютърният програмист Евгения Куйда е основател на Replika, американско приложение за чатбот, което казва, че предлага на потребителите „придружител с изкуствен интелект, когото го е грижа, винаги тук, за да слуша и говори, винаги на ваша страна“. Стартиран през 2017 г., сега има повече от два милиона активни потребители. Всеки има чатбот или „реплика“, уникална за тях, като AI се учи от техните разговори. Потребителите могат също така да проектират свой собствен анимационен аватар за своя чатбот. Куйда добавя, че хората, които използват приложението, варират от деца с аутизъм, които „загряват преди човешките взаимодействия“, до възрастни, които просто са самотни и се нуждаят от приятел.
Твърди се, че други използват Replika, за да репетират за интервюта за работа, да говорят за политика или дори като брачен съветник. И докато приложението е предназначено предимно да бъде приятел или спътник, то също така твърди, че може да помогне за вашето психично здраве, като например позволява на потребителите да „изградят по-добри навици и да намалят безпокойството“.
Какво е ChatGPT? Всичко, което трябва да знаете за чатбота
По света има почти един милиард души с психични разстройства, според Световната здравна организация (СЗО). Това е повече от един човек на всеки 10. СЗО добавя, че „само малка част от хората в нужда имат достъп до ефективна, достъпна и качествена грижа за психичното здраве“. И докато всеки, който се притеснява за себе си или за свой роднина, трябва да отиде при медицински специалист на първо място, растежът на терапевтите за психично здраве в чатбот може да предложи на много хора добре дошла подкрепа.
Д-р Пол Марсдън, член на Британското психологическо общество, казва, че приложенията, които имат за цел да подобрят вашето психическо благополучие, могат да помогнат, но само ако намерите правилното и то само по ограничен начин.
Ще успеят ли чатботовете да се наложат като следващата водеща технология
„Когато погледнах, имаше 300 приложения само за безпокойство... така че как да знаеш кое да използваш? Те трябва да се разглеждат само като допълнение към личната терапия. Консенсусът е, че приложенията не заместват човешката терапия.“ Но в същото време д-р Марсдън казва, че е развълнуван от силата на изкуствения интелект да направи терапевтичните чатботове по-ефективни. „Подкрепата за психично здраве се основава на терапия с говорене, а говоренето е това, което правят чатботовете“, казва той.
Слънцето ще стане червен гигант и ще ни погълне? Интервю с ChatGPT
Д-р Марсдън подчертава факта, че водещи фирми за чатботове за изкуствен интелект като OpenAI, компанията зад ChatGPT, правят своята технология достъпна и за други. Той казва, че това дава възможност на приложенията за психично здраве да използват най-добрия AI „с неговите обширни познания, нарастваща способност за разсъждение и опитни комуникационни умения“, за да захранват своите чатботове. Replika е един такъв доставчик, който вече използва технологията на OpenAI.
Но какво ще стане, ако връзката на човек с неговия чатбот терапевт стане нездравословна?
Replika влезе в новините през февруари, когато беше разкрито, че някои потребители са водили неприлични разговори с чатбот. Новините се появиха, след като Luka, фирмата зад Replika, актуализира своята AI система, за да предотврати подобен сексуален обмен.
Белгиец се самоуби след комуникация с чатбот
Не всички потребители са доволни от промяната. Един потребител написа в Reddit: „Хората, които са намерили убежище от самотата, лекувайки се чрез интимност, внезапно откриха, че е изкуствен не защото е AI, а защото се контролира от хора.“
Ходът на Luka може да е свързан с факта, че също през февруари италианската агенция за защита на данните ѝ забрани използването на лични данни на италианци. Италианският надзорен орган твърди, че приложението е било използвано от лица под 18 години, които са получавали „отговори, абсолютно неподходящи за тяхната възраст. Добавено е, че приложението може също да „увеличи рисковете за хора, които все още са в етап на развитие или в състояние на емоционална крехкост". Този ход може да ограничи използването на Replika в Италия и Luka могат да бъдат глобени. Казват, че „работим в тясно сътрудничество с италианските регулатори и разговорите напредват положително“.
Джен Персон от кампанията за онлайн поверителност в Обединеното кралство казва, че трябва да има по-глобално регулиране на чатбот терапевтите.
„Компаниите с изкуствен интелект, които твърдят, че продуктът им е свързан с идентифициране или поддържане на психичното здраве или които са предназначени да повлияят на вашето емоционално състояние или психическо благополучие, трябва да бъдат класифицирани като здравни продукти и съответно да подлежат на стандарти за качество и безопасност“, казва тя.
Куйда твърди, че Replika е като домашен любимец, а не инструмент за психично здраве. Тя добавя, че не трябва да се разглежда като заместител на помощта от човешки терапевт.
„Терапията в реалния живот предоставя невероятна представа за човешката психика, която не е само чрез текст или думи, но като ви вижда лично и вижда езика на тялото Ви, вашите емоционални реакции, както и невероятно познание за вашата история“, казва тя.
“Капаните” на изкуствения интелект: За какво да внимаваме?
Други приложения в сектора на психичното здраве са много по-предпазливи относно използването на AI на първо място. Едно от тях е приложението за медитация Headspace, което има повече от 30 милиона потребители и в Обединеното кралство е одобрено от здравния им регулатор.
„Нашето основно убеждение и целият бизнес модел в Headspace Health е свързан с грижа, ръководена от човека и фокусирана върху човека – връзката, която нашите членове имат чрез разговори на живо с треньори и терапевти чрез чат, видео или на живо, е незаменима“, казва Ръсел Глас, изпълнителен директор на Headspace.
Той добавя, че въпреки че Headspace използва малко AI, той го прави „силно селективно“ и същевременно запазва „дълбочината на човешкото участие“. Фирмата не използва AI за чат с потребители, вместо това Глас обяснява, че го използва само за неща като предоставяне на потребители на препоръки за персонализирано съдържание или подпомагане на доставчиците на грижи за хора да пишат своите бележки.
Новият AI чатбот в търсачката Bing заплашва, манипулира и флиртува с потребители
И все пак д-р Марсдън казва, че базираните на AI терапевтични чатботове ще продължат да се усъвършенстват. „Новата AI чатбот технология изглежда развива умения за ефективна подкрепа на психичното здраве, включително съпричастност и разбиране за това как работи човешкият ум“, казва той.
Коментарите му идват след скорошно проучване на университета Корнел в щата Ню Йорк, което подложи ChatGPT на редица тестове. Те разглеждат колко бързо хората могат да схванат, че другите хора може да мислят по сходен начин. Резултатите на AI са еквивалентни на тези на деветгодишно дете.
Досега този вид когнитивна емпатия се смяташе за уникално човешка.
Най-интересните разговори от ефира на Дарик слушайте в подкаста на радиото в Soundcloud, Spotify, Apple Podcasts и Google Podcasts