Американски съдия глоби двама адвокати и адвокатска кантора с $5000, след като фалшиви цитати, генерирани от ChatGPT, бяха представени в съдебно дело, предаде Ройтерс.
Окръжен съдия в Манхатън нареди на Стивън Шварц, Питър Лодука и тяхната адвокатска кантора Levidow & Oberman да платят глобата, след като фиктивно правно проучване беше използвано в иск за авиационен инцидент.
Експеримент на darik.bg: Как AI би поднесъл лоши новини на пациент
Шварц е признал, че ChatGPT е измислил шест случая, за които той се позовава в правна справка в дело срещу колумбийската авиокомпания Avianca.
Съдията Кевин Кастел каза в писмено становище, че няма нищо „по своята същност неправилно“ в използването на изкуствен интелект за подпомагане на правната работа, но адвокатите трябва да гарантират, че документите им са автентични.
„Технологичният напредък е нещо обичайно и няма нищо по същество неправилно в използването на надежден инструмент за изкуствен интелект за помощ, но съществуващите правила налагат на адвокатите ролята на контролер, за да гарантират точността на техните документи“, пише Кастел.
Изкуствен интелект е помогнал за създаването на последната песен на Бийтълс
Съдията заяви, че адвокатите и тяхната фирма са „изоставили своите отговорности, когато са представили несъществуващи съдебни становища с фалшиви цитати и твърдения, създадени от инструмента за изкуствен интелект ChatGPT, след което са продължили да се застъпват за фалшивите становища, след като съдебните разпореждания са поставили под въпрос съществуването им.“
Levidow & Oberman заяви в изявление в четвъртък, че неговите адвокати „с уважение“ не са съгласни със съда, че са действали недобросъвестно.
Създателят на ChatGPT: Изкуственият интелект ще направи революция в образованието
ChatGPT е предложил няколко случая, включващи авиационни инциденти, които Шварц не е успял да открие чрез обичайните методи, използвани в адвокатската му кантора. Няколко от тези случаи не са били истински, имало е измислени имена на съдии или са замесени авиокомпании, които не съществуват.
Изкуственият интелект може да предвижда усложненията от различни заболявания
Чатботове като ChatGPT, разработени от американската фирма OpenAI, могат да бъдат склонни към „халюцинации“ или неточности. В един пример ChatGPT лъжливо обвини американски професор по право в сексуален тормоз и цитира несъществуващ доклад на Washington Post в процеса. През февруари промоционален видеоклип за конкурента на Google на ChatGPT, Bard, даде неточен отговор на запитване за космическия телескоп James Webb.
Чатботовете се обучават на огромно количество данни, взети от интернет, въпреки че в много случаи източниците не са достоверни фактологически грешки.
Всичко за 49-ото Народно събрание четете ТУК
Най-интересните разговори от ефира на Дарик слушайте в подкаста на радиото в Soundcloud, Spotify, Apple Podcasts и Google Podcasts
Още по темата
- Приложението BgGPT с изкуствен интелект от последно поколение е вече факт
- Условна присъда за Диона: Певицата призна, че е шофирала след употребата на наркотици
- Глоба за инфлуенсърите, заснели скандалния клип в пловдивски МОЛ с младеж на каишка
- Русия глобява Google с повече пари, отколкото има в целия свят