Юрист використовував ChatGPT для ведення судових справ. Чат-бот посилався на неіснуючі справи, які він просто вигадав

Юрист використовував ChatGPT для ведення судових справ. Чат-бот посилався на неіснуючі справи, які він просто вигадав

Тепер адвокату можуть загрожувати санкції за подання фіктивних справ.

Адвокат Стівен Шварц з Levidow, Levidow & Oberman займається юридичною практикою вже три десятиліття. Зараз одна справа може повністю перекреслити всю його кар’єру.

Чому? Він покладався на ChatGPT у своїх юридичних справах, а чат-бот зі штучним інтелектом повністю сфабрикував попередні справи, на які посилався Шварц, та вигадав їх з повітря.

Провідні дослідники ШІ та керівники компаній застерігають від “ризику вимирання” у спільній заяві 

Все починається зі справи Мата проти Avianca. За даними New York Times, клієнт Avianca на ім’я Роберто Мата судився з авіакомпанією після того, як під час польоту візок для подачі їжі пошкодив йому коліно. Avianca намагалася переконати суддю закрити справу. У відповідь адвокати Мата заперечили і подали довідку, наповнену безліччю подібних судових рішень у минулому.

Ось тут і з’явився ChatGPT. Шварц, адвокат Мата, який подав справу до суду штату, а потім провів юридичне дослідження після передачі справи до федерального суду Манхеттена, сказав, що він використовував популярного чат-бота OpenAI, щоб “доповнити” свої власні висновки.

Пошук Google на базі штучного інтелекту (SGE) принесе радикальні зміни у користуванні інтернетом

ChatGPT надав Шварцу кілька назв схожих справ: Варгез проти China Southern Airlines, Шабун проти Egyptair, Петерсен проти Iran Air, Мартінес проти Delta Airlines, Estate of Durden проти KLM Royal Dutch Airlines і Міллер проти United Airlines.

У чому проблема? ChatGPT повністю вигадав всі ці справи. Вони не існують.

Юридична команда Avianca і суддя, призначений для цієї справи, незабаром зрозуміли, що не можуть знайти жодного з цих судових рішень. Це призвело до того, що Шварц пояснив те, що сталося, у своїх свідченнях під присягою в четвер. Адвокат звернувся до ChatGPT за допомогою в оформленні документів.

За словами Шварца, він “не знав про можливість того, що його вміст може бути неправдивим”.

Адвокат навіть надав судді скріншоти своєї взаємодії з ChatGPT, запитуючи чат-бота про те, чи справжнім є один із випадків. ChatGPT відповів, що так. Він навіть підтвердив, що ці справи можна знайти в “авторитетних юридичних базах даних”. Знову ж таки, жодна з них не була знайдена, оскільки всі кейси були створені чат-ботом.

Новий інструмент використовує ChatGPT для створення веб-сайтів з використанням лише текстових підказок

Важливо зазначити, що ChatGPT, як і всі чат-боти зі штучним інтелектом, є мовною моделлю, навченою слідувати інструкціям і надавати користувачеві відповідь на його запитання.

Це означає, що якщо користувач запитує у ChatGPT інформацію, він може надати йому саме те, що він шукає, навіть якщо це не відповідає дійсності.

Суддя призначив слухання наступного місяця, щоб “обговорити потенційні санкції” для Шварца у відповідь на цю “безпрецедентну обставину”. Цією обставиною знову ж таки є подання адвокатом юридичної довідки з використанням фальшивих судових рішень і цитат, наданих йому ChatGPT.

Джерело: https://mashable.com

Подібні новини