Тепер адвокату можуть загрожувати санкції за подання фіктивних справ.
Адвокат Стівен Шварц з Levidow, Levidow & Oberman займається юридичною практикою вже три десятиліття. Зараз одна справа може повністю перекреслити всю його кар’єру.
Чому? Він покладався на ChatGPT у своїх юридичних справах, а чат-бот зі штучним інтелектом повністю сфабрикував попередні справи, на які посилався Шварц, та вигадав їх з повітря.
Провідні дослідники ШІ та керівники компаній застерігають від “ризику вимирання” у спільній заяві
Все починається зі справи Мата проти Avianca. За даними New York Times, клієнт Avianca на ім’я Роберто Мата судився з авіакомпанією після того, як під час польоту візок для подачі їжі пошкодив йому коліно. Avianca намагалася переконати суддю закрити справу. У відповідь адвокати Мата заперечили і подали довідку, наповнену безліччю подібних судових рішень у минулому.
Ось тут і з’явився ChatGPT. Шварц, адвокат Мата, який подав справу до суду штату, а потім провів юридичне дослідження після передачі справи до федерального суду Манхеттена, сказав, що він використовував популярного чат-бота OpenAI, щоб “доповнити” свої власні висновки.
Пошук Google на базі штучного інтелекту (SGE) принесе радикальні зміни у користуванні інтернетом
ChatGPT надав Шварцу кілька назв схожих справ: Варгез проти China Southern Airlines, Шабун проти Egyptair, Петерсен проти Iran Air, Мартінес проти Delta Airlines, Estate of Durden проти KLM Royal Dutch Airlines і Міллер проти United Airlines.
У чому проблема? ChatGPT повністю вигадав всі ці справи. Вони не існують.
Юридична команда Avianca і суддя, призначений для цієї справи, незабаром зрозуміли, що не можуть знайти жодного з цих судових рішень. Це призвело до того, що Шварц пояснив те, що сталося, у своїх свідченнях під присягою в четвер. Адвокат звернувся до ChatGPT за допомогою в оформленні документів.
За словами Шварца, він “не знав про можливість того, що його вміст може бути неправдивим”.
Адвокат навіть надав судді скріншоти своєї взаємодії з ChatGPT, запитуючи чат-бота про те, чи справжнім є один із випадків. ChatGPT відповів, що так. Він навіть підтвердив, що ці справи можна знайти в “авторитетних юридичних базах даних”. Знову ж таки, жодна з них не була знайдена, оскільки всі кейси були створені чат-ботом.
Важливо зазначити, що ChatGPT, як і всі чат-боти зі штучним інтелектом, є мовною моделлю, навченою слідувати інструкціям і надавати користувачеві відповідь на його запитання.
Це означає, що якщо користувач запитує у ChatGPT інформацію, він може надати йому саме те, що він шукає, навіть якщо це не відповідає дійсності.
Суддя призначив слухання наступного місяця, щоб “обговорити потенційні санкції” для Шварца у відповідь на цю “безпрецедентну обставину”. Цією обставиною знову ж таки є подання адвокатом юридичної довідки з використанням фальшивих судових рішень і цитат, наданих йому ChatGPT.
Джерело: https://mashable.com