Юрист использовал ChatGPT для работы, и поэтому сам предстанет перед судомАдвокат из Нью-Йорка Стивен Шварц использовал ChatGPT для подготовки документов по делу. В результате он предоставил суду ссылку на вымышленные нейросетью подобные случаи судебных процессов. Как сообщает The New York Times, теперь суд рассматривает «потенциальные меры наказания» для самого адвоката.
В чем суть дела?
- Судебный процесс был довольно простым: Роберто Мата подал в суд на авиакомпанию Avianca, заявив, что он получил травму, когда металлическая тележка для сервировки ударила его колено во время рейса в международный аэропорт Кеннеди в Нью-Йорке.
- Представители авиакомпании попросили федерального судью отклонить дело, однако адвокаты господина Мата категорически возражали против отклонения и предоставили 10-страничную запись, в которой цитировались более полудюжины подобных судебных решений.
- Однако никто: ни юристы авиакомпании, ни даже сам судья — не смог найти решения или цитаты, приведенные в обобщении в записке. И все потому, что их полностью придумал ChatGPT, которым пользовался адвокат Стивен Шварц.
- Шварц, занимавшийся адвокатской практикой в Нью-Йорке в течение 30 лет, сказал судье, что он не собирался обмануть суд или авиакомпанию. Он заявил, что никогда не использовал ChatGPT, и «поэтому не знал о возможности того, что его ответы могут быть ложными».
- Судья в итоге отметил, что ему было предоставлено юридическое представление, полное «фальшивых судебных решений, с фальшивыми цитатами и фальшивыми внутренними цитатами». Для обсуждения возможных санкций против адвоката назначено дополнительное слушание на 8 июня.
Почему это интересно?
OpenAI предупреждает, что ChatGPT может предоставлять неточную информацию — нейросеть все придумывала фальшивые газетные статьи, неверные утверждения о том, что профессор права был вовлечен в скандал с сексуальными притязаниями, а мэр Австралии был замешан в скандале со взяточничеством.Кроме того, как отдельные люди, так и крупные корпорации озабочены тем, как используются данные. Например Samsung запретила своим сотрудникам использовать генеративные инструменты искусственного интеллекта из-за опасений относительно того, как данные хранятся на внешних серверах, и из-за риска того, что секреты компании в конце концов могут быть раскрыты другим пользователям.Однако, как видим, многие люди, далекие от понимания всех рисков использования нейросетей в работе, продолжают полагаться на искусственный интеллект. И в редких случаях это может больше навредить, чем помочь.
Источник: news.finance.ua