Юрист использовал ChatGPT для работы, и поэтому сам предстанет перед судом — Finance.ua
Сегодня 05:36 — Технологии&АвтоЮрист использовал ChatGPT для работы, и поэтому сам предстанет перед судомАдвокат из Нью-Йорка Стивен Шварц использовал ChatGPT для подготовки документов по делу. В результате он предоставил суду ссылку на вымышленные нейросетью подобные случаи судебных процессов. Как сообщает The New York Times, теперь суд рассматривает «потенциальные меры наказания» для самого адвоката.В чем суть дела?Судебный процесс был довольно простым: Роберто Мата подал в суд на авиакомпанию Avianca, заявив, что он получил травму, когда металлическая тележка для сервировки ударила его колено во время рейса в международный аэропорт Кеннеди в Нью-Йорке.Представители авиакомпании попросили федерального судью отклонить дело, однако адвокаты господина Мата категорически возражали против отклонения и предоставили 10-страничную запись, в которой цитировались более полудюжины подобных судебных решений.Однако никто: ни юристы авиакомпании, ни даже сам судья — не смог найти решения или цитаты, приведенные в обобщении в записке. И все потому, что их полностью придумал ChatGPT, которым пользовался адвокат Стивен Шварц.Шварц, занимавшийся адвокатской практикой в Нью-Йорке в течение 30 лет, сказал судье, что он не собирался обмануть суд или авиакомпанию. Он заявил, что никогда не использовал ChatGPT, и «поэтому не знал о возможности того, что его ответы могут быть ложными».Судья в итоге отметил, что ему было предоставлено юридическое представление, полное «фальшивых судебных решений, с фальшивыми цитатами и фальшивыми внутренними цитатами». Для обсуждения возможных санкций против адвоката назначено дополнительное слушание на 8 июня.Почему это интересно?OpenAI предупреждает, что ChatGPT может предоставлять неточную информацию — нейросеть все придумывала фальшивые газетные статьи, неверные утверждения о том, что профессор права был вовлечен в скандал с сексуальными притязаниями, а мэр Австралии был замешан в скандале со взяточничеством.Кроме того, как отдельные люди, так и крупные корпорации озабочены тем, как используются данные. Например Samsung запретила своим сотрудникам использовать генеративные инструменты искусственного интеллекта из-за опасений относительно того, как данные хранятся на внешних серверах, и из-за риска того, что секреты компании в конце концов могут быть раскрыты другим пользователям.Однако, как видим, многие люди, далекие от понимания всех рисков использования нейросетей в работе, продолжают полагаться на искусственный интеллект. И в редких случаях это может больше навредить, чем помочь.По материалам: ain.uaЕсли Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.Finance.ua/Все новости/Технологии&Авто/Юрист использовал ChatGPT для работы, и поэтому сам предстанет перед судом