Недавно произошла довольно необычная ситуация. Она связана с искусственным интеллектом и судебным процессом в США. В центре внимания оказался закон о борьбе с дипфейками, влияющими на выборы. Один из главных его защитников, Джефф Хэнкок, эксперт по дезинформации и глава Стэнфордской лаборатории социальных сетей, использовал ChatGPT при написании судебного документа.
Закон, напомним, направлен на платформы, распространяющие реалистичные фейки, созданные с помощью ИИ, а не на сам ИИ в целом. Однако противники закона, блогер Кристофер Холс и представитель штата Мэри Фрэнсон, обнаружили несоответствия в списке источников, приведенном Хэнкоком. Оказалось, что некоторые ссылки ведут на несуществующие исследования и работы – явный признак «галлюцинаций» ИИ. Это заставило истцов потребовать исключения документа из дела как недостоверного.
Хэнкок признал использование ChatGPT. Он подчеркнул, что ИИ применялся только для составления списка источников, а не для формулировки аргументов. Он утверждает, что использовал ChatGPT для поиска релевантных статей. Они должны были помочь ему дополнить уже имеющиеся знания новыми научными данными. Хэнкок настаивает на своей убежденности в правильности изложенных в документе утверждений. В то же время приносит извинения за возникшую путаницу.
В чем проблема ChatGPT?
Однако ситуация непростая. Обнаружение использования ИИ в одной части документа может поставить под сомнение достоверность всего текста. Решение судьи будет зависеть от того, насколько убедительными покажутся объяснения эксперта по дезинформации. Хотя, по иронии судьбы, он сам попал в ситуацию, связанную с недостоверной информацией, сгенерированной ИИ.
Этот случай привлекает внимание к проблемам использования ИИ в юридической практике. А именно, к риску генерации недостоверной информации нейросетями. Важно помнить о принципах ответственного применения ИИ: прозрачности и правдивости. Недавние законодательные инициативы в ЕС также подчеркивают необходимость регулирования ИИ и обеспечения прозрачности его использования, особенно в таких сферах как право. Опыт использования ChatGPT в юридической сфере показал, что, несмотря на потенциальные преимущества в оптимизации времени и генерации идей, риски получения неточной информации остаются значительными.