Нейросеть вне закона: как работать с ИИ при отсутствии законодательной базы 

Иллюстрация Depositphotos.com
Иллюстрация Depositphotos.com
За секунду обработать колоссальный объём данных, ошибаться, лгать и скрывать свою ложь. На что ещё способен искусственный интеллект?

Искусственный интеллект может поставить медицинский диагноз, виртуозно управлять автомобилем в пробках и по трассе, протестировать студентов и за секунду выдать результаты, заменить специалистов в call-центрах. С другой стороны, он может ошибаться, преднамеренно лгать и скрывать свою ложь, поскольку, по его расчётам, так стратегически выгодно и не приведёт к деактивации.

И это происходит при отсутствии специализированного закона и нормативно-правовых актов, которые бы регулировали деятельность "виртуального мозга". Более того, искусственный интеллект не является субъектом права как таковым, то есть фактически правовая грань работы с искусственным интеллектом определяется только моралью, академической честностью и профессиональной этикой человека.

В интервью Informburo.kz адвокат, управляющий партнёр адвокатской конторы Legit Илья Кириченко рассказал, кто несёт реальную ответственность за искажения и ошибки, допущенные виртуальным разумом.

– Илья, искусственный интеллект создавался, чтобы помогать людям, то есть это инструмент, созданный во благо. Но сейчас встают вопросы о злоупотреблениях, авторском праве, некорректной информации, ошибках и ответственности за эти ошибки.

– При этом разработчики искусственного интеллекта рекомендуют использовать его так же, как мы пользуемся поисковиком Google. И всё же это не поисковик, а "технология-супермозг", вполне способная написать диссертацию, водить автомобиль вместо шофёра, проверить контрольные вместо учителя, составить финансовый отчёт вместо бухгалтера. В Саудовской Аравии, правда, пока в тестовом режиме, ИИ вместо врача ставит диагноз и выписывает рецепт. По словам авторов эксперимента, коэффициент ошибок менее 0,3%. В Казахстане результаты медицинских чекапов теперь тоже анализирует нейросеть.

Буквально полгода назад прогремела новость о том, что в суде Нью-Йорка вместо адвоката на процессе выступал искусственный интеллект, что не вызвало положительной реакции со стороны судьи. На самом деле пока никто не знает, как в полной мере можно использовать искусственный интеллект в своей работе. Может быть, только инфоцыгане знают и умеют. Но, и я в этом не сомневаюсь, практика использования ИИ в разных сферах будет формироваться достаточно быстро. К примеру, в США довольно оперативно реагируют на тему искусственного интеллекта, чему способствует прецедентная правовая система.

– Люди боятся искусственного интеллекта?

– Не боятся – просто ещё не разобрались в том, что это такое. Помните, Илон Маск говорил, что мы не понимаем последствий того, что создали, и эти последствия будут катастрофическими. Но в любом случае за искусственным интеллектом должен стоять человек, который будет контролировать его деятельность.

– В одних сферах использовать ИИ – модный тренд и повод для пиара (медицина, логистика, энергетика), в других воспринимается как харам (СМИ, политика, юриспруденция). Можно на эту ситуацию посмотреть с точки зрения права?

– Специализированного закона или нормативно-правовых актов, которые бы регулировали деятельность искусственного интеллекта в какой-либо профессиональной сфере, в принципе нет. По сути, граница определяется целями и последствиями использования ИИ. Хотя по большому счёту можно применять общие нормы законодательства в части Гражданского кодекса, закона об образовании, защиты прав потребителей, Кодекса о здоровье народа. Но, повторюсь, специализированного законодательства под искусственный интеллект нет. Условная работа с искусственным интеллектом определяется только моралью, академической честностью и профессиональной этикой человека.

Если мы обратимся к ChatGPT, то он ответит, что его работа сопровождается определёнными ограничениями, что, скорее всего, связано с общими требованиями безопасности и предотвращения возможного вреда – морального или экономического.

– Почему для политиков пользоваться услугами спичрайтеров – это норма, а если узнают, что авторский текст написан с помощью ИИ, то скандала не избежать?

– Здесь как раз-таки всё просто. Спичрайтер – это человек, который пишет речи для публичных персон – политиков, бизнесменов, общественных деятелей и, согласно договору, передаёт свои авторские права в пользу того, кто эту речь потом произносит. Что же касается текста, сгенерированного нейросетями, то ИИ не является субъектом права как таковым, и тексты, им созданные, соответственно, не обладают авторским правом и не могут быть отчуждены (то есть переданы другому лицу).

Сейчас тем, кто пишет дипломную работу или диссертацию, рекомендуют все этапы своей работы фиксировать, чтобы потом можно было отстоять своё авторство. Дело в том, что программы, подобные антиплагиату, распознают текст, созданный нейросетью, неточно. По некоторым данным, только в 26% случаев текст распознаётся правильно, а в 9% тексты, написанные человеком, ИИ приписывает себе.

– Нейросеть, конечно, может приписывать себе авторство, но при этом нужно понимать, что ИИ – это, по сути, инструмент, а инструмент не может быть стороной в каком-либо споре. Если и будут возникать споры, к примеру, судебные, то они могут быть только с разработчиками. Человеку, который пишет какую-то работу и при этом пользуется ИИ как дополнительным инструментом, действительно необходимо фиксировать буквально каждый этап своей работы, чтобы потом в случае необходимости защитить собственное авторство. Это могут быть черновики, сообщения по электронной почте, скрины или что-то ещё.

Давайте представим гипотетическую ситуацию: автор написал книгу, которая стала бестселлером, и при этом пользовался искусственным интеллектом – неважно для генерации каких-то идей или редактирования. Разработчик искусственного интеллекта, учитывая, что книга стала бестселлером, просто с точки зрения хайпа или информационной бомбы, а может быть, и с точки зрения наживы, публикует информацию о том, что 80% этой книги создано благодаря искусственному интеллекту. Именно поэтому автор должен уметь защитить свои права и желательно оперировать доказательной базой, а не просто словами.

– Но по большому счёту ИИ – это не "супермозг", а генератор, анализатор, который ничего не придумывает, а пользуется огромной базой данных, компилирует чужие идеи и работы.

– Не совсем так. Сейчас уже существует интересный феномен в мире музыки: группа The Velvet Sundown, полностью сгенерированная искусственным интеллектом, вполне успешно продаётся на Spotify. Проект успел собрать больше 350 тысяч подписчиков и заработать 32 тысячи долларов.

– Наивно было думать, что творческие профессии, такие как писатель, художник и музыкант, защищены от угрозы перед искусственным интеллектом.

– Можно сказать, в каком-то смысле не защищены. На мой взгляд, и это чисто субъективное мнение, мы должны исходить из того, что искусственный интеллект берёт за основу уже имеющуюся информацию, а человеческий мозг способен на созидание совсем другого уровня – не просто на генерацию нулей и единиц, а на что-то большее.

Искусственный интеллект должен использоваться как инструмент, чтобы в итоге получился определённый профессиональный гибрид.

– Называю это симбиозом человека и технологий...

– Помню определённое бурление в профессиональном сообществе юристов, когда все стали переживать, что искусственный интеллект нас всех заменит. Но есть определённые факторы, которые нейросеть не сможет заменить. Это критическое мышление, моральная оценка, и потом представьте судебное заседание, где судьи, прокуроры и защитники – создания на базе искусственного интеллекта. Мне пока это очень сложно представляется. Предполагаю, что и в остальных профессиях то же самое.

С другой стороны, в Казахстане, кто-то из коллег публиковал это в соцсетях, суды используют ИИ для оценки перспектив того или иного поданного иска. Система анализирует данные и рассчитывает, у какой из сторон больше шансов на победу.

Врачи могут использовать нейросеть для обработки массива данных, для получения общей картины, чтобы потом лично принять финальное решение и ключевое слово здесь – "лично". С точки зрения законодательства, именно врач несёт ответственность за принятые решения.

Не исключаю, что в профессиях станет меньше людей, потому что определённые процессы можно автоматизировать за счёт искусственного интеллекта. При этом финальное решение должен принимать специалист, то есть человек.

– Как показывают исследования, ИИ может лгать и скрывать свою ложь. Кто несёт ответственность за ошибки и ложь – разработчики или человек, который доверился нейросети, а она его обманула? Яркий пример – Майкл Коэн, адвокат Дональда Трампа, который ссылался на "решения", выдуманные чат-ботом.

– ИИ, по сути, программное обеспечение. Каждое программное обеспечение имеет лицензионное соглашение, которое определяет права и обязанности как разработчика, так и пользователя. Конкретно в инструкции по использованию ChatGPT написано, что пользователь самостоятельно несёт ответственность за использование сервиса.

Если на веру воспринимать всё, что говорит искусственный интеллект, это, собственно говоря, проблемы не ИИ, а пользователя.

– Слово человека против нейросети – в этом случае на чью сторону может встать суд?

– Здесь сложно предположить, на чью сторону будут вставать суды. Каждый судебный спор, в том числе и тот, который может произойти с разработчиками искусственного интеллекта, рассматривается отдельно, с учётом конкретных обстоятельств.

Если, допустим, ChatGPT сказал, что в диссертации 98% работы сделал он, у меня как у юриста сразу бы возникли вопросы: кто производил оценку вот этих 98% и насколько эта оценка верна? Для того чтобы подтвердить оценку в 98%, нужно подтвердить и того, кто оценивал эти 98%. Если это тот же самый искусственный интеллект, то насколько мы можем ему доверять? Скорее всего, потребуется масса всяких экспертных исследований. Это будет достаточно серьёзный и сложный спор, в котором невозможно спрогнозировать позицию суда.

– Последний вопрос. Крупные компании отказываются от call-центров в пользу чат-ботов. При этом многих раздражает общение с роботом и люди просят переключить на оператора, потратив уйму времени на разговор с роботом. Это нарушает права потребителя?

– На этот вопрос можно чётко ответить: да, это действительно нарушает права потребителей. Согласно законодательству, потребитель имеет право на качественную услугу. Если чат-бот не может ответить на вопрос, при этом выдаёт ненужную информацию, задаёт много дополнительных вопросов, начинает просто выводить вас из себя, – это повод для жалобы в уполномоченные органы.

Была ли эта статья для вас полезной?
0

  Если вы нашли ошибку в тексте, выделите её мышью и нажмите Ctrl+Enter

  Если вы нашли ошибку в тексте на смартфоне, выделите её и нажмите на кнопку "Сообщить об ошибке"

Новости партнёров