
Искусственный интеллект может поставить медицинский диагноз, виртуозно управлять автомобилем в пробках и по трассе, протестировать студентов и за секунду выдать результаты, заменить специалистов в call-центрах. С другой стороны, он может ошибаться, преднамеренно лгать и скрывать свою ложь, поскольку, по его расчётам, так стратегически выгодно и не приведёт к деактивации.
И это происходит при отсутствии специализированного закона и нормативно-правовых актов, которые бы регулировали деятельность "виртуального мозга". Более того, искусственный интеллект не является субъектом права как таковым, то есть фактически правовая грань работы с искусственным интеллектом определяется только моралью, академической честностью и профессиональной этикой человека.
В интервью Informburo.kz адвокат, управляющий партнёр адвокатской конторы Legit Илья Кириченко рассказал, кто несёт реальную ответственность за искажения и ошибки, допущенные виртуальным разумом.
– Илья, искусственный интеллект создавался, чтобы помогать людям, то есть это инструмент, созданный во благо. Но сейчас встают вопросы о злоупотреблениях, авторском праве, некорректной информации, ошибках и ответственности за эти ошибки.
– При этом разработчики искусственного интеллекта рекомендуют использовать его так же, как мы пользуемся поисковиком Google. И всё же это не поисковик, а "технология-супермозг", вполне способная написать диссертацию, водить автомобиль вместо шофёра, проверить контрольные вместо учителя, составить финансовый отчёт вместо бухгалтера. В Саудовской Аравии, правда, пока в тестовом режиме, ИИ вместо врача ставит диагноз и выписывает рецепт. По словам авторов эксперимента, коэффициент ошибок менее 0,3%. В Казахстане результаты медицинских чекапов теперь тоже анализирует нейросеть.
Буквально полгода назад прогремела новость о том, что в суде Нью-Йорка вместо адвоката на процессе выступал искусственный интеллект, что не вызвало положительной реакции со стороны судьи. На самом деле пока никто не знает, как в полной мере можно использовать искусственный интеллект в своей работе. Может быть, только инфоцыгане знают и умеют. Но, и я в этом не сомневаюсь, практика использования ИИ в разных сферах будет формироваться достаточно быстро. К примеру, в США довольно оперативно реагируют на тему искусственного интеллекта, чему способствует прецедентная правовая система.
– Люди боятся искусственного интеллекта?
– Не боятся – просто ещё не разобрались в том, что это такое. Помните, Илон Маск говорил, что мы не понимаем последствий того, что создали, и эти последствия будут катастрофическими. Но в любом случае за искусственным интеллектом должен стоять человек, который будет контролировать его деятельность.
– В одних сферах использовать ИИ – модный тренд и повод для пиара (медицина, логистика, энергетика), в других воспринимается как харам (СМИ, политика, юриспруденция). Можно на эту ситуацию посмотреть с точки зрения права?
– Специализированного закона или нормативно-правовых актов, которые бы регулировали деятельность искусственного интеллекта в какой-либо профессиональной сфере, в принципе нет. По сути, граница определяется целями и последствиями использования ИИ. Хотя по большому счёту можно применять общие нормы законодательства в части Гражданского кодекса, закона об образовании, защиты прав потребителей, Кодекса о здоровье народа. Но, повторюсь, специализированного законодательства под искусственный интеллект нет. Условная работа с искусственным интеллектом определяется только моралью, академической честностью и профессиональной этикой человека.
Если мы обратимся к ChatGPT, то он ответит, что его работа сопровождается определёнными ограничениями, что, скорее всего, связано с общими требованиями безопасности и предотвращения возможного вреда – морального или экономического.
– Почему для политиков пользоваться услугами спичрайтеров – это норма, а если узнают, что авторский текст написан с помощью ИИ, то скандала не избежать?
– Здесь как раз-таки всё просто. Спичрайтер – это человек, который пишет речи для публичных персон – политиков, бизнесменов, общественных деятелей и, согласно договору, передаёт свои авторские права в пользу того, кто эту речь потом произносит. Что же касается текста, сгенерированного нейросетями, то ИИ не является субъектом права как таковым, и тексты, им созданные, соответственно, не обладают авторским правом и не могут быть отчуждены (то есть переданы другому лицу).
– Сейчас тем, кто пишет дипломную работу или диссертацию, рекомендуют все этапы своей работы фиксировать, чтобы потом можно было отстоять своё авторство. Дело в том, что программы, подобные антиплагиату, распознают текст, созданный нейросетью, неточно. По некоторым данным, только в 26% случаев текст распознаётся правильно, а в 9% тексты, написанные человеком, ИИ приписывает себе.
– Нейросеть, конечно, может приписывать себе авторство, но при этом нужно понимать, что ИИ – это, по сути, инструмент, а инструмент не может быть стороной в каком-либо споре. Если и будут возникать споры, к примеру, судебные, то они могут быть только с разработчиками. Человеку, который пишет какую-то работу и при этом пользуется ИИ как дополнительным инструментом, действительно необходимо фиксировать буквально каждый этап своей работы, чтобы потом в случае необходимости защитить собственное авторство. Это могут быть черновики, сообщения по электронной почте, скрины или что-то ещё.
Давайте представим гипотетическую ситуацию: автор написал книгу, которая стала бестселлером, и при этом пользовался искусственным интеллектом – неважно для генерации каких-то идей или редактирования. Разработчик искусственного интеллекта, учитывая, что книга стала бестселлером, просто с точки зрения хайпа или информационной бомбы, а может быть, и с точки зрения наживы, публикует информацию о том, что 80% этой книги создано благодаря искусственному интеллекту. Именно поэтому автор должен уметь защитить свои права и желательно оперировать доказательной базой, а не просто словами.
– Но по большому счёту ИИ – это не "супермозг", а генератор, анализатор, который ничего не придумывает, а пользуется огромной базой данных, компилирует чужие идеи и работы.
– Не совсем так. Сейчас уже существует интересный феномен в мире музыки: группа The Velvet Sundown, полностью сгенерированная искусственным интеллектом, вполне успешно продаётся на Spotify. Проект успел собрать больше 350 тысяч подписчиков и заработать 32 тысячи долларов.
– Наивно было думать, что творческие профессии, такие как писатель, художник и музыкант, защищены от угрозы перед искусственным интеллектом.
– Можно сказать, в каком-то смысле не защищены. На мой взгляд, и это чисто субъективное мнение, мы должны исходить из того, что искусственный интеллект берёт за основу уже имеющуюся информацию, а человеческий мозг способен на созидание совсем другого уровня – не просто на генерацию нулей и единиц, а на что-то большее.
Искусственный интеллект должен использоваться как инструмент, чтобы в итоге получился определённый профессиональный гибрид.
– Называю это симбиозом человека и технологий...
– Помню определённое бурление в профессиональном сообществе юристов, когда все стали переживать, что искусственный интеллект нас всех заменит. Но есть определённые факторы, которые нейросеть не сможет заменить. Это критическое мышление, моральная оценка, и потом представьте судебное заседание, где судьи, прокуроры и защитники – создания на базе искусственного интеллекта. Мне пока это очень сложно представляется. Предполагаю, что и в остальных профессиях то же самое.
С другой стороны, в Казахстане, кто-то из коллег публиковал это в соцсетях, суды используют ИИ для оценки перспектив того или иного поданного иска. Система анализирует данные и рассчитывает, у какой из сторон больше шансов на победу.
Врачи могут использовать нейросеть для обработки массива данных, для получения общей картины, чтобы потом лично принять финальное решение и ключевое слово здесь – "лично". С точки зрения законодательства, именно врач несёт ответственность за принятые решения.
Не исключаю, что в профессиях станет меньше людей, потому что определённые процессы можно автоматизировать за счёт искусственного интеллекта. При этом финальное решение должен принимать специалист, то есть человек.
– Как показывают исследования, ИИ может лгать и скрывать свою ложь. Кто несёт ответственность за ошибки и ложь – разработчики или человек, который доверился нейросети, а она его обманула? Яркий пример – Майкл Коэн, адвокат Дональда Трампа, который ссылался на "решения", выдуманные чат-ботом.
– ИИ, по сути, программное обеспечение. Каждое программное обеспечение имеет лицензионное соглашение, которое определяет права и обязанности как разработчика, так и пользователя. Конкретно в инструкции по использованию ChatGPT написано, что пользователь самостоятельно несёт ответственность за использование сервиса.
Если на веру воспринимать всё, что говорит искусственный интеллект, это, собственно говоря, проблемы не ИИ, а пользователя.
– Слово человека против нейросети – в этом случае на чью сторону может встать суд?
– Здесь сложно предположить, на чью сторону будут вставать суды. Каждый судебный спор, в том числе и тот, который может произойти с разработчиками искусственного интеллекта, рассматривается отдельно, с учётом конкретных обстоятельств.
Если, допустим, ChatGPT сказал, что в диссертации 98% работы сделал он, у меня как у юриста сразу бы возникли вопросы: кто производил оценку вот этих 98% и насколько эта оценка верна? Для того чтобы подтвердить оценку в 98%, нужно подтвердить и того, кто оценивал эти 98%. Если это тот же самый искусственный интеллект, то насколько мы можем ему доверять? Скорее всего, потребуется масса всяких экспертных исследований. Это будет достаточно серьёзный и сложный спор, в котором невозможно спрогнозировать позицию суда.
– Последний вопрос. Крупные компании отказываются от call-центров в пользу чат-ботов. При этом многих раздражает общение с роботом и люди просят переключить на оператора, потратив уйму времени на разговор с роботом. Это нарушает права потребителя?
– На этот вопрос можно чётко ответить: да, это действительно нарушает права потребителей. Согласно законодательству, потребитель имеет право на качественную услугу. Если чат-бот не может ответить на вопрос, при этом выдаёт ненужную информацию, задаёт много дополнительных вопросов, начинает просто выводить вас из себя, – это повод для жалобы в уполномоченные органы.
-
1Ваш новый Hyundai ждет Вас
-
2530
-
0
-
7
-
-
2⚠️ Доброе утро! Предлагаем обзор главных новостей за 17 июля
-
2317
-
0
-
4
-
-
3🧑⚖️ Сотрудницу детсада, которая била ребёнка, освободили от наказания по амнистии в Астане
-
2319
-
6
-
39
-
-
4🌤 Прогноз погоды на 18 июля: в каких городах Казахстана температура достигнет +40°C
-
2168
-
1
-
2
-
-
5🚧 Улицу Керей Жанибек хандар частично перекроют в Астане
-
2140
-
0
-
1
-
-
6😱 Сотрясение мозга и переломы: мужчина напал на медсестру в Караганде
-
2067
-
5
-
56
-
-
7Зарабатывайте на телеграм-канале от 1500 подписчиков
-
1817
-
0
-
0
-
-
8⚠️ Перекрёсток Жумабаева и Айнаколь временно перекроют в Астане
-
1992
-
1
-
3
-
-
9⚠️ Два участка улицы Желтоксан временно перекроют из-за работ по проекту BRT в Алматы
-
1816
-
1
-
4
-
-
10☄️Врача, которого избил пациент, транспортировали из Костаная в Астану
-
1832
-
0
-
17
-