В Томском госуниверситете разработают учебный курс для цифровых двойников

На открытии пространства коллективной работы «Точка кипения» в Томске магистрант Юридического института Томского государственного университета (ТГУ) Елена Ирискина представила результаты своего исследования о том, как искусственный интеллект отслеживает наши действия в сети и формирует цифровых двойников. Представитель направления «Молодые профессионалы» АСИ Юрий Сушинов пообщался с автором исследования и выяснил, какой вред могут нанести людям «злые» цифровые двойники, каким образом можно выращивать и обучать искусственные интеллекты (искины), а также какое правовое поле необходимо создать для разделения ответственности между человеком и искином.

Томский госуниверситет - партнер университета Национальной технологической инициативы (НТИ) «20.35», победитель конкурса «Университет для НТИ»

- Елена, в исследовании вы отмечаете, что электронные следы, которые мы как пользователи оставляем в интернете, способствует формированию наших цифровых двойников. Если оставлять эти метки бездумно, это может привести к конфликту между нашей цифровой личностью и реальной. Но возможные действия цифровых двойников не регулируются юридически. Какие есть возможности для защиты?

- Мы рассматриваем вопросы ответственности роботов, и под роботами мы понимаем самоуправляемые, независимые, наделенные искусственным интеллектом, самостоятельно принимающие решения машины, которые становятся субъектами права. Стандартные нормы, по романо-германской правовой системе, в данной области не применимы, потому что каждый случай требует детального анализа. Например, ДТП с участием беспилотника Google. Поэтому мы предлагаем ввести таблицу прецедентов. Изучая этот вопрос, наша рабочая группа вносит их в разработанный нами классификатор, чтобы в дальнейшем можно было определять лиц, которые должны нести ответственность и снижать судебные издержки. Мы также разработали виртуальные судебные заседания, в которых были роли для изобретателя, программиста, завода-изготовителя, пользователя, собственника, адвоката. В зависимости от разных факторов то или иное лицо оказывалось ответственным за причинение вреда, в том числе на основании солидарной ответственности. Другими словами, любое лицо, даже программист, может нести ответственность. 

На данный момент эта сфера не регулируется юридически, а случаи, когда действия искусственного интеллекта могут навредить человеку, хотя и единичны, будут возникать все чаще и чаще, потому что искин развивается, самообучается, а в скором времени сможет принимать решения за нас.

- Где мы сталкиваемся с цифровым двойником?

- В исследовании мы проследили сам генезис, как появляется цифровой двойник у человека. Возьмите, к примеру, социальные сети. У Facebook хорошо развит искусственный интеллект, он активно предлагает друзей, причем может отслеживать нашу геопозицию, модель устройства, с которого мы заходим в сеть и так далее. По каждому пользователю сформирован огромный массив данных. И тот же Facebook, в зависимости от геопозиции, может предлагать потенциальных друзей, которые бывают в этих же местах.

Уже сейчас у каждого из нас есть цифровой двойник, он пока не обладает полной степенью автономности, но мы к этому идем. Технологическая сингулярность уже близка, и некоторые ученые прогнозируют ее на 2027 год. Остается время, чтобы мы смогли урегулировать отношения с нашими цифровыми двойниками. Это пока виртуально, но отдельное проявление мы с вами можем проследить, например, в таргетированной рекламе. Искусственный интеллект встраивается в поисковые системы, настойчиво предлагает товары, либо выдает результаты поисковых запросов, исходя из наших интересов. Искин определенно знает, что вы, например, программист, или художник, и в зависимости от этого подстраивает свой ответ. Мы уже сильно от него зависимы, хотя, возможно, и не всегда замечаем это.

В ближайшие 10 лет, а уж тем более к 2035 году он уже будет настойчиво говорить нам, что именно нам нужно. Что, например, вредно заказывать эту пищу, нужно заказать другую. Мы перейдем к отношениям не рекомендательного, а принудительного характера. Такую проблему мы ставим.

- В исследовании вы отмечаете, что цифровой двойник может быть добрым, а может быть злым. От чего это зависит?

- С одной стороны, человек может создавать своего объективного («реального») двойника, сообщать только достоверную информацию о своих предпочтениях, интересах, о том, какой он есть. А с другой стороны, он может казаться кем-то другим и сообщать, наоборот, недостоверную информацию («идеальный» или фейковый двойник).

- Преследуя определенные цели.

- Именно. Мы делим электронный профайл человека, который представляет собой всю совокупность электронных теней, на идеального, реального и фэйкового. Реальный - это то, к чему мы все должны стремиться, о чем мы должны задумываться. Мы прямо сейчас растим и выкладываем искусственному интеллекту эту информацию, обучаем его. Лайки, которые мы ставим, помогают искусственному интеллекту, нашему профайлу, понять, что нам нравится. И он, соответственно, будет подбирать нам такую же информацию. А если нам нравятся статьи о насилии или мошенничестве, то искин будет формировать на основе наших цифровых следов соответствующий профайл, и это будут очень злые цифровые двойники. 

Мы абсолютно уверены, что в будущем искусственный интеллект пройдет точку сингулярности, обретет автономность, что он от нас отделится и будет нашим самостоятельным цифровым двойником.

- Но мы используем разные аккаунты в различных местах сети

- В будущем будет единый профайл, собранный из всех возможных профайлов человека и его «теней». Даже сейчас в Instagram можно привязать к аккаунту все профайлы из соцсетей. Если в различных профайлах вы сообщаете о себе разную информацию, возможно даже противоречивую, то, как мы предполагаем, все равно в результате синергии искусственный интеллект создаст единый электронный профайл человека.

- Не будет ли противоречия между реальным и фэйковым профайлом?

- Если мы создаем электронный профайл, который нам не соответствует, то существует вероятность конфликта, когда мы захотим выразить свое мнение или желание по определенному вопросу одним образом, а электронный профайл посчитает совершенно по-другому. С развитием искусственного интеллекта и его вовлеченности во все сферы жизни такая вероятность возрастет и может навредить. Здесь зона конфликта непредсказуемая, поэтому мы всех призываем задумываться о том, какую информацию мы сохраняем о себе в интернете.

- Чем может закончиться такой конфликт? Все-таки этот цифровой двойник, несмотря на то, что может быть злым, пока представляет собой довольно безобидное «облако»

- Пока да, потому что не обрел автономность. Мы же говорим о том, что, когда он пройдет точку достаточной автономности, вы не сможете отличить, общаетесь со мной или с моим цифровым двойником. Он точно так же сможет отвечать на сообщения, принимать решения. Например, Amazon Echo использует в проекте «Умный дом» помощника Alexa. Однажды в Германии, когда владелец дома уехал по делам, Alexa ночью включила музыку на полную громкость. Причина, почему она так сделала, неизвестна. Кто несет ответственность? Тоже неизвестно. Соседи вызвали полицию. Полиция взломала дом, узнала, что никого нет, но есть Alexa.

- Получается, никто не виноват? На что еще способен искусственный интеллект?

- У той же Alexa есть интересная функция - «добавление списка покупок». Изначально мы сами даем искусственному интеллекту такие полномочия, увеличивая уровень автономности. Мы, конечно, сами добавляем вещи в список покупок, но в дальнейшем уже искусственный интеллект будет решать, что нам необходимо, чего у нас не хватает, и самостоятельно совершать покупки. И тут, опять же, он может причинить вред и мне, как собственнику, и обществу, если будет абсолютно бесконтрольной. Если сейчас не наделить цифровых двойников обязанностями, то они позаботятся об этом сами, учитывая наши интересы. Например, основанные на фэйковых данных, которые мы же сами оставляем. Цифровой двойник должен именно помогать нам, не противоречить, то есть быть нашим полноценным двойником, чтобы мы могли к нему обращаться в случае нехватки тех или иных знаний, компетенций.

- Какие перспективы у правового регулирования этой сферы?

- Мы постоянно этот вопрос поднимаем, но, к сожалению, большинство людей не верят в то, что искусственный интеллект можно признать субъектом права, более того, считают, что это противоречит всем существующим принципам и правовой доктрине. Мы же мыслим в рамках НТИ (Национальная технологическая инициатива – прим.) и верим, что к 2035 году, как говорит Дмитрий Песков (директор направления «Молодые профессионалы» АСИ – прим.), в университетах будут обучаться не только люди, но и их цифровые двойники. 

Мы планируем в ТГУ разработать учебный курс для цифрового двойника. Если он должен нам помогать, мы его должны правильно обучить. Возможно, в рамках Университета НТИ «20.35» это будет реализовано.

- Можете поделиться подробностями курса? И как можно урегулировать в правовом поле отношения цифрового двойника и университета, необходимо ли это вообще, и какой положительный или отрицательный эффект может оказать двойник на обучающегося в университете?

- В настоящее время мы находимся на стадии исследований, обсуждаем, чем будут отличаться курс для человека и курс для его цифрового двойника? Есть много зафиксированных идей, кстати, многое было предложено в «Точке Кипения» в Москве и сейчас дорабатывается. Очень много вопросов еще нужно и хочется обсудить с единомышленниками.

- Эту тему вы планируете в дальнейшем обсуждать в «Точке кипения» в Томске?

- Мы пока ищем способы как регулирования отношений между цифровыми двойниками и человеком, так и их правовые основы. Конечно, наша рабочая группа будет использовать пространство «Точки кипения» для встреч, сессий, обсуждений этой проблематики с другими группами, в других городах. Мы хотим найти единомышленников и продолжить эту работу.