Почему следует заставить ИИ-системы «забывать» доставшиеся им данные?

20 июня 2019
Почему следует заставить ИИ-системы «забывать» доставшиеся им данные?

Представляем вашему вниманию сокращённый перевод статьи вице-президента Symantec Даррена Шоу (Darren Shou). Когда Евросоюз год назад ввел в действие свой новый регламент по защите данных (GDPR), одним из самых революционных его положений стало «право на забвение» — широко обсуждавшийся принцип, иногда воспринимаемый как наделение человека правом требовать удаления информации о себе из Интернета.

С того момента вопрос цифровой конфиденциальности редко сходил со сцены. Не утихают дебаты в правительстве, корпорациях и медиа о том, как данные собираются, хранятся и используются, и какие права собственности имеют по отношению к своим данным пользователи. Тем временем мы практически не замечаем важнейший аспект – как контролировать наши данные после того, как они будут использованы для машинного обучения и искусственного интеллекта – всепроникающих технологий наших дней.

Фактически каждая современная компания так или иначе собирает информацию о своих клиентах или пользователях; эти данные хранятся, продаются, анализируются и используются для обучения ИИ-систем.

Нет эффективного способа отозвать данные, нейтрализовать их влияние на конечный результат обработки после того, как они будут «усвоены» ИИ-системами. Когда мы думаем о применении права на забвение, мы видим, что отзыв конкретной информации у бесчисленного количества частных компаний и брокеров данных представляет собой огромную проблему. Даже если мы преуспеем в решении этой проблемы, ещё более сложный вопрос – как научить машину «забывать» что-то – останется нерешённым.

Этот вопрос стоит особенно остро по отношению к нынешним детям и подросткам – «поколению ИИ». Они проходят самый внушительный «бета-тест» всех времён – без учёта того, что дети совершают ошибки, что они учатся на ошибках и развиваются благодаря им. Алгоритмы не обладают снисходительностью и терпимостью, что означает, что данные о юношеских проступках будут иметь равный вес (и так же запоминаться), как и любая другая информация, на которой обучаются ИИ-системы. Потенциально это может приводить к закреплению «плохого поведения» или ограничению будущих возможностей ребенка.

Например, сегодня члены приёмной комиссии колледжа уже могут разыскать компрометирующие фотографии абитуриента в соцсетях – а в будущем они смогут прослушать записи разговоров, сделанные голосовым помощником «умного дома», когда абитуриенту было 12 лет.

Между тем «поколение ИИ» нуждается в безусловном «праве на прощение».

Исторически общество активно работало над защитой детей, предполагающей границу между детством и совершеннолетием (до которой дети оценивались по другим стандартам, чем взрослые; к ним относились мягче). Но современные несовершеннолетние не всегда получают эту привилегию. Активный сбор данных и вторжение ИИ в их повседневную жизнь произошли с минимальным контролем – и мало кто всерьёз задумывался о последствиях этого.

Мы не даём себе труда подумать, что значит для детей сбор и анализ данных о них. Мы не даём себе труда понять, чем это грозит детям в будущем. В цифровом мире каждый клик, каждое взаимодействие, каждая загрузка каждой картинки записываются, собираются и анализируются искусственным интеллектом. Сможет ли ИИ опознать детскую ошибку (понятную взрослому наблюдателю в физическом мире) и затем увидеть, как ребёнок осознаёт и исправляет её? Или плохой поступок будет вписан в историю жизни человека ИИ, который в «собственных» интересах станет подталкивать нас совершать различные действия?

Поступки детей, в том числе ошибочные, навсегда останутся привязанными к их «цифровому образу» — но разве кто-то вправе знать о них? И разве кто-то вправе осуждать детей за ошибки?

Что ещё хуже, огромные массивы данных, получаемые ИИ, позволяют ИИ-системам принимать решения «интуитивно», подобно тому, как поступают люди. Сегодня продвинутые ИИ-системы становятся «чёрными ящиками» — на основании проанализированной информации они выдают решения, а люди не способны понять, исходя из чего эти решения приняты.

Весь этот масштабный сбор данных и персонализация кажутся полезными только до тех пор, пока не перестают быть полезными. Водораздел между двумя этими состояниями, т.е. между пользой и вредом – время. Если попробовать заглянуть в будущее, мы увидим там всё больше вопросов. Например, какие права имеет человек на свои данные после смерти? Может ли ИИ обучаться на поведении, решениях человека, если тот уже умер?

В физическом мире человек должен дать предварительное согласие на то, чтобы стать донором органов. Также он может распорядиться своим имуществом, завещав его конкретным лицам. В цифровом мире все «наследие» человека может быть растащено частными компаниями – без всякого его согласия.

Из-за несовершенства законодательства, отсутствия правил, устанавливающих границы, или технологии, которая изменит существующую политику, мы останемся один на один с децентрализованной системой, не контролируемой человеком. Алгоритмы не умеют выбирать, о чём следует забыть. А у тех, кто за них в ответе, может не быть повода, способностей или желания заниматься этой проблемой.

Искусственный интеллект начинался как академический проект, у его разработчиков были альтруистические намерения. Благодаря преимуществам, которые дарует ИИ, предполагалось исцелять больных и кормить голодных. Но когда ИИ начал внедрять бизнес, речь пошла об обеспечении роста продаж товаров – часто посредством изучения потребностей потребителей. Сочетание дешёвых дата-центров и бесконечных возможностей ИИ привело к массовому сбору данных, при котором очень сложно «забыть» какую-либо информацию.

В то же время ИИ-системы не непогрешимы. Исследователи обнаружили недавно, что ИИ можно «пытать» с целью получить секретные сведения или конкретную информацию. Это значит, что неспособность ИИ-систем забывать причиняет ущерб не только конфиденциальности частных лиц, оно также может привести к реальным проблемам глобальной безопасности.

Время решить эти проблемы ещё есть, но действовать следует немедленно. Люди, а не ИИ создали эту ситуацию, и им следует взять на себя ответственность. Когда речь заходит о приватности, простых ответов нет, но существуют ограждающие барьеры, безопасные сети, границы, которые должны быть установлены, чтобы восстановить порядок и дать людям власть над их собственными данными.

Работы по поиску потенциальных решений уже начались, однако настоящий сдвиг потребует сотрудничества между разработчиками ИИ, инженерами, специалистами по этике, исследователями, учеными, социологами, политиками и правительствами.

Перевод с английского — Вика Рябова.

Источник: Экспертный центр Электронного государства

Читайте также:

21 июня 2019

Иран заинтересовался российскими ИТ-продуктами и решениями

Россия поставит Ирану ряд своих ИТ-продуктов, в том числе в сфере информационной безопасности, «умного» города и электронного правительства. Такие решения приняты в ходе первого заседания Российско-иранской рабочей группы по сотрудничеству в области информационных и коммуникационных технологий.

19 июня 2019

Зрелость рынка ИБ в Казахстане - итоги Код ИБ в Нур-Султане

Бытует мнение, что сфера информационной безопасности в странах Средней Азии имеет серьезные отставания от рынка России. Так ли это на самом деле разбирались эксперты на международной конференции Код ИБ в Нур-Султане, прошедшей 6 июня в отеле Hilton Astana.