Трансграничное использование ИИ и утечки данных

24 февраля 2025
Трансграничное использование ИИ и утечки данных

По прогнозам, к 2027 году более 40% утечек данных, связанных с искусственным интеллектом, будут вызваны неправильным использованием генеративного ИИ при трансграничных передачах.

Эти утечки происходят из-за того, что данные отправляются за пределы стран без достаточного контроля, что создает серьезные проблемы для безопасности.

Предприятиям в ближайшее десятилетие придется столкнуться с трудностями в использовании ИИ и обеспечении конфиденциальности данных. Непреднамеренные трансграничные передачи данных часто происходят из-за недостаточного надзора, особенно когда генеративный ИИ интегрируется в продукты без четких описаний.

Кроме того, что сотрудники компаний, использующие генеративные инструменты ИИ, создают контент, который может нести риски безопасности. Это касается случаев, когда конфиденциальные данные передаются через неизвестные API и ИИ-сервисы.

Проблемы фрагментированного регулирования и геополитической напряженности

Два фактора усиливают угрозу безопасности:

  • Фрагментированное регулирование. Отсутствие единых глобальных стандартов управления ИИ заставляет компании разрабатывать региональные стратегии соблюдения законов. Это не только затрудняет масштабирование бизнеса, но и создает пробелы в защите данных.
  • Геополитическая напряженность. Конфликты между странами усиливают риск несанкционированного доступа к конфиденциальной информации. Поскольку ведущие модели генеративного ИИ контролируются несколькими глобальными технологическими гигантами, организации могут неосознанно отправлять данные за границу, что дает возможность для их перехвата.

Прогнозируется, что к 2028 году хотя бы одна страна запретит использование крупной платформы генеративного ИИ из-за опасений по поводу безопасности данных.

Новая угроза: квантовое шифрование

Помимо рисков, связанных с ИИ, появляется новый вызов – квантовое шифрование.

  • Разработка новых алгоритмов. Многие организации уже работают над алгоритмами постквантовой криптографии (PQC). Например, Национальный институт стандартов и технологий (NIST) в США завершил первый этап разработки стандартов PQC в 2024 году.
  • Высокая стоимость. Хотя алгоритмы PQC намного мощнее традиционных методов, их внедрение обходится дорого. Предприятиям придется провести масштабную замену всех технологий, использующих классическую криптографию, на квантово-устойчивые решения.

Аналитики считают, что для многих компаний переход на постквантовую криптографию будет слишком затратным, что оставит их уязвимыми для утечек данных. К 2034 году традиционные методы шифрования могут устареть, что усугубит проблемы безопасности.

Будущее: снижение рисков или удаление данных?

В условиях роста применения ИИ и появления квантовых угроз, к 2029 году компании, вероятно, будут вынуждены удалить большую часть персональных данных, чтобы избежать рисков утечек. Это связано с тем, что многие организации не смогут позволить себе дорогостоящие квантовые решения для защиты информации.

В итоге, бизнесу необходимо уже сегодня внедрять более строгие меры управления и шифрования, чтобы обезопасить свои данные и оставаться конкурентоспособными в эпоху ИИ и квантовых вычислений.

Читайте также:

07 марта 2025

ИИ-модели прибегают к читерству в шахматах, когда понимают, что их переигрывают

Команда исследователей ИИ из Palisade Research обнаружила, что несколько ведущих моделей искусственного интеллекта начинают жульничать в шахматах, если играют партии с более сильным соперником.