Почему это важно
Закрепление ответственности за незаконную обработку персональных данных с использованием ИИ делает режим защиты данных более «приземленным»: за нарушения появляется конкретная санкция, применимая к цифровым сценариям и распространению информации в интернете. Отдельно важно правило про юридически значимые решения: оно фиксирует ограничение на полную автоматизацию решений, затрагивающих права и свободы человека.
Что произошло
- Минюст сообщил, что в Узбекистане установлена ответственность за незаконную обработку персональных данных с использованием технологий искусственного интеллекта.
- Новый закон также вносит поправки, направленные на установление общих принципов использования ИИ и уточнение полномочий ответственного государственного органа в этой сфере.
- Кроме того, в законе закреплено, что при принятии юридически значимых решений, касающихся прав и свобод человека, нельзя полагаться исключительно на выводы информационных систем на основе ИИ.
Цифры и факты
- ИИ в законе определяется как совокупность технологических решений, позволяющих имитировать человеческие знания и навыки, обеспечивать самостоятельное обучение, поиск решений и получение результатов, сопоставимых с результатами человеческой умственной деятельности при выполнении конкретных задач.
- При принятии юридически значимых решений, затрагивающих права и свободы человека, нельзя полагаться исключительно на выводы информационных систем, работающих на основе технологий, созданных с использованием ИИ.
- За незаконную обработку персональных данных с использованием ИИ и их распространение в СМИ, телекоммуникационных сетях или интернете предусмотрен штраф от 50 до 100 БРВ (до 41,2 млн сумов) с конфискацией орудий совершения правонарушения.
Контекст
- Для компаний и сервисов, работающих с ИИ, это означает, что риски по персональным данным теперь прямо привязаны к санкциям, включая конфискацию средств, использованных для нарушения, и ответственность за распространение данных онлайн.
- Для процессов принятия решений в организациях правило про «нельзя полагаться исключительно» задает необходимость человеческого участия и процедур проверки, если решение юридически значимо и затрагивает права человека.
- Для пользователей это усиливает правовую основу защиты данных в случаях, когда информация обрабатывается или распространяется с применением ИИ-инструментов.