Испанцы объявили войну фальшивкам: за скрытое использование ИИ ‒ миллионные штрафы

Удастся ли стране обуздать дипфейки с новыми правилами?


pb4c8w1iahdnvfcppupg4b3xf42xnrgd.jpg


Правительство Испании одобрило законопроект, который грозит компаниям огромными штрафами за использование контента, созданного искусственным интеллектом, без соответствующей маркировки. Новые правила призваны ограничить распространение дипфейков - поддельных фото, видео и аудиозаписей, которые выглядят как настоящие.

Как пояснил министр цифровой трансформации Оскар Лопес, документ основан на недавно принятом в Евросоюзе Законе об искусственном интеллекте, который требует строгой прозрачности от систем, несущих серьезные риски для общества.

По словам Лопеса, нейросети - мощнейший инструмент, способный как улучшить жизнь людей, так и стать источником дезинформации и угрозой демократии. От дипфейков не застрахован никто - современные алгоритмы позволяют создавать настолько убедительные подделки, что отличить их от реальности становится все сложнее.

Вообще, Испания - одна из первых стран ЕС, которая внедряет общеевропейские правила регулирования этой области. Эксперты отмечают, что европейский подход гораздо жестче американского, где индустрия в основном полагается на добровольное соблюдение этических норм, а законодательство сильно различается от штата к штату. Мы же вовсе пока не погружаемся в эту тему достаточно глубоко.

Компаниям, которые не промаркируют контент, созданный с помощью ИИ, грозят серьезные санкции. Штраф может достигать 35 миллионов евро или 7% годового оборота нарушителя. Впрочем, законопроекту еще предстоит пройти утверждение в нижней палате парламента.

Также запрещено будет использовать скрытые техники манипуляции уязвимыми группами населения. Речь идет о неразличимых человеческим ухом звуках или незаметных глазу изображениях. Здесь министр приводит конкретные примеры: это могут быть чат-боты, подталкивающие людей с игровой зависимостью к ставкам, или игрушки, побуждающие детей к опасным действиям.

А еще компаниям запретят собирать биометрические данные граждан для их автоматической оценки с помощью ИИ. Больше нельзя будет создавать цифровые досье, анализировать поведение людей и их личные качества, чтобы потом решать, кому дать кредит, предоставить услугу или отказать в них. Нельзя использовать нейросети и для предсказания вероятности преступного поведения человека.

При этом правоохранительные органы сохранят право использовать системы биометрического наблюдения в режиме реального времени в общественных местах, если того требуют интересы национальной безопасности.

За соблюдением новых правил будет следить недавно созданное Агентство по надзору за искусственным интеллектом (AESIA). Впрочем, в некоторых специфических областях контроль останется за профильными регуляторами. К таким сферам относятся защита персональных данных, борьба с преступностью, проведение выборов, кредитные рейтинги, страхование и операции на рынках капитала.