Европейский союз согласовал директиву по искусственному интеллекту, предусматривающую многомиллионные штрафы за нарушения
Законодатели стран-членов Европейского союза достигли консенсуса относительно директивы по искусственному интеллекту (ИИ), задачей которой является гарантирование безопасного и этичного применения ИИ. Несоблюдение установленных директивой требований влечет за собой штрафы в размере миллионов евро.
«Этот регуляторный акт является пионерским в области регулирования разработки, внедрения на рынок и использования систем ИИ», – заявил Тоомас Сеппель, присяжный адвокат из юридической фирмы Hedman.
В соответствии с директивой, за нарушения предусмотрены штрафы до 7,5 миллионов евро или до 1,5% от годового оборота компании. Для крупных международных корпораций размер штрафов может достигать 35 миллионов евро или до 7% от мирового оборота.
«Размер штрафов зависит от тяжести нарушения и масштаба деятельности предприятия. Такая строгая регуляция необходима для предотвращения нарушений и обеспечения защиты прав человека, способствуя ответственному развитию и применению ИИ», – подчеркнул Сеппель.
Важным аспектом директивы является обязательная прозрачность в взаимодействии с ИИ: системы должны уведомлять пользователей о том, что они взаимодействуют с машиной. Это касается автоматической идентификации на границе, чат-ботов в службах поддержки, а также приложений вроде Snapchat и ChatGPT.
Также пользователи искусственных дипфейков обязаны указывать на искусственное происхождение контента. Хотя для физических лиц штрафы не предусмотрены, они не освобождаются от общей юридической ответственности, например, за клевету.
Директива вводит понятие искусственного интеллекта общего назначения (GPAI), к которым относятся системы, способные выполнять широкий спектр задач, например, ChatGPT, Bard и DALL-E. В будущем такие системы должны соответствовать требованиям прозрачности.
Директива также охватывает более продвинутые модели GPAI, потенциально создающие системный риск, включая разработки OpenAI (GPT-3, GPT-4), DeepMind (AlphaGo, AlphaFold) и IBM (Watson), к которым будут применены дополнительные требования.
Системы ИИ классифицируются на основании уровня риска на низкий, высокий и запрещенный. Системам с низким уровнем риска будут применяться общие требования прозрачности, в то время как на системы с высоким и запрещенным уровнями риска будут наложены дополнительные обязательства и запреты.
Директива ЕС по ИИ теперь ожидает дальнейшего обсуждения и одобрения европейскими законодателями. Эстония разрабатывает собственную стратегию ИИ на основе этой директивы, направленную на создание стандартов и обеспечение безопасности ИИ. Ожидается, что директива будет принята комитетами ЕС в ближайшие две недели и вынесена на голосование в Европейский парламент в апреле.