12.03.2024 Вторник

RIA призывает повысить внимание к связанной с искусственным интеллектом кибербезопасности

В связи со все более широким распространением систем искусственного интеллекта Департамент государственных информационных систем (RIA) считает, что необходимо уделять особое внимание связанной  с ИИ кибербезопасности – для поддержки планов развития эстонских компаний и учреждений департамент RIA и компания Cybernetica AS представили  анализ рисков технологии ИИ и возможностей  снижения  этих рисков. Ознакомиться с этим анализам  стоит  всем, кто намерен внедрить  ИИ.
RIA призывает повысить внимание к связанной с искусственным интеллектом кибербезопасности
RIA призывает повысить внимание к связанной с искусственным интеллектом кибербезопасности Фото: RUP

«Использование ИИ — это не просто просить у чат-бота совета о том, как писать код или создавать милые видеоролики о щенках. Компании по всему миру изучают способы применения решений искусственного интеллекта и машинного обучения в промышленности и цифровых разработках, чтобы сделать производство и услуги более персонализированными и быстрыми, — указал  руководитель отдела исследований и разработок Центра кибербезопасности RIA Лаури Танклер. - Наш интерес в RIA заключается в том, чтобы внедрение новых технологий не влекло за собой ненужных рисков для данных, денег или, того хуже, жизни и здоровья людей».

Анализ Cybernetica AS описывает текущее состояние и модели распространения систем искусственного интеллекта, а также сопутствующие киберриски и меры по их снижению. Помимо прочего, он также предоставляет компаниям обзор правового пространства в области искусственного интеллекта в 2024 году, включая инициативы и предложения Европейского союза.

«Безопасность систем искусственного интеллекта означает, с одной стороны, технические меры – например, чтобы посторонний человек или конкурирующая компания не получили доступ к данным – но также и то, что разработчик думает о социальных эффектах, таких как предотвращение дискриминации или экологический след вычислительной мощности ИИ, — пояснил один из авторов исследования, научный сотрудник, член Академии наук, директор Института информационной безопасности Cybernetica AS Дэн Богданов. - Исследования и разработка политики должны стремиться к тому, чтобы использование систем искусственного интеллекта способствовало общему благополучию, инклюзивности и устойчивому развитию общества».

Одна часть анализа представляет собой краткое руководство для внедряющего систему искусственного интеллекта, которое поможет компаниям продумать, на каком этапе системы им следует задуматься о том или ином риске. 

«Каждой компании нет необходимости самостоятельно заказывать такой анализ, чтобы сохранить в безопасности данные своих клиентов или свою коммерческую тайну, — пояснил Лаури Танклер. - Если мы сможем с помощью RIA предложить эстонским предпринимателям рекомендации и инструкции на их родном языке, которые помогут обеспечить кибербезопасность в обществе, то мы с радостью будем способствовать таким центральным решениям».

Полный анализ доступен на сайте RIA. Исследование финансировалось совместно Европейским Союзом и Европейским центром киберкомпетентности.

Вопрос специалисту!

  Задай вопрос

Предложения

Уважаемый читатель, наша цель - сделать именно тот журнал, который вам нравится. Сообщите нам о интересующих вас темах и документах, которые вы хотели бы найти здесь. Давайте работать вместе!