США, Великобритания и другие страны подписывают руководства по искусственному интеллекту ‘безопасный по дизайну

США, Великобритания и другие страны подписывают руководства 'безопасный по дизайну' для искусственного интеллекта

США, Великобритания, Австралия и еще 15 стран выпустили глобальные рекомендации для защиты моделей искусственного интеллекта от вмешательства, призывая компании сделать свои модели “безопасными с самого начала”.

26 ноября 18 стран выпустили документ в 20 страниц, в котором описывается, как искусственный интеллект должен обрабатывать кибербезопасность при разработке и использовании своих моделей, утверждая, что “безопасность часто ставится на второе место” в быстроразвивающейся отрасли.

Рекомендации состояли в основном из общих рекомендаций, таких как тщательный контроль за инфраструктурой модели искусственного интеллекта, мониторинг любых вмешательств в модели до и после выпуска, обучение персонала рискам кибербезопасности.

Некоторые проблемные вопросы в области искусственного интеллекта, такие как возможные ограничения на использование моделей создания изображений и глубоких фейков или методы сбора данных и их использование в обучении моделей, не были упомянуты – это вопрос, который вызвал исковое преследование AI фирм подозреваемых в нарушении авторских прав.

“Мы находимся в точке перегиба в развитии искусственного интеллекта, который может стать наиболее значимой технологией нашего времени”, – заявил министр внутренней безопасности США Алехандро Майоркас. – “Кибербезопасность является ключевым фактором в создании безопасных, надежных и доверительных систем искусственного интеллекта”.

Похожие: Европейская технологическая коалиция предупреждает о чрезмерном регулировании искусственного интеллекта перед окончательным утверждением закона о искусственном интеллекте в ЕС

Рекомендации следуют за другими правительственными инициативами, касающимися искусственного интеллекта, включая встречу правительств и фирм по искусственному интеллекту во время саммита по безопасности искусственного интеллекта в Лондоне в этом месяце с целью координации соглашения по развитию искусственного интеллекта.

Тем временем Европейский союз обсуждает детали своего Закона об искусственном интеллекте, который будет надзирать за этой областью, а президент США Джо Байден издал указ в октябре, который установил стандарты безопасности и надежности искусственного интеллекта – хотя оба документа подверглись критике со стороны отрасли искусственного интеллекта, которая утверждает, что они могут задушить инновации.

К защите в руководстве “безопасное проектирование” присоединились Канада, Франция, Германия, Израиль, Италия, Япония, Новая Зеландия, Нигерия, Норвегия, Южная Корея и Сингапур. К составлению рекомендаций также принимали участие фирмы, включая OpenAI, Microsoft, Google, Anthropic и Scale AI.

Журнал: AI Eye: Реальные применения искусственного интеллекта в криптографии, противостояние Google GPT-4, и использование искусственного интеллекта для выявления недобросовестных сотрудников

We will continue to update BiLee; if you have any questions or suggestions, please contact us!

Share:

Was this article helpful?

93 out of 132 found this helpful

Discover more