Страны Большой семерки, в частности, призывают разработчиков ИИ разработать и внедрить механизмы удостоверения контента.
Страны G7 согласовали общие принципы, которые должны выполнять разработчики искусственного интеллекта (ИИ), включая внедрение системы маркировки созданного с его помощью контента. Лидеры стран "семерки" опубликовали по этому поводу заявление.
"Мы, лидеры G7, акцентируем на инновационных возможностях и потенциале продвинутых систем искусственного интеллекта... Мы также признаем необходимыми управление рисками и защиту отдельных лиц, общества и наших общих принципов, включая верховенство права и демократические ценности", - говорится в сообщении
Члены G7 призывают разработчиков искусственного интеллекта разработать и внедрить механизмы удостоверения контента и установления его происхождения в случаях, когда "это технически возможно", в том числе при помощи условных помет и "других методов, которые позволят пользователям идентифицировать контент, созданный ИИ".
Создателей ИИ призывают принимать меры для выявления и снижения рисков на протяжении всех этапов разработки, выявлять и устранять уязвимости, а также "ненормальности и схемы злоупотребления".
Разработчики ИИ, как отмечается, должны инвестировать в создание систем контроля безопасности, делать приоритетным исследование способов снижения "социальных рисков и рисков для безопасности", а также ставить в приоритет изучение методов смягчения последствий таких рисков.
Страны G7 призывают разработчиков содействовать созданию и принятию международных технических стандартов, а также внедрить меры по защите персональных данных и интеллектуальной собственности.