Frontier Model Forum: безопасное развитие искусственного интеллекта

Четыре ведущие компании в области искусственного интеллекта — Anthropic, Google, Microsoft и OpenAI — объединили свои усилия, создав исследовательскую группу под названием «Frontier Model Forum» (FMF). Основной целью этой новой инициативы стало обеспечение безопасного и ответственного развития передовых моделей искусственного интеллекта, учитывая растущую общественную тревогу и внимание регуляторов по всему миру.

frontier model forum ии

За последние месяцы эти четыре американские компании представили перед мировой общественностью мощные инструменты искусственного интеллекта, способные создавать оригинальный контент в различных форматах, таких как изображения, тексты и видео. Вместе с тем, появились опасения и возмущение со стороны писателей и художников из-за возможного нарушения их авторских прав, а также среди регуляторов из-за растущих опасений по поводу конфиденциальности граждан и потенциальной замены людей искусственным интеллектом в различных сферах труда.

«Компании, создающие технологии ИИ, несут ответственность за обеспечение их безопасности, надёжности и сохранения под человеческим контролем».

рэд Смит (Brad Smith), вице-председатель и президент Microsoft.

Организация ограничивает членство теми компаниями, которые разрабатывают масштабные модели машинного обучения, превосходящие возможности наиболее передовых существующих моделей. Это подчеркивает фокус работы Frontier Model Forum (FMF) на потенциальных рисках, связанных с гораздо более мощным искусственным интеллектом, а не на ответах на вопросы о копирайте, защите данных и приватности, которые сейчас актуальны для регуляторов.

ai

FMF будет способствовать исследованиям в области безопасности искусственного интеллекта и станет связующим звеном между индустрией и законодателями. Аналогичные группы были созданы ранее. Например, в 2016 году было создано «The Partnership on AI» (GPAI) с участием Google, Microsoft, представителей гражданского общества и академического сообщества. Основная цель GPAI состояла в пропаганде ответственного использования искусственного интеллекта.

Создание Frontier Model Forum подчеркивает важность прозрачности, ответственности и безопасности в области искусственного интеллекта. Это значимый шаг в управлении рисками, связанными с передовыми моделями искусственного интеллекта, и важный момент в развитии технологий.

Добавить комментарий