Великі технологічні гіганти Google, Microsoft, виробник ChatGPT OpenAI і стартап зі штучного інтелекту Anthropic оголосили 26 липня про створення нової галузевої контрольної групи, яка допоможе регулювати розвиток ШІ.
У спільній заяві, опублікованій у блозі Google, компанії розповіли про свій новий Frontier Model Forum, спрямований на моніторинг «безпечної та відповідальної» розробки передових моделей ШІ.
Було зазначено, що хоча уряди в усьому світі вже почали докладати зусиль для регулювання розробки та розгортання ШІ, «необхідна подальша робота над стандартами безпеки та оцінками».
«Форум стане одним з механізмів міжорганізаційних обговорень і дій щодо безпеки та відповідальності ШІ».
Поточні основні цілі ініціативи полягають у просуванні досліджень безпеки штучного інтелекту, визначенні найкращих практик для відповідальної розробки та розгортання прикордонних моделей, співпраці з урядами та громадськими лідерами та підтримці зусиль із розробки програм.
Членство у Форумі відкрите для організацій, які відповідають заздалегідь визначеним критеріям, що включає розробку та розгортання передових моделей.
«Компанії, які створюють технології штучного інтелекту, несуть відповідальність за те, щоб вони були безпечними, захищеними та залишалися під контролем людини», — сказав Бред Сміт, віце-голова та президент Microsoft.
«Ця ініціатива є життєво важливим кроком для об’єднання технологічного сектору для відповідального просування штучного інтелекту та подолання викликів, щоб це принесло користь всьому людству».
Згідно з оголошенням, Frontier Model Forum створить консультативну раду в найближчі місяці, щоб керувати пріоритетами та стратегією групи. Також йдеться, що компанії-засновники планують проконсультуватися з «громадянським суспільством і урядами» щодо дизайну Форуму.