У недавній розробці, спрямованій на підвищення безпеки та прозорості штучного інтелекту, Google представила три нові генеративні моделі штучного інтелекту. Ці моделі, що входять до серії Gemma 2 від Google, розроблені таким чином, щоб бути безпечнішими, ефективнішими та прозорішими, ніж багато існуючих моделей.
У блозі на веб-сайті компанії зазначено, що нові моделі — Gemma 2 2B, ShieldGemma та Gemma Scope — будуються на основі оригінальної серії Gemma 2, яка була запущена в травні.
Нова ера ШІ з Gemma 2
На відміну від моделей Gemini від Google, серія Gemma має відкритий код. Цей підхід відображає стратегію Meta з її моделями Llama, спрямовану на надання доступних, надійних інструментів ШІ для ширшої аудиторії.
Gemma 2 2B — полегшена модель для генерації та аналізу тексту. Він досить універсальний, щоб працювати на різному обладнанні, включаючи ноутбуки та периферійні пристрої. Його здатність працювати в різних середовищах робить його привабливим варіантом для розробників і дослідників, які шукають гнучкі рішення ШІ.
Тим часом модель ShieldGemma зосереджена на підвищенні безпеки, діючи як набір класифікаторів безпеки. ShieldGemma створено для виявлення та фільтрації токсичного вмісту, включаючи мову ненависті, переслідування та матеріали відвертого сексуального характеру. Він працює поверх Gemma 2, забезпечуючи рівень модерації вмісту, який має вирішальне значення в сучасному цифровому ландшафті.
За словами Google, ShieldGemma може фільтрувати підказки до генеративної моделі та створеного контенту, що робить його цінним інструментом для підтримки цілісності та безпеки контенту, створеного ШІ.
Модель Gemma Scope дозволяє розробникам отримати глибше розуміння внутрішньої роботи моделей Gemma 2. За словами Google, Gemma Scope складається зі спеціалізованих нейронних мереж, які допомагають розпакувати щільну складну інформацію, оброблену Gemma 2.
За темою: Бюро захисту авторських прав США повідомляє про «нагальну потребу» у захисті від глибоких фейків
Розширюючи цю інформацію в більш сприятливу форму, дослідники можуть краще зрозуміти, як Gemma 2 визначає закономірності, обробляє дані та робить прогнози. Ця прозорість життєво важлива для підвищення надійності та надійності ШІ.
Вирішення питань безпеки та схвалення уряду
Google запустив ці моделі також після попередження інженера Microsoft Шейна Джонса, який висловив занепокоєння щодо інструментів штучного інтелекту Google, які створюють насильницькі та сексуальні зображення та ігнорують авторські права.
Випуск цих нових моделей збігається з попереднім звітом Міністерства торгівлі США, який схвалює відкриті моделі ШІ. У звіті наголошується на перевагах того, що генеративний штучний інтелект стане доступнішим для невеликих компаній, дослідників, некомерційних організацій і окремих розробників.
Однак у ньому також наголошується на важливості моніторингу цих моделей на наявність потенційних ризиків, підкреслюючи необхідність заходів безпеки, подібних до тих, що впроваджені в ShieldGemma.