Категории: Разное

Meta випускає пакет безпеки AI «Purple Llama» для виконання зобов’язань Білого дому

Meta випустила набір інструментів для захисту та порівняльного аналізу генеративних моделей штучного інтелекту (AI) 7 грудня.

Набір інструментів під назвою «Purple Llama» розроблений, щоб допомогти розробникам створювати безпечно та надійно за допомогою генеративних інструментів штучного інтелекту, таких як модель Meta з відкритим кодом Llama-2.

Фіолетовий штучний інтелект об’єднується

Відповідно до публікації в блозі від Meta, «фіолетова» частина «Purple Llama» відноситься до поєднання «червоного об’єднання» та «синього об’єднання».

Red teaming — це парадигма, за якою розробники або внутрішні тестувальники навмисно атакують модель штучного інтелекту, щоб побачити, чи можуть вони створювати помилки, несправності або небажані результати та взаємодії. Це дозволяє розробникам створювати стратегії стійкості проти зловмисних атак і захищати від помилок безпеки та безпеки.

Синє об’єднання, з іншого боку, є майже полярною протилежністю. Тут розробники або тестувальники реагують на атаки red teaming, щоб визначити стратегії пом’якшення, необхідні для боротьби з фактичними загрозами у виробничих, споживчих або клієнтських моделях.

За мета:

«Ми вважаємо, що для справжнього пом’якшення викликів, які створює генеративний штучний інтелект, нам потрібно зайняти положення як у атаці (червона команда), так і в обороні (синя команда). Фіолетове об’єднання, що складається з обов’язків червоної та синьої команди, є спільним підходом до оцінки та пом’якшення потенційних ризиків».

Охоронні моделі

Реліз, який Meta стверджує, що це «перший у галузі набір оцінок безпеки кібербезпеки для великих мовних моделей (LLM)», включає:

  • Метрики для кількісної оцінки ризику кібербезпеки LLM
  • Інструменти для оцінки частоти пропозицій небезпечного коду
  • Інструменти для оцінки LLM, щоб ускладнити генерацію шкідливого коду або допомогти у здійсненні кібератак

Велика ідея полягає в тому, щоб інтегрувати систему в конвеєри моделей, щоб зменшити небажані виходи та небезпечний код, одночасно обмежуючи корисність експлойтів моделі для кіберзлочинців і зловмисників.

«Цим початковим випуском, — пише команда Meta AI, — ми прагнемо надати інструменти, які допоможуть усунути ризики, викладені в зобов’язаннях Білого дому».

За темою: Адміністрація Байдена видає розпорядження про нові стандарти безпеки ШІ

Anna Kuznetsova

Недавние статьи

Солана руйнує минулий опір: пристебніться за 330 доларів США – аналітик

Solana (SOL) користується хвилею довіри інвесторів, її ціна неухильно зростає до незвіданої території. Цей бичачий…

5 години ago

Керівництво OpenAI відповідає на звинувачення колишніх співробітників у безпеці

Сем Альтман і Грег Брокман, генеральний директор і президент виробника ChatGPT OpenAI, нещодавно вийшли на…

6 години ago

Біткойн-бум: ціна перевищила 67 000 доларів, оскільки довіра інвесторів повертається

Криптовалютний ринок був потрясений турбулентністю протягом останнього року, але зараз біткойн демонструє значне повернення, подолавши…

7 години ago

Тонкойн: активність китів на 1 мільярд доларів підняла ціну – що далі?

Незважаючи на недавній сплеск активності з боку великих інвесторів, яких часто називають «китами», ціна Toncoin…

9 години ago

Ціна Fantom продовжує сяяти – що стоїть за останнім стрибком на 15%?

Протягом останніх днів інвесторам дуже приємно спостерігати за ціною Fantom, оскільки настільки необхідний ковток свіжого…

12 години ago

Венесуела забороняє майнінг криптовалюти, щоб захистити енергомережу

Уряд Венесуели приєднався до списку країн, які негативно ставляться до майнінгу криптовалюти через високі потреби…

14 години ago