Meta випустила набір інструментів для захисту та порівняльного аналізу генеративних моделей штучного інтелекту (AI) 7 грудня.
Набір інструментів під назвою «Purple Llama» розроблений, щоб допомогти розробникам створювати безпечно та надійно за допомогою генеративних інструментів штучного інтелекту, таких як модель Meta з відкритим кодом Llama-2.
Announcing Purple Llama — A new project to help level the playing field for building safe & responsible generative AI experiences.
Purple Llama includes permissively licensed tools, evals & models to enable both research & commercial use.
More details ➡️ https://t.co/k4ezDvhpHp pic.twitter.com/6BGZY36eM2
— AI at Meta (@AIatMeta) December 7, 2023
Відповідно до публікації в блозі від Meta, «фіолетова» частина «Purple Llama» відноситься до поєднання «червоного об’єднання» та «синього об’єднання».
Red teaming — це парадигма, за якою розробники або внутрішні тестувальники навмисно атакують модель штучного інтелекту, щоб побачити, чи можуть вони створювати помилки, несправності або небажані результати та взаємодії. Це дозволяє розробникам створювати стратегії стійкості проти зловмисних атак і захищати від помилок безпеки та безпеки.
Синє об’єднання, з іншого боку, є майже полярною протилежністю. Тут розробники або тестувальники реагують на атаки red teaming, щоб визначити стратегії пом’якшення, необхідні для боротьби з фактичними загрозами у виробничих, споживчих або клієнтських моделях.
За мета:
«Ми вважаємо, що для справжнього пом’якшення викликів, які створює генеративний штучний інтелект, нам потрібно зайняти положення як у атаці (червона команда), так і в обороні (синя команда). Фіолетове об’єднання, що складається з обов’язків червоної та синьої команди, є спільним підходом до оцінки та пом’якшення потенційних ризиків».
Реліз, який Meta стверджує, що це «перший у галузі набір оцінок безпеки кібербезпеки для великих мовних моделей (LLM)», включає:
Велика ідея полягає в тому, щоб інтегрувати систему в конвеєри моделей, щоб зменшити небажані виходи та небезпечний код, одночасно обмежуючи корисність експлойтів моделі для кіберзлочинців і зловмисників.
«Цим початковим випуском, — пише команда Meta AI, — ми прагнемо надати інструменти, які допоможуть усунути ризики, викладені в зобов’язаннях Білого дому».
За темою: Адміністрація Байдена видає розпорядження про нові стандарти безпеки ШІ
Фірма блокчейн-платежів Ripple оголосила про запуск першого токенізованого фонду грошового ринку на XRP Ledger, що…
Керуючий активами Hashdex подав свою другу змінену заявку на запропонований біржовий фонд (ETF), розроблений як…
Довгострокові власники біткойнів виявляють ознаки зростаючої жадібності, оскільки ціна BTC стабільно наближається до позначки в…
Агентство митної та прикордонної служби Сполучених Штатів (CBP) затримує доставку деяких інтегральних схем (ASIC) Bitmain…
Мережа Avalanche переживає найбільше оновлення з моменту запуску основної мережі платформи, і її спільнота отримає…
Solana (SOL) викликала хвилю в криптовалютній індустрії, досягнувши історичного максимуму в 265 доларів 23 листопада…