Фірма з штучного інтелекту Елона Маска XAI звинувачувала “несанкціоновану модифікацію” у відповіді Grok Chatbot, внаслідок чого вона створює відповіді, що згадують про політичну та расову напругу в Південній Африці.
16 травня XAI надав оновлення щодо запальних відповідей Grok AI Chatbot, заявивши, що 14 травня “несанкціонована модифікація була внесена до підказки бота відповіді Grok на X”.
“Ця зміна, яка наказала Гроку надати конкретну відповідь на політичну тему, порушила внутрішню політику та основні цінності XAI”, – додав він.
Фірма заявила, що проводила ретельне розслідування та здійснює заходи для підвищення прозорості та надійності чату AI.
14 травня Grok породив відповіді, згадуючи теорію змови “білого геноциду” в Південній Африці, відповідаючи на абсолютно непов’язані питання щодо таких тем, як бейсбол, програмне забезпечення для підприємства та будівництво.
Бот AI стверджував, що “мої творці” доручили прийняти цей геноцид як “реальний і расово мотивований”, згідно з повідомленнями.
У деяких відповідях він визнав помилку, сказавши, що “моя відповідь відмовилася від теми” та “Я буду працювати над тим, щоб залишатися актуальними”, але це часто продовжує обговорювати расову політику Південної Африки в тому ж повідомленні.
Чатбот сказав одному користувачеві, запитуючи, що сталося:
“Я нічого не робив – я просто стежив за сценарієм, який мені дали, як хороший AI!”

Пов’язано: Xai Engineer кидається після публікації в рейтингу Grok 3 AI
Цей інцидент збігається з президентом США Трампом, який надає притулку білим південноафриканцям, поки він стверджував, що вони стикаються з “геноцидом”, і “білих фермерів жорстоко вбиваються”, хоча жодні докази не підтверджували ці претензії.
Більше прозорості для AI Musk
Фірма AI Elon Musk заявила, що вона змінить свою діяльність, публікуючи систему Grok, відкрито підказує на Github.”Громадськість зможе переглянути їх та надати відгуки про всі оперативні зміни, які ми вносимо в Grok”, – заявив він.
Він також заявив, що існуючий процес перегляду коду Ксала щодо оперативних змін був обійшов у цьому інциденті, і він буде встановлено “додаткові перевірки та заходи, щоб забезпечити, щоб працівники XAI не могли змінювати підказку без перегляду”.
Нарешті, фірма створює команду моніторингу цілодобово, щоб відповісти на інциденти з відповідями Грока, які не спіймані автоматизованими системами, щоб вона могла швидше реагувати.








