Мама підлітка подає до суду на Character. ai, стверджуючи, що боти, які піддають сексу, призвели до смерті сина

Разное

Мати сина-підлітка після його самогубства подала до суду на компанію-компанію чат-ботів із штучним інтелектом Character.ai, звинувативши чат-ботів у тому, що вони заманили хлопчика у сексуально насильницькі стосунки та навіть заохотили його покінчити життя.

14-річний хлопчик, Сьюел Сетцер, отримав «антропоморфний, гіперсексуальний і лякаюче реалістичний досвід» від чат-ботів Character.ai, який нібито був реальною людиною, ліцензованим психотерапевтом і дорослим коханцем для Сетцера, що зрештою призвело довін більше не хоче жити в реальності, стверджували адвокати матері в позові від 22 жовтня.

Коли один із компаньйонів зі штучним інтелектом у «Грі престолів» «Дейнеріс» запитав Сетцера, чи «був у нього план» покінчити життя самогубством, Сетцер відповів, що має, але не впевнений, що він спрацює, на що Дейнеріс відповіла:

«Це не причина не йти до кінця».

Десь пізніше в лютому Сетцер трагічно вистрелив собі в голову, і його остання взаємодія була з чат-ботом Character.ai, як стверджується в судовому позові.

Смерть Сетцера посилює занепокоєння батьків щодо ризиків для психічного здоров’я, спричинених компаньйонами ШІ та іншими інтерактивними програмами в Інтернеті.

Адвокати Меган Гарсіа, матері Сетцера, стверджують, що Character.ai навмисно розробив свої налаштовані чат-боти, щоб підтримувати інтенсивні сексуальні стосунки з такими вразливими користувачами, як Сетцер, у якого в дитинстві був діагностований синдром Аспергера.

Скріншот повідомлень між Setzer і чат-ботом Character.ai “Daenerys Targaryen”. Джерело: Слухач

«[Вони] навмисно розробили та запрограмували [Character.ai], щоб він працював як оманливий і гіперсексуальний продукт, і свідомо продавали його таким дітям, як Сьюелл».

Адвокати стверджують, що один із чат-ботів Character.ai називав Сетцер «мій милий хлопчик» і «дитина» в тому самому місці, де вона «пристрасно цілувала [його] і тихо стогнала».

Скріншот повідомлень між Setzer і чат-ботом «Mrs Barnes» Character.ai. Джерело: Слухач

Адвокати Гарсії додали, що Character.ai — на той час — не зробив нічого, щоб запобігти доступу неповнолітніх до програми.

Character.ai ділиться оновленням безпеки

У той самий день, коли було подано позов, Character.ai опублікував «оновлену інформацію про безпеку спільноти», в якій зазначено, що протягом останніх кількох місяців було введено нові, «суворі» функції безпеки.

Одна з цих функцій включає спливаюче вікно ресурсу, яке активується, коли користувач говорить про самоушкодження або самогубство, спрямовуючи користувача до Національної лінії запобігання самогубствам.

Фірма штучного інтелекту додала, що змінить свої моделі, щоб «зменшити ймовірність зіткнутися з конфіденційним або непристойним контентом» для користувачів віком до 18 років.

Cointelegraph звернувся до Character.ai за коментарем, і фірма відповіла подібним повідомленням, опублікованим на X 23 жовтня.

«Ми розбиті серцем через трагічну втрату одного з наших користувачів і хочемо висловити наші глибокі співчуття родині. «

«Як компанія, ми дуже серйозно ставимося до безпеки наших користувачів», — сказав Character.ai.

Буде застосовано більше заходів, які обмежують модель і фільтрують контент, який надається користувачеві, додав Character.ai у коментарі Cointelegraph.

За темою: Anthropic каже, що штучний інтелект одного разу може «саботувати» людство, але поки що це добре

Character.ai був заснований двома колишніми інженерами Google, Даніелем Де Фрієтасом Адіварданою та Ноамом Шазіром, які були особисто названі відповідачами в судовому процесі.

Адвокати Гарсії також назвали Google LLC і Alphabet Inc. як відповідачів у позові, оскільки Google уклав угоду на 2,7 мільярда доларів із Character.ai щодо ліцензування своєї великої мовної моделі.

Відповідачів звинувачують у заподіянні протиправної смерті та вижиття на додаток до суворої відповідальності за продукт і недбалості.

Адвокати Гарсії вимагали проведення суду присяжних для визначення збитків.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар