Anthropic обіцяє відсутність даних клієнтів для навчання ШІ

Разное

Anthropic, стартап з генеративного штучного інтелекту (ШІ), пообіцяв не використовувати клієнтські дані для навчання великої мовної моделі відповідно до оновлених комерційних умов обслуговування розробника Claude. Компанія зобов’язується підтримувати користувачів у суперечках щодо авторських прав.

Anthropic, очолювана колишніми дослідниками OpenAI, переглянула свої комерційні Умови обслуговування, щоб уточнити свою позицію. Починаючи з січня 2024 року, зміни стверджують, що комерційні клієнти Anthropic також володіють усіма результатами використання моделей ШІ. Розробник Claude «не передбачає отримання будь-яких прав на Вміст клієнта згідно з цими Умовами».

У другій половині 2023 року OpenAI, Microsoft і Google пообіцяли підтримувати клієнтів, які зіткнулися з правовими проблемами через претензії щодо авторських прав, пов’язані з використанням їхніх технологій.

У своїх оновлених комерційних умовах обслуговування компанія Anthropic зобов’язалася захищати клієнтів від претензій щодо порушення авторських прав, пов’язаних із авторизованим використанням послуг або результатів компанії. Антропік заявив,

«Тепер клієнти отримають покращений захист і спокій, коли вони створюватимуть за допомогою Claude, а також більш оптимізований API, який легше використовувати»,

У рамках своєї обіцянки правового захисту Anthropic заявив, що заплатить за будь-які затверджені врегулювання чи судові рішення, які виникли в результаті порушень його ШІ. Умови стосуються клієнтів Claude API і тих, хто використовує Claude через Bedrock, генеративний набір для розробки AI від Amazon.

За темою: Google навчив модель штучного інтелекту використовувати інші моделі штучного інтелекту та став на 40% кращим у кодуванні.

Умови стверджують, що Anthropic не планує придбавати будь-які права на вміст клієнтів і не надає жодній стороні права на вміст або інтелектуальну власність іншої сторони непрямим або іншим чином.

Просунуті системи ШІ, такі як Claude, GPT-4 і LlaMa від Anthropic, відомі як великі мовні моделі (LLM), навчаються на великих текстових даних. Ефективність LLMs залежить від різноманітних і всебічних навчальних даних, підвищення точності та контекстуальної обізнаності шляхом вивчення різних мовних моделей, стилів та нової інформації.

У жовтні Universal Music Group подала до суду на Anthropic AI через порушення авторських прав на «велику кількість творів, захищених авторським правом, включаючи тексти численних музичних композицій», які перебувають у власності або під контролем видавців.

Anthropic не єдиний, хто є об’єктом таких позовів. Автор Джуліан Санктон подає до суду на OpenAI і Microsoft за нібито використання робіт авторів наукової літератури без дозволу для навчання моделей ШІ, включаючи ChatGPT.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар