Anthropic обещает не использовать данные клиентов для обучения искусственному интеллекту

Новости

Anthropic, стартап по генеративному искусственному интеллекту (ИИ), пообещал не использовать клиентские данные для обучения больших языковых моделей в соответствии с обновлениями коммерческих условий обслуживания разработчика Claude. Компания обязуется поддерживать пользователей в спорах об авторских правах.

Anthropic, возглавляемая бывшими исследователями OpenAI, пересмотрела свои коммерческие Условия обслуживания, чтобы прояснить свою позицию. Вступающие в силу в январе 2024 года изменения гласят, что коммерческие клиенты Anthropic также владеют всеми результатами использования ее моделей искусственного интеллекта. Разработчик Claude «не предполагает получения каких-либо прав на Контент клиента в соответствии с настоящими Условиями».

OpenAI, Microsoft и Google обязались поддерживать клиентов, столкнувшихся с юридическими проблемами из-за исков об авторских правах, связанных с использованием их технологий, во второй половине 2023 года.

Anthropic взяла на себя аналогичные обязательства в своих обновленных коммерческих условиях обслуживания, чтобы защитить клиентов от претензий о нарушении авторских прав, возникающих в результате разрешенного использования ими услуг или продуктов компании. Антропик заявил:

«Теперь клиенты будут наслаждаться повышенной защитой и спокойствием при разработке с помощью Claude, а также более оптимизированным API, который будет проще в использовании».

В рамках своего обязательства по правовой защите Anthropic заявила, что оплатит любые утвержденные мировые соглашения или судебные решения, возникшие в результате нарушений ее AI. Условия распространяются на клиентов Claude API и тех, кто использует Claude через Bedrock, пакет разработки генеративного искусственного интеллекта от Amazon.

По теме: Google научил модель ИИ использовать другие модели ИИ и стал на 40% лучше в кодировании.

В условиях говорится, что Anthropic не планирует приобретать какие-либо права на контент клиентов и не предоставляет ни одной из сторон прав на контент или интеллектуальную собственность другой стороны косвенно или иным образом.

Передовые системы искусственного интеллекта, такие как Claude, GPT-4 и LlaMa от Anthropic, известные как модели большого языка (LLM), обучаются на обширных текстовых данных. Эффективность LLM зависит от разнообразных и полных обучающих данных, повышения точности и контекстуальной осведомленности за счет изучения различных языковых моделей, стилей и новой информации.

В октябре Universal Music Group подала в суд на Anthropic AI за нарушение авторских прав на «огромное количество произведений, защищенных авторским правом, включая тексты бесчисленных музыкальных композиций», которые находятся в собственности или под контролем издателей.

Не только Anthropic является объектом подобных исков. Автор Джулиан Санктон подает в суд на OpenAI и Microsoft за то, что они якобы использовали работы авторов научно-популярной литературы без разрешения для обучения моделей ИИ, включая ChatGPT.

Источник

Автор и инвестор в криптовалюты, являюсь экспертом в этой области. Не только пишу статьи о криптовалютах и блокчейн технологиях, но и являюсь активным участником криптосообщества, занимающимся инвестированием в различные криптовалюты.

Использую знания и опыт в написании статей, чтобы помочь читателям понять сложные аспекты криптоиндустрии и принимать обоснованные решения относительно инвестирования в криптовалюты. Делюсь личными опытами и инсайтами, полученными в ходе инвестиций, чтобы помочь другим инвесторам делать обоснованные выборы.

Оцените автора
CryptoHamster.org
Добавить комментарий