Компании, занимающиеся искусственным интеллектом, OpenAI и Anthropic, недавно согласились предоставить Институту безопасности ИИ США ранний доступ к любым «крупным» новым моделям ИИ, разработанным их соответствующими фирмами.
Хотя сделка якобы была подписана из-за взаимных соображений безопасности, неясно, какова будет роль правительства в случае технологического прорыва, имеющего серьезные последствия для безопасности.
Генеральный директор и соучредитель OpenAI Сэм Альтман в своем недавнем сообщении на платформе социальных сетей X назвал сделку необходимым шагом.
«Мы рады достичь соглашения с Институтом безопасности искусственного интеллекта США о предварительном тестировании наших будущих моделей. По многим причинам мы считаем важным, чтобы это происходило на национальном уровне. США должны продолжать лидировать!»
OpenAI и Anthropic работают над одной и той же целью: разработкой общего искусственного интеллекта (AGI). Не существует научного консенсуса относительно того, как именно следует определять AGI, но основная идея заключается в том, что ИИ способен делать все, что может сделать человек, при наличии необходимых ресурсов.
Обе компании по отдельности имеют уставы и миссии, объясняющие, что их независимые цели — безопасное создание AGI, в основе которого лежат интересы человечества. Если одна или обе компании добьются успеха, они де-факто станут хранителями технологий, способных наделить машины интеллектом человека.
Заключив соглашение с правительством США о раскрытии информации о своих моделях до запуска любого продукта, обе компании переложили эту ответственность на федеральное правительство.
Как недавно сообщил Cointelegraph, OpenAI может оказаться на грани прорыва. Предполагается, что проекты компании «Клубника» и «Орион» способны к продвинутым рассуждениям и новым методам решения проблемы галлюцинаций ИИ.
Согласно отчету The Information, правительство США уже реализовало эти инструменты и все ранние внутренние версии ChatGPT с ними.
В блоге Национального института стандартов и технологий США указывается, что эта сделка и связанные с ней правила безопасности являются добровольными для участвующих компаний.
Преимущество этой формы легкого регулирования, по мнению поддерживающих его компаний и аналитиков, заключается в том, что оно стимулирует рост и позволяет сектору саморегулироваться. Сторонники, такие как Альтман, приводят это соглашение как пример того, как такое сотрудничество может принести пользу как правительству, так и корпоративному миру.
Однако одним из потенциально вызывающих беспокойство побочных эффектов мягкого регулирования является отсутствие прозрачности. Если OpenAI или Anthropic преуспеют в своей миссии и правительство сочтет, что общественности нет нужды знать об этом, то, похоже, не будет никаких юридических стимулов, требующих раскрытия информации.
По теме: Генеральный директор Anthropic говорит, что будущее искусственного интеллекта — это коллективный разум с корпоративной структурой
Cardano (ADA) привлек внимание инвесторов после взлета до многолетнего максимума в 1,15 доллара, что означает…
В информационном бюллетене на этой неделе вы узнаете, как продажи невзаимозаменяемых токенов (NFT) продолжают расти,…
Стейблкоины набирают обороты, но они по-прежнему оплачивают лишь небольшую часть глобальных транзакций онлайн-торговли, а стейблкоины,…
Видный деятель в сфере криптовалют сделал смелый прогноз, что общая рыночная капитализация Биткоина может достичь…
Учреждения не решаются внедрять технологии Web3 из-за очень прозрачной природы общедоступных, не требующих разрешения блокчейн.…
Рыночная активность в ноябре спровоцировала всплеск торговли стейблкоинами, чему способствовала возросшая институциональная уверенность в индустрии…