Компании, занимающиеся искусственным интеллектом, OpenAI и Anthropic, недавно согласились предоставить Институту безопасности ИИ США ранний доступ к любым «крупным» новым моделям ИИ, разработанным их соответствующими фирмами.
Хотя сделка якобы была подписана из-за взаимных соображений безопасности, неясно, какова будет роль правительства в случае технологического прорыва, имеющего серьезные последствия для безопасности.
Генеральный директор и соучредитель OpenAI Сэм Альтман в своем недавнем сообщении на платформе социальных сетей X назвал сделку необходимым шагом.
«Мы рады достичь соглашения с Институтом безопасности искусственного интеллекта США о предварительном тестировании наших будущих моделей. По многим причинам мы считаем важным, чтобы это происходило на национальном уровне. США должны продолжать лидировать!»
OpenAI и Anthropic работают над одной и той же целью: разработкой общего искусственного интеллекта (AGI). Не существует научного консенсуса относительно того, как именно следует определять AGI, но основная идея заключается в том, что ИИ способен делать все, что может сделать человек, при наличии необходимых ресурсов.
Обе компании по отдельности имеют уставы и миссии, объясняющие, что их независимые цели — безопасное создание AGI, в основе которого лежат интересы человечества. Если одна или обе компании добьются успеха, они де-факто станут хранителями технологий, способных наделить машины интеллектом человека.
Заключив соглашение с правительством США о раскрытии информации о своих моделях до запуска любого продукта, обе компании переложили эту ответственность на федеральное правительство.
Как недавно сообщил Cointelegraph, OpenAI может оказаться на грани прорыва. Предполагается, что проекты компании «Клубника» и «Орион» способны к продвинутым рассуждениям и новым методам решения проблемы галлюцинаций ИИ.
Согласно отчету The Information, правительство США уже реализовало эти инструменты и все ранние внутренние версии ChatGPT с ними.
В блоге Национального института стандартов и технологий США указывается, что эта сделка и связанные с ней правила безопасности являются добровольными для участвующих компаний.
Преимущество этой формы легкого регулирования, по мнению поддерживающих его компаний и аналитиков, заключается в том, что оно стимулирует рост и позволяет сектору саморегулироваться. Сторонники, такие как Альтман, приводят это соглашение как пример того, как такое сотрудничество может принести пользу как правительству, так и корпоративному миру.
Однако одним из потенциально вызывающих беспокойство побочных эффектов мягкого регулирования является отсутствие прозрачности. Если OpenAI или Anthropic преуспеют в своей миссии и правительство сочтет, что общественности нет нужды знать об этом, то, похоже, не будет никаких юридических стимулов, требующих раскрытия информации.
По теме: Генеральный директор Anthropic говорит, что будущее искусственного интеллекта — это коллективный разум с корпоративной структурой
Децентралізована біржа PancakeSwap повідомила про загальний обсяг торгів у розмірі 836 мільярдів доларів США та…
Децентрализованная биржа PancakeSwap сообщила о совокупном объеме торгов в размере 836 миллиардов долларов США и…
Кошельки, принадлежавшие первым майнерам Биткоин, которые получили токены в качестве вознаграждения вскоре после запуска блокчейна…
Криптовалютные хакеры захватили официальный канал Верховного суда Индии на YouTube, чтобы провести мошенничество с Ripple…
Solana (SOL) присоединилась к недавнему росту рынка криптовалют после роста на 10% в четверг. Цена…
Отсутствие стороннего аудита у Tether вызывает обеспокоенность инвесторов по поводу потенциального кризиса ликвидности, подобного FTX,…