Соучредитель и бывший главный научный сотрудник OpenAI Илья Суцкевер и бывший инженер OpenAI Дэниел Леви объединили усилия с Дэниелом Гроссом, инвестором и бывшим партнером стартап-акселератора Y Combinator, чтобы создать Safe Superintelligence, Inc. (SSI). Цель и продукт новой компании очевидны из ее названия.
SSI — американская компания с офисами в Пало-Альто и Тель-Авиве. Он будет способствовать развитию искусственного интеллекта (ИИ), одновременно развивая безопасность и возможности, заявили трио основателей в онлайн-объявлении 19 июня. Они добавили:
«Наша исключительная направленность означает, что мы не должны отвлекаться на управленческие накладные расходы или циклы выпуска продукции, а наша бизнес-модель означает, что безопасность, защищенность и прогресс изолированы от краткосрочного коммерческого давления».
Суцкевер покинул OpenAI 14 мая. Он участвовал в увольнении генерального директора Сэма Альтмана и сыграл неоднозначную роль в компании после ухода из совета директоров после возвращения Альтмана. Дэниел Леви был среди исследователей, покинувших OpenAI через несколько дней после Суцкевера.
Связанный: OpenAI делает ChatGPT «менее многословным», стирая различие между писателем и ИИ
Суцкевер и Ян Лейке были руководителями команды OpenAI Superalignment, созданной в июле 2023 года для рассмотрения того, как «управлять и контролировать системы искусственного интеллекта, которые намного умнее нас». Такие системы называются общим искусственным интеллектом (AGI). На момент создания OpenAI выделила 20% своей вычислительной мощности команде Superalignment.
Лейке также покинул OpenAI в мае и сейчас возглавляет команду AI-стартапа Anthropic, поддерживаемого Amazon. OpenAI защищала свои меры предосторожности, связанные с безопасностью, в длинном посте президента компании Грега Брокмана, но распустила команду Superalignment после майского ухода ее исследователей.
Бывшие исследователи OpenAI входят в число многих ученых, обеспокоенных будущим направлением развития ИИ. Сооснователь Ethereum Виталик Бутертин назвал AGI «рискованным» на фоне текучести кадров в OpenAI. Однако он добавил, что «такие модели также гораздо менее опасны с точки зрения риска гибели, чем корпоративная мания величия и военные».
Генеральный директор Tesla Илон Маск, когда-то поддерживавший OpenAI, и соучредитель Apple Стив Возняк были среди более чем 2600 технологических лидеров и исследователей, которые призвали приостановить обучение систем искусственного интеллекта на шесть месяцев, пока человечество обдумывает «серьезный риск», который они представляют.
В объявлении SSI отмечалось, что компания нанимает инженеров и исследователей.
Цена Биткоина несколько остыла, изо всех сил пытаясь достичь столь желанной отметки в 100 000…
Невзаимозаменяемые токены (NFT) сохранили относительно высокий еженедельный объем продаж, несмотря на небольшое снижение по сравнению…
Австралия выпустила консультационный документ с просьбой предоставить информацию о применении международного стандарта отчетности для криптовалютных…
Цена Ethereum сформировала ключевую техническую модель, напоминающую ту, которая наблюдалась в 2017 году, когда криптовалюта…
Сообщается, что компания финансовых услуг Cantor Fitzgerald согласилась на 5% акций эмитента стейблкоинов Tether в…
Криптовалютный рынок кипит от активности в отношении XRP, и инвесторы сходятся во мнении, что его…