Соучредитель и бывший главный научный сотрудник OpenAI Илья Суцкевер и бывший инженер OpenAI Дэниел Леви объединили усилия с Дэниелом Гроссом, инвестором и бывшим партнером стартап-акселератора Y Combinator, чтобы создать Safe Superintelligence, Inc. (SSI). Цель и продукт новой компании очевидны из ее названия.
SSI — американская компания с офисами в Пало-Альто и Тель-Авиве. Он будет способствовать развитию искусственного интеллекта (ИИ), одновременно развивая безопасность и возможности, заявили трио основателей в онлайн-объявлении 19 июня. Они добавили:
«Наша исключительная направленность означает, что мы не должны отвлекаться на управленческие накладные расходы или циклы выпуска продукции, а наша бизнес-модель означает, что безопасность, защищенность и прогресс изолированы от краткосрочного коммерческого давления».
Суцкевер покинул OpenAI 14 мая. Он участвовал в увольнении генерального директора Сэма Альтмана и сыграл неоднозначную роль в компании после ухода из совета директоров после возвращения Альтмана. Дэниел Леви был среди исследователей, покинувших OpenAI через несколько дней после Суцкевера.
Связанный: OpenAI делает ChatGPT «менее многословным», стирая различие между писателем и ИИ
Суцкевер и Ян Лейке были руководителями команды OpenAI Superalignment, созданной в июле 2023 года для рассмотрения того, как «управлять и контролировать системы искусственного интеллекта, которые намного умнее нас». Такие системы называются общим искусственным интеллектом (AGI). На момент создания OpenAI выделила 20% своей вычислительной мощности команде Superalignment.
Лейке также покинул OpenAI в мае и сейчас возглавляет команду AI-стартапа Anthropic, поддерживаемого Amazon. OpenAI защищала свои меры предосторожности, связанные с безопасностью, в длинном посте президента компании Грега Брокмана, но распустила команду Superalignment после майского ухода ее исследователей.
Бывшие исследователи OpenAI входят в число многих ученых, обеспокоенных будущим направлением развития ИИ. Сооснователь Ethereum Виталик Бутертин назвал AGI «рискованным» на фоне текучести кадров в OpenAI. Однако он добавил, что «такие модели также гораздо менее опасны с точки зрения риска гибели, чем корпоративная мания величия и военные».
Генеральный директор Tesla Илон Маск, когда-то поддерживавший OpenAI, и соучредитель Apple Стив Возняк были среди более чем 2600 технологических лидеров и исследователей, которые призвали приостановить обучение систем искусственного интеллекта на шесть месяцев, пока человечество обдумывает «серьезный риск», который они представляют.
В объявлении SSI отмечалось, что компания нанимает инженеров и исследователей.
Прокуроры Южного округа Нью-Йорка США (SDNY) 18 сентября подали ходатайство против просьбы эксплуататора Mango Markets…
После посещения важнейших штатов, где ведется борьба, инициатива Coinbase Stand With криптовалюта смогла зарегистрировать до…
Solana (SOL) установила еще один рекорд: сегодня у нее более 75 миллионов активных адресов в…
Студенты и выпускники Гарварда объявили о запуске «Нового Бреттон-Вудского проекта» — инициативы, направленной на создание…
Держатели Ethereum определенно переживают трудные времена, поскольку недавнее ценовое движение не создало бычьих перспектив для…
Криптовалютная биржа Coinbase присоединилась к завершенной гонке Биткоин всего неделю назад, 12 сентября, но на…