Экс-главный научный сотрудник OpenAI Илья Суцкевер запускает SSI, чтобы сосредоточиться на безопасности ИИ

Новости

Соучредитель и бывший главный научный сотрудник OpenAI Илья Суцкевер и бывший инженер OpenAI Дэниел Леви объединили усилия с Дэниелом Гроссом, инвестором и бывшим партнером стартап-акселератора Y Combinator, чтобы создать Safe Superintelligence, Inc. (SSI). Цель и продукт новой компании очевидны из ее названия.

SSI — американская компания с офисами в Пало-Альто и Тель-Авиве. Он будет способствовать развитию искусственного интеллекта (ИИ), одновременно развивая безопасность и возможности, заявили трио основателей в онлайн-объявлении 19 июня. Они добавили:

«Наша исключительная направленность означает, что мы не должны отвлекаться на управленческие накладные расходы или циклы выпуска продукции, а наша бизнес-модель означает, что безопасность, защищенность и прогресс изолированы от краткосрочного коммерческого давления».

Сусткевер и Гросс уже беспокоились о безопасности ИИ

Суцкевер покинул OpenAI 14 мая. Он участвовал в увольнении генерального директора Сэма Альтмана и сыграл неоднозначную роль в компании после ухода из совета директоров после возвращения Альтмана. Дэниел Леви был среди исследователей, покинувших OpenAI через несколько дней после Суцкевера.

Связанный: OpenAI делает ChatGPT «менее многословным», стирая различие между писателем и ИИ

Суцкевер и Ян Лейке были руководителями команды OpenAI Superalignment, созданной в июле 2023 года для рассмотрения того, как «управлять и контролировать системы искусственного интеллекта, которые намного умнее нас». Такие системы называются общим искусственным интеллектом (AGI). На момент создания OpenAI выделила 20% своей вычислительной мощности команде Superalignment.

Лейке также покинул OpenAI в мае и сейчас возглавляет команду AI-стартапа Anthropic, поддерживаемого Amazon. OpenAI защищала свои меры предосторожности, связанные с безопасностью, в длинном посте президента компании Грега Брокмана, но распустила команду Superalignment после майского ухода ее исследователей.

Другие ведущие технологические деятели тоже обеспокоены

Бывшие исследователи OpenAI входят в число многих ученых, обеспокоенных будущим направлением развития ИИ. Сооснователь Ethereum Виталик Бутертин назвал AGI «рискованным» на фоне текучести кадров в OpenAI. Однако он добавил, что «такие модели также гораздо менее опасны с точки зрения риска гибели, чем корпоративная мания величия и военные».

Источник: Илья Суцкевер

Генеральный директор Tesla Илон Маск, когда-то поддерживавший OpenAI, и соучредитель Apple Стив Возняк были среди более чем 2600 технологических лидеров и исследователей, которые призвали приостановить обучение систем искусственного интеллекта на шесть месяцев, пока человечество обдумывает «серьезный риск», который они представляют.

В объявлении SSI отмечалось, что компания нанимает инженеров и исследователей.

Источник
Оцените автора
CryptoHamster.org
Добавить комментарий