Співзасновник і колишній головний науковий співробітник OpenAI Ілля Суцкевер і колишній інженер OpenAI Деніел Леві об’єднали зусилля з Деніелом Гроссом, інвестором і колишнім партнером акселератора стартапів Y Combinator, щоб створити Safe Superintelligence, Inc. (SSI). Мета та продукт нової компанії очевидні з її назви.
SSI є американською компанією з офісами в Пало-Альто та Тель-Авіві. Він сприятиме розвитку штучного інтелекту (ШІ), розвиваючи безпеку та можливості в тандемі, заявили тріо засновників в онлайн-оголошенні 19 червня. Вони додали:
«Наша спеціальна спрямованість означає відсутність відволікання на накладні витрати на управління або цикли виробництва, а наша бізнес-модель означає, що безпека, безпека та прогрес ізольовані від короткострокового комерційного тиску».
Сусткевер і Гросс уже хвилювалися щодо безпеки ШІ
Суцкевер залишив OpenAI 14 травня. Він брав участь у звільненні генерального директора Сема Альтмана і відігравав неоднозначну роль у компанії після того, як пішов з ради директорів після повернення Альтмана. Деніел Леві був серед дослідників, які залишили OpenAI через кілька днів після Суцкера.
За темою: OpenAI робить ChatGPT «менш багатослівним», стираючи різницю між автором і ШІ
Суцкевер і Ян Лейке були керівниками команди OpenAI Superalignment, створеної в липні 2023 року для розгляду того, як «керувати та контролювати системи штучного інтелекту, набагато розумніші за нас». Такі системи називають штучним загальним інтелектом (AGI). На момент створення OpenAI виділив 20% своєї обчислювальної потужності команді Superalignment.
Лейке також залишив OpenAI у травні і зараз очолює команду в стартапі Anthropic, що підтримується Amazon. OpenAI захистив свої запобіжні заходи, пов’язані з безпекою, у довгому дописі президента компанії Грега Брокмана, але розпустив команду Superalignment після травневого відходу її дослідників.
Інші провідні технічні діячі також хвилюються
Колишні дослідники OpenAI є одними з багатьох вчених, які стурбовані майбутнім напрямком ШІ. Співзасновник Ethereum Віталік Бутертін назвав AGI «ризикованим» у розпал кадрової плинності в OpenAI. Водночас він додав, що «такі моделі також набагато нижчі з точки зору ризику загибелі, ніж як корпоративна манія величі, так і військові».
Генеральний директор Tesla Ілон Маск, колись прихильник OpenAI, і співзасновник Apple Стів Возняк були серед понад 2600 технічних лідерів і дослідників, які закликали призупинити навчання систем штучного інтелекту на шість місяців, поки людство розмірковує про «великий ризик», який вони становлять.
У повідомленні SSI зазначено, що компанія наймає інженерів і дослідників.