Співзасновник і колишній головний науковий співробітник OpenAI Ілля Суцкевер і колишній інженер OpenAI Деніел Леві об’єднали зусилля з Деніелом Гроссом, інвестором і колишнім партнером акселератора стартапів Y Combinator, щоб створити Safe Superintelligence, Inc. (SSI). Мета та продукт нової компанії очевидні з її назви.
SSI є американською компанією з офісами в Пало-Альто та Тель-Авіві. Він сприятиме розвитку штучного інтелекту (ШІ), розвиваючи безпеку та можливості в тандемі, заявили тріо засновників в онлайн-оголошенні 19 червня. Вони додали:
«Наша спеціальна спрямованість означає відсутність відволікання на накладні витрати на управління або цикли виробництва, а наша бізнес-модель означає, що безпека, безпека та прогрес ізольовані від короткострокового комерційного тиску».
Суцкевер залишив OpenAI 14 травня. Він брав участь у звільненні генерального директора Сема Альтмана і відігравав неоднозначну роль у компанії після того, як пішов з ради директорів після повернення Альтмана. Деніел Леві був серед дослідників, які залишили OpenAI через кілька днів після Суцкера.
За темою: OpenAI робить ChatGPT «менш багатослівним», стираючи різницю між автором і ШІ
Суцкевер і Ян Лейке були керівниками команди OpenAI Superalignment, створеної в липні 2023 року для розгляду того, як «керувати та контролювати системи штучного інтелекту, набагато розумніші за нас». Такі системи називають штучним загальним інтелектом (AGI). На момент створення OpenAI виділив 20% своєї обчислювальної потужності команді Superalignment.
Лейке також залишив OpenAI у травні і зараз очолює команду в стартапі Anthropic, що підтримується Amazon. OpenAI захистив свої запобіжні заходи, пов’язані з безпекою, у довгому дописі президента компанії Грега Брокмана, але розпустив команду Superalignment після травневого відходу її дослідників.
Колишні дослідники OpenAI є одними з багатьох вчених, які стурбовані майбутнім напрямком ШІ. Співзасновник Ethereum Віталік Бутертін назвав AGI «ризикованим» у розпал кадрової плинності в OpenAI. Водночас він додав, що «такі моделі також набагато нижчі з точки зору ризику загибелі, ніж як корпоративна манія величі, так і військові».
Генеральний директор Tesla Ілон Маск, колись прихильник OpenAI, і співзасновник Apple Стів Возняк були серед понад 2600 технічних лідерів і дослідників, які закликали призупинити навчання систем штучного інтелекту на шість місяців, поки людство розмірковує про «великий ризик», який вони становлять.
У повідомленні SSI зазначено, що компанія наймає інженерів і дослідників.
Ціна біткойна дещо охолола, намагаючись досягти бажаної позначки в 100 000 доларів після інтенсивного зростання…
Незамінні токени (NFT) зберігали відносно високий тижневий обсяг продажів, незважаючи на незначне зниження порівняно зі…
Австралія опублікувала консультаційний документ із запитом щодо застосування міжнародного стандарту звітності щодо криптовалютних активів.Міністерство фінансів…
Ціна Ethereum сформувала ключову технічну модель, що нагадує ту, що спостерігалася в 2017 році, коли…
Повідомляється, що фірма фінансових послуг Cantor Fitzgerald погодилася придбати 5% акцій емітента стейблкойнів Tether у…
Криптовалютний ринок кипить активністю щодо XRP, і серед інвесторів існує консенсус щодо того, що його…