Категории: Разное

Колишній головний науковий співробітник OpenAI Ілля Суцкевер запускає SSI, щоб зосередитися на безпеці ШІ

Співзасновник і колишній головний науковий співробітник OpenAI Ілля Суцкевер і колишній інженер OpenAI Деніел Леві об’єднали зусилля з Деніелом Гроссом, інвестором і колишнім партнером акселератора стартапів Y Combinator, щоб створити Safe Superintelligence, Inc. (SSI). Мета та продукт нової компанії очевидні з її назви.

SSI є американською компанією з офісами в Пало-Альто та Тель-Авіві. Він сприятиме розвитку штучного інтелекту (ШІ), розвиваючи безпеку та можливості в тандемі, заявили тріо засновників в онлайн-оголошенні 19 червня. Вони додали:

«Наша спеціальна спрямованість означає відсутність відволікання на накладні витрати на управління або цикли виробництва, а наша бізнес-модель означає, що безпека, безпека та прогрес ізольовані від короткострокового комерційного тиску».

Сусткевер і Гросс уже хвилювалися щодо безпеки ШІ

Суцкевер залишив OpenAI 14 травня. Він брав участь у звільненні генерального директора Сема Альтмана і відігравав неоднозначну роль у компанії після того, як пішов з ради директорів після повернення Альтмана. Деніел Леві був серед дослідників, які залишили OpenAI через кілька днів після Суцкера.

За темою: OpenAI робить ChatGPT «менш багатослівним», стираючи різницю між автором і ШІ

Суцкевер і Ян Лейке були керівниками команди OpenAI Superalignment, створеної в липні 2023 року для розгляду того, як «керувати та контролювати системи штучного інтелекту, набагато розумніші за нас». Такі системи називають штучним загальним інтелектом (AGI). На момент створення OpenAI виділив 20% своєї обчислювальної потужності команді Superalignment.

Лейке також залишив OpenAI у травні і зараз очолює команду в стартапі Anthropic, що підтримується Amazon. OpenAI захистив свої запобіжні заходи, пов’язані з безпекою, у довгому дописі президента компанії Грега Брокмана, але розпустив команду Superalignment після травневого відходу її дослідників.

Інші провідні технічні діячі також хвилюються

Колишні дослідники OpenAI є одними з багатьох вчених, які стурбовані майбутнім напрямком ШІ. Співзасновник Ethereum Віталік Бутертін назвав AGI «ризикованим» у розпал кадрової плинності в OpenAI. Водночас він додав, що «такі моделі також набагато нижчі з точки зору ризику загибелі, ніж як корпоративна манія величі, так і військові».

Джерело: Ілля Суцкевер

Генеральний директор Tesla Ілон Маск, колись прихильник OpenAI, і співзасновник Apple Стів Возняк були серед понад 2600 технічних лідерів і дослідників, які закликали призупинити навчання систем штучного інтелекту на шість місяців, поки людство розмірковує про «великий ризик», який вони становлять.

У повідомленні SSI зазначено, що компанія наймає інженерів і дослідників.

Victoria Lyapota

Недавние статьи

Федеральний суддя США відкидає позов Consensys проти SEC

Федеральний суддя Техасу відхилив позов, поданий фірмою-розробником блокчейнів Consensys проти Комісії з цінних паперів і…

4 години ago

Суд схвалив ліквідацію Terraform Labs у справі про банкрутство

Суддя схвалив згортання діяльності Terraform Labs у рамках плану банкрутства фірми в Сполучених Штатах.Згідно зі…

5 години ago

Dfinity, Камбоджа, домовилися про просування інновацій у розумних містах

Dfinity, швейцарський фонд, що стоїть за блокчейном Internet Computer Protocol (ICP), підписав лист про наміри…

5 години ago

Прокуратура США виступає проти клопотання експлуататора Mango Market про виправдання

18 вересня прокуратура Південного округу Нью-Йорка США (SDNY) подала клопотання проти вимоги експлуататора Mango Markets…

5 години ago

Стенд із звітами про криптовалюту. 121 тис. скористалися реєстрацією виборців з 2023 року

Після поїздок по ключових державах на полі битви ініціатива Coinbase Stand With криптовалюта могла зареєструвати…

6 години ago

Кількість активних адрес Solana досягла 75 мільйонів, оскільки SOL перевищила 140 доларів США

Solana (SOL) встановила ще один рекорд: сьогодні вона має понад 75 мільйонів активних адрес щомісяця.…

6 години ago