Категории: Разное

Американські законодавці надсилають OpenAI лист із запитом на доступ уряду

Демократи в Сенаті та один незалежний законодавець надіслали листа генеральному директору OpenAI Сему Альтману щодо стандартів безпеки компанії та практики працевлаштування інформаторів.

Мабуть, найважливішою частиною листа, який вперше отримав The Washington Post, був пункт 9, у якому говорилося: «Чи візьме OpenAI зобов’язання надати свою наступну базову модель урядовим установам США для тестування, перегляду, аналізу та оцінки перед розгортанням?»

У листі було зазначено 11 додаткових пунктів, які необхідно розглянути, включаючи забезпечення зобов’язань OpenAI виділити 20% своєї обчислювальної потужності на дослідження безпеки палива та протоколи, щоб запобігти крадіжці зловмисником або іноземним противником продуктів ШІ з OpenAI.

Перша сторінка листа від демократів у Сенаті. Джерело: The Washington Post

Регуляторний контроль

Хоча регуляторний контроль не є чимось новим для OpenAI та сектору штучного інтелекту, що охоплює його, лист від законодавців-демократів був викликаний повідомленнями інформаторів про слабкі стандарти безпеки для GPT-4 Omni, щоб гарантувати, що випуск продукту на ринок не відкладено.

Пов’язане: Синхронізація, ChatGPT, щоб допомогти паралізованим пацієнтам знову спілкуватися в чаті та надсилати текстові повідомлення

Викривачі OpenAI також стверджували, що спроби винести занепокоєння щодо безпеки до керівництва зустрілися помстою та нібито незаконними угодами про нерозголошення, що змусило інформаторів подати скаргу до Комісії з цінних паперів і бірж у червні 2024 року.

Невдовзі після того, як у липні технічні гіганти Microsoft і Apple відмовилися від членства в раді директорів OpenAI через посилений регулятивний контроль, рішення не займати місце в раді було прийнято, незважаючи на інвестиції Microsoft у OpenAI у розмірі 13 мільярдів доларів у 2023 році.

Екзистенціальні страхи зберігаються

Колишній співробітник OpenAI Вільям Сондерс нещодавно розповів, що він залишив компанію, оскільки відчував, що поточні дослідження OpenAI можуть становити загрозу для існування людства, порівнюючи потенційну траєкторію OpenAI із сумнозвісною катастрофою RMS Titanic у 1912 році.

Сондерс уточнив, що його не хвилює поточна ітерація великої мовної моделі ChatGPT від OpenAI, а більше хвилює майбутні версії ChatGPT і потенційний розвиток передового надлюдського інтелекту.

Викривач стверджував, що співробітники, які працюють у секторі штучного інтелекту, мають право попереджати громадськість про потенційно небезпечні можливості, які демонструє швидкий розвиток синтетичного інтелекту.

Victoria Lyapota

Недавние статьи

Резервний банк Індії розширює платформу транскордонних платежів

Резервний банк Індії (RBI) прагне розширити свою транскордонну платіжну платформу, яка дозволить здійснювати миттєві розрахунки,…

4 години ago

Коефіцієнт купівлі/продажу біткойнів зростає на основних біржах — хто купує?

Ціна біткойна дещо охолола, намагаючись досягти бажаної позначки в 100 000 доларів після інтенсивного зростання…

9 години ago

Щотижневий обсяг продажів NFT становить 158 мільйонів доларів США, на чолі з Ethereum, Bitcoin

Незамінні токени (NFT) зберігали відносно високий тижневий обсяг продажів, незважаючи на незначне зниження порівняно зі…

11 години ago

Австралія проводить консультації щодо прийняття системи звітності щодо криптовалюти ОЕСР

Австралія опублікувала консультаційний документ із запитом щодо застосування міжнародного стандарту звітності щодо криптовалютних активів.Міністерство фінансів…

12 години ago

Ціна Ethereum повторює бичачу модель «Мегафон» з 2017 року – чому 10 000 доларів можливі

Ціна Ethereum сформувала ключову технічну модель, що нагадує ту, що спостерігалася в 2017 році, коли…

15 години ago

Cantor Fitzgerald погодився придбати 5% акцій Tether за 600 мільйонів доларів: звіт

Повідомляється, що фірма фінансових послуг Cantor Fitzgerald погодилася придбати 5% акцій емітента стейблкойнів Tether у…

16 години ago