Група регуляторів 14 грудня попередила, що швидке впровадження штучного інтелекту (ШІ) може створити нові ризики для фінансової системи Сполучених Штатів, якщо за технологією не буде належного контролю.
Рада з нагляду за фінансовою стабільністю, що складається з провідних фінансових регуляторів і очолюється міністром фінансів Джанет Єллен, у своєму щорічному звіті про фінансову стабільність вперше відзначила ризики, пов’язані зі штучним інтелектом.
Хоча команда визнала потенціал штучного інтелекту для стимулювання інновацій та ефективності фінансових установ, вони наголосили на необхідності, щоб компанії та регулятори залишалися пильними через швидкий технологічний прогрес.
У своєму щорічному звіті група підкреслила, що штучний інтелект несе певні ризики, такі як кібербезпека та модельні ризики. Компанії та регулятори запропонували розширити свої знання та можливості для моніторингу інновацій ШІ та використання та виявлення нових ризиків.
Відповідно до звіту, конкретні інструменти штучного інтелекту є високотехнічними та складними, що ставить перед установами проблеми, щоб пояснити або ефективно контролювати їх. У звіті попереджається, що компанії та регулятори можуть не помітити упереджених або неточних результатів без повного розуміння.
У звіті також підкреслюється, що інструменти штучного інтелекту дедалі більше залежать від великих наборів зовнішніх даних і сторонніх постачальників, що викликає занепокоєння щодо конфіденційності та кібербезпеки.
Певні регулюючі органи, включаючи Комісію з цінних паперів і бірж (частина комісії), перевіряли використання фірмами ШІ. Водночас Білий дім видав розпорядження щодо вирішення та зменшення ризиків ШІ.
За темою: OpenAI збирається відмовитися від нового оновлення ChatGPT?Сем Альтман каже “ні”
Папа Римський Франциск у листі від 8 грудня висловив стурбованість потенційними загрозами ШІ для людства. Він виступає за міжнародний договір про етичне регулювання розвитку ШІ, застерігаючи від ризику «технологічної диктатури» без належного контролю.
Такі технічні діячі, як Ілон Маск і Стів Возняк, висловили занепокоєння щодо швидкого прогресу ШІ. У березні 2023 року понад 2600 технічних лідерів і дослідників, у тому числі Маск і Возняк, підписали петицію, закликаючи призупинити розробку ШІ. Вони наголосили на потенційних «значних ризиках для суспільства та людства», які становлять досягнення ШІ, що перевершують GPT-4.