Австралія запитує, чи слід заборонити штучний інтелект «високого ризику» під час раптової консультації

Разное

Уряд Австралії оголосив про раптові восьмитижневі консультації, які намагатимуться зрозуміти, чи слід заборонити будь-які «високоризикові» інструменти штучного інтелекту.

Інші регіони, включаючи Сполучені Штати, Європейський Союз і Китай, також запустили заходи для розуміння та потенційного пом’якшення ризиків, пов’язаних зі швидким розвитком штучного інтелекту в останні місяці.

1 червня міністр промисловості та науки Ед Хусік оголосив про випуск двох документів — дискусійного документа на тему «Безпечний і відповідальний штучний інтелект в Австралії» та звіту про генеративний штучний інтелект від Національної ради з науки і технологій.

Документи надійшли разом із консультаціями, які триватимуть до 26 липня.

Уряд хоче отримати відгук про те, як підтримувати «безпечне та відповідальне використання штучного інтелекту», і обговорює, чи слід застосувати добровільні підходи, такі як етичні рамки, чи потрібне спеціальне регулювання, чи поєднати обидва підходи.

Карта варіантів потенційного управління ШІ зі спектром від «добровільного» до «регуляторного». Джерело: Департамент промисловості, науки та ресурсів

Запитання в консультації прямо запитує: «Чи слід повністю заборонити будь-які додатки чи технології штучного інтелекту з високим ризиком?»і які критерії слід використовувати для визначення таких інструментів ШІ, які слід заборонити.

Проект матриці ризиків для моделей штучного інтелекту було включено для відгуків у всебічний документ для обговорення. Хоча лише для того, щоб навести приклади, він класифікував ШІ в безпілотних автомобілях як «високий ризик», тоді як генеративний інструмент ШІ, який використовується для таких цілей, як створення медичних записів пацієнтів, вважався «середнім ризиком».

У документі було підкреслено «позитивне» використання штучного інтелекту в медичній, інженерній та юридичній галузях, а також його «шкідливе» застосування, таке як інструменти deepfake, використання для створення фейкових новин і випадки, коли боти штучного інтелекту заохочували до самоушкодження.

Упередженість моделей штучного інтелекту та «галюцинації» — безглузда або неправдива інформація, створена штучним інтелектом — також були підняті як проблеми.

За темою: CSO Microsoft каже, що штучний інтелект допоможе людям процвітати, і все одно підписує лист про судний день

У документі для обговорення стверджується, що впровадження штучного інтелекту є «відносно низьким» у країні, оскільки вона має «низький рівень суспільної довіри». Він також вказав на регулювання ШІ в інших юрисдикціях і тимчасову заборону Італії на ChatGPT.

Водночас у звіті Національної науково-технічної ради говориться, що Австралія має деякі переваги у сфері штучного інтелекту в робототехніці та комп’ютерному зорі, але її «основний фундаментальний потенціал у [великих мовних моделях] і пов’язаних областях є відносно слабким», і додається:

«Концентрація генеративних ресурсів штучного інтелекту в невеликій кількості великих транснаціональних і переважно американських технологічних компаній створює потенційні [sic] ризики для Австралії».

У звіті далі обговорювалося глобальне регулювання штучного інтелекту, наводилися приклади генеративних моделей штучного інтелекту та висловлювалося, що вони «ймовірно вплинуть на все: від банківської справи та фінансів до державних послуг, освіти та креативних індустрій».

AI Eye: 25 тис. трейдерів роблять ставки на вибір акцій ChatGPT, штучний інтелект не вміє кидати кубики тощо

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар