Космічні сили США призупиняють використання ChatGPT-подібних інструментів через побоювання безпеки: звіт

Разное

Згідно з повідомленнями, Космічні сили США тимчасово заборонили своєму персоналу використовувати генеративні штучні інструменти під час виконання службових обов’язків, щоб захистити державні дані.

Згідно зі звітом Bloomberg від 12 жовтня, членам Космічних сил було повідомлено, що вони «не уповноважені» використовувати генеративні інструменти штучного інтелекту на основі Інтернету — для створення тексту, зображень та інших медіа — без спеціального схвалення. Guardian Workforce (члени космічних сил) 29 вересня.

«Generative AI, безсумнівно, революціонізує нашу робочу силу та підвищить здатність Guardian працювати зі швидкістю», — повідомляється в меморандумі Ліза Коста, заступник начальника відділу космічних операцій з питань технологій та інновацій.

Однак Коста висловив занепокоєння з приводу поточних стандартів кібербезпеки та обробки даних, пояснивши, що впровадження ШІ та великої мовної моделі (LLM) має бути більш «відповідальним».

Космічні сили Сполучених Штатів — це підрозділ космічної служби Збройних сил США, завданням якого є захист інтересів США та їхніх союзників у космосі.

Рішення Космічних сил вже вплинуло на щонайменше 500 людей, які використовують генеративну платформу штучного інтелекту під назвою «Ask Sage», повідомляє Bloomberg із посиланням на коментарі Ніка Чайлана, колишнього керівника програмного забезпечення ВПС США.

Повідомляється, що Шайлан розкритикував рішення Космічних сил. «Очевидно, що ми відстаємо від Китаю на роки», — написав він у вересневому електронному листі, скаржачись Кості та іншим високопоставленим чиновникам оборони.

«Це дуже недалекоглядне рішення», — додав Шайлан.

Чайлан зазначив, що Центральне розвідувальне управління США та його відділи розробили власні генеративні інструменти ШІ, які відповідають стандартам безпеки даних.

За темою: Захист даних у чатах зі штучним інтелектом: чи відповідає ChatGPT стандартам GDPR?

Останніми місяцями деякі уряди побоювалися, що LLM може витікати приватну інформацію.

Італія тимчасово заблокувала чат-бот AI ChatGPT у березні, посилаючись на підозри в порушенні правил конфіденційності даних, перш ніж скасувати своє рішення приблизно через місяць.

Такі технічні гіганти, як Apple, Amazon і Samsung, є одними з компаній, які також заборонили або обмежили своїм співробітникам використання на роботі подібних до ChatGPT інструментів ШІ.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар