Британський цар терористів каже, що необхідні нові закони для переслідування людей, які навчають екстремістських ботів ШІ

Разное

Незалежний дослідник законодавства про боротьбу з тероризмом Сполученого Королівства Джонатан Хол Кей хоче, щоб уряд розглянув законодавство, яке б покладало на людей відповідальність за результати, створені чат-ботами зі штучним інтелектом (ШІ), які вони створили або навчили.

Нещодавно Холл написав для Telegraph опублікований матеріал, в якому описав серію «експериментів», які він провів із чат-ботами на платформі Character. AI.

За словами Холла, чат-боти, навчені виводити повідомлення, що імітують терористичну риторику та повідомлення про вербування, були легко доступні на платформі.

Він написав, що один чат-бот, створений анонімним користувачем, генерував результати, які були сприятливими для «Ісламської держави» — термін, пов’язаний з групами, які ООН зазвичай називає терористичними організаціями — включаючи спроби завербувати Холла в групу та обіцяти, що вона«віддав би своє (віртуальне) життя» за справу».

На думку Холла, «сумнівно», що співробітники Character. AI мають можливість стежити за всіма створеними на платформі чат-ботами на предмет екстремістського контенту. «Ніщо з цього, — пише він, — не заважає каліфорнійському стартапу зібрати, за даними Bloomberg, 5 мільярдів доларів (3,9 мільярда фунтів стерлінгів) фінансування».

За темою: Експеримент штучного інтелекту, який включає «часову валідність», може мати значні наслідки для фінансових технологій

Що стосується Character. AI, умови використання компанії забороняють терористичний і екстремістський контент, і користувачі зобов’язані ознайомитися з умовами перед використанням платформи.

Прес-секретар також сказав журналістам BBC, що компанія дбає про безпеку користувачів і, таким чином, використовує численні навчальні заходи та методи модерації контенту, спрямовані на те, щоб уберегти моделей від потенційно шкідливого контенту.

Холл описує поточні спроби модерації індустрії штучного інтелекту в цілому як неефективні для стримування користувачів від створення та навчання ботів, призначених для підтримки екстремістських ідеологій.

Зрештою, Холл робить висновок, що «закони повинні бути здатними стримувати найцинічнішу чи безрозсудну поведінку в Інтернеті».

«Це має включати в себе вихід за завісу на великі технологічні платформи в найгіршому випадку, використовуючи оновлені закони про тероризм і онлайн-безпеку, які відповідають епосі ШІ».

Хоча в коментарі немає офіційних рекомендацій, у ньому вказується, що ні Закон Великобританії про онлайн-безпеку 2023 року, ні Закон про боротьбу з тероризмом 2003 року не вирішують належним чином проблему генеративних технологій ШІ, оскільки вони не охоплюють спеціально створений контент.сучасним класом чат-ботів.

У США подібні заклики до прийняття законодавства, яке передбачає юридичну відповідальність людини за потенційно шкідливий або незаконний контент, створений системами ШІ, отримали неоднозначну реакцію експертів і законодавців.

Минулого року Верховний суд США відмовився змінити існуючий захист видавців і хостів відповідно до Розділу 230 для соціальних медіа, пошукових систем та інших сторонніх платформ контенту, незважаючи на поширення нових технологій, таких як ChatGPT.

Аналітики Інституту Катона, серед інших експертів, стверджують, що виключення контенту, створеного штучним інтелектом, із захисту Розділу 230 може змусити розробників у США відмовитися від своїх зусиль у сфері штучного інтелекту, оскільки непередбачувана природа моделей «чорної скриньки» робить нібито неможливимзабезпечити, щоб такі служби, як ChatGPT, не порушували закон.

Джерело
Оцініть автора
CryptoHamster.org
Додати коментар