Категории: Разное

OpenAI каже, що AI GPT-4 скорочує час модерації вмісту з місяців до годин

OpenAI, розробник ChatGPT, виступає за використання штучного інтелекту (ШІ) у модерації вмісту, стверджуючи, що він може підвищити ефективність роботи платформ соціальних мереж шляхом прискорення обробки складних завдань.

Компанія штучного інтелекту, яку підтримує Microsoft, заявила, що її остання модель штучного інтелекту GPT-4 має можливість значно скоротити терміни модерації вмісту з місяців до декількох годин, забезпечуючи покращену узгодженість у маркуванні.

Модерація вмісту становить складну роботу для компаній соціальних мереж, таких як Meta, материнська компанія Facebook, що вимагає координації численних модераторів у всьому світі, щоб запобігти доступу користувачів до шкідливих матеріалів, таких як дитяча порнографія та зображення надзвичайно насильницького характеру.

«Процес (модерації вмісту) за своєю суттю повільний і може призвести до психічного стресу для людей-модераторів. Завдяки цій системі процес розробки та налаштування політики вмісту скорочується з місяців до годин».

Відповідно до заяви, OpenAI активно досліджує використання великих мовних моделей (LLM) для вирішення цих проблем. Його широкі мовні моделі, такі як GPT-4, мають здатність розуміти та створювати природну мову, що робить їх придатними для модерування вмісту. Ці моделі мають здатність приймати модераційні рішення, керуючись наданими їм політичними вказівками.

Зображення, на якому показано процес GPT-4 для модерації вмісту. Джерело: OpenAI

Прогнози GPT-4 можуть удосконалити менші моделі для обробки великих даних. Ця концепція покращує модерацію вмісту декількома способами, включаючи узгодженість міток, швидкий цикл зворотного зв’язку та полегшення психічного тягаря.

У заяві підкреслюється, що OpenAI наразі працює над підвищенням точності прогнозів GPT-4. Одним із шляхів, які досліджуються, є інтеграція ланцюжка думок або самокритики. Крім того, компанія експериментує з методами виявлення незнайомих ризиків, черпаючи натхнення з Конституційного штучного інтелекту.

За темою: у Китаї набувають чинності нові правила штучного інтелекту

Метою OpenAI є використання моделей для виявлення потенційно шкідливого вмісту на основі широких описів шкоди. Стаття, отримана в результаті цих зусиль, сприятиме вдосконаленню поточної політики щодо контенту або розробці нових у невивчених сферах ризику.

Крім того, 15 серпня генеральний директор OpenAI Сем Альтман уточнив, що компанія утримується від навчання своїх моделей штучного інтелекту за допомогою даних, створених користувачами.

CryptoHamster

Недавние статьи

SOS Ltd стрибає на біткоіни, купуючи 50 мільйонів доларів, акції зросли на 40%

Акції китайського конгломерату фінансових послуг SOS Ltd підскочили більш ніж на 40% після того, як…

5 години ago

Пандіт розкриває макроцільову ціну доджкойнів у $2,2-$3,46, оскільки Хвиля 3 триває

Криптовалютний експерт припустив, що зростання цін на Dogecoin ще далеке від завершення, прогнозуючи середньострокові цілі…

5 години ago

Величезна помилка — Pump Science приносить вибачення після потоку токенів шахрайства

Децентралізована наукова платформа Pump Science вибачилася перед своїми користувачами після витоку її закритого ключа на…

7 години ago

9 криптовалютних прогнозів на 2025 рік: генеральний директор Nansen прогнозує найбільший бичачий хід за всю історію

У гілці на X Алекс Сваневік, генеральний директор провідної платформи онлайн-аналітики Nansen, оприлюднив дев’ять сміливих…

9 години ago

Казначейство США за Трампа може прийняти інший підхід до Tornado Cash

Багато хто в криптовалютній індустрії все ще відчуває невдоволення рішенням апеляційного суду про те, що…

9 години ago

MARA купує 6474 біткоіни з пропозицією конвертованих купюр

Майнінгова компанія MARA, колишня Marathon Digital, 27 листопада повідомила інвесторам про придбання 6474 біткойнів (BTC)…

9 години ago