Категории: Разное

Дослідники з Китаю розробили механізм корекції галюцинацій для моделей AI

Команда вчених з Університету науки і технологій Китаю та лабораторії Tencent YouTu розробили інструмент для боротьби з «галюцинаціями» моделей штучного інтелекту (ШІ).

Галюцинація — це тенденція моделі штучного інтелекту генерувати результати з високим рівнем достовірності, які не з’являються на основі інформації, наявної в її навчальних даних. Ця проблема пронизує дослідження великої мовної моделі (LLM). Його ефекти можна побачити в таких моделях, як ChatGPT від OpenAI і Claude від Anthropic.

Команда USTC/Tencent розробила інструмент під назвою «Дятел», який, як вони стверджують, здатний виправляти галюцинації в мультимодальних великих мовних моделях (MLLM).

Ця підмножина ШІ включає такі моделі, як GPT-4 (особливо його візуальний варіант, GPT-4V) та інші системи, які перетворюють бачення та/або іншу обробку в генеративну модальність ШІ поряд з моделюванням на основі тексту.

Відповідно до попередньої дослідницької роботи команди, Woodpecker використовує три окремі моделі штучного інтелекту, окрім MLLM, що коригується на галюцинації, для виконання корекції галюцинацій.

До них відносяться GPT-3.5 turbo, Grounding DINO і BLIP-2-FlanT5. Разом ці моделі працюють як оцінювачі, щоб ідентифікувати галюцинації та дати команду моделі, що виправляється, повторно генерувати вихідні дані відповідно до своїх даних.

У кожному з наведених вище прикладів магістр права галюцинує неправильну відповідь (зелений фон) на підказку (синій фон). Виправлені відповіді «Дятел» показані на червоному тлі.(Джерело зображення: Yin, et. al., 2023).

Щоб виправити галюцинації, моделі штучного інтелекту, які працюють над «Дятлом», використовують п’ятиетапний процес, який включає «виділення ключових понять, формулювання запитань, візуальну перевірку знань, створення візуальних тверджень і корекцію галюцинацій».

Дослідники стверджують, що ці методи забезпечують додаткову прозорість і «покращення точності на 30,66%/24,33% порівняно з базовим MiniGPT-4/mPLUG-Owl». Вони оцінили численні «готові» MLLM за допомогою свого методу та дійшли висновку, що Woodpecker можна «легко інтегрувати в інші MLLM».

За темою: люди та штучний інтелект часто віддають перевагу підступним відповідям чат-ботів, ніж правді — Дослідження

Оціночна версія Woodpecker доступна на Gradio Live, де будь-хто допитливий може перевірити інструмент у дії.

Alexander Zhdanov

Недавние статьи

BitGo запускає регульовану платформу зберігання для токенів рідного протоколу

BitGo, зберігач криптовалют у Сполучених Штатах, запустив регульовану платформу, призначену для зберігання та керування рідними…

4 години ago

Дохід від Avalanche впав понад 40% у другому кварталі – вплив на ціну AVAX

Другий квартал 2024 року у Avalanche (AVAX) був жахливим за декількома стандартами через значне зниження…

4 години ago

Linux дебютує з децентралізованою довірою з Hedera та понад 100 членами

Linux Foundation створила трест як головну організацію з відкритим кодом для децентралізованих екосистем. Децентралізований траст…

5 години ago

Накопичення біткойнів повним ходом, оскільки 1,3 мільярда доларів виходять з бірж, а далі – 75 000 доларів?

Інвестори знову накопичують біткойни (BTC), незважаючи на попередні падіння цін. Звіти свідчать про те, що…

5 години ago

За 50 днів до виборів у США криптовалюта Super PAC вкладає 7,8 млн доларів у вибори в Сенат

Комітет політичних дій Protect Progress (PAC) витратив приблизно 7,8 мільйона доларів на підтримку кандидатів від…

6 години ago

Ethereum у небезпеці: аналітик пояснює, що може спровокувати крах до $1800

Аналітик пояснив, як втрата цієї зони попиту в ланцюжку може призвести до падіння Ethereum до…

6 години ago