31 травня OpenAI оголосив про свої зусилля з покращення можливостей ChatGPT для вирішення математичних задач, щоб зменшити випадки галюцинацій штучного інтелекту (AI). OpenAI наголошує на пом’якшенні галюцинацій як на вирішальному кроку до розробки узгодженого ШІ.
У березні представлення останньої версії ChatGPT — ChatGPT-4 — ще більше просунуло штучний інтелект у мейнстрім. Однак генеративні чат-боти штучного інтелекту вже давно борються з фактичною точністю, час від часу генеруючи неправдиву інформацію, яку зазвичай називають «галюцинаціями». Зусилля зменшити ці галюцинації штучного інтелекту було оголошено в публікації на веб-сайті OpenAI.
Галюцинації ШІ стосуються випадків, коли системи штучного інтелекту генерують фактично неправильні результати, що вводять в оману або не підтверджуються даними реального світу. Ці галюцинації можуть проявлятися в різних формах, таких як генерування неправдивої інформації, вигадування неіснуючих подій чи людей або надання недостовірних деталей щодо певних тем.
OpenAI провів дослідження, щоб перевірити ефективність двох типів зворотного зв’язку: «нагляд за результатами» та «нагляд за процесом». Нагляд за результатами передбачає зворотний зв’язок на основі кінцевого результату, тоді як нагляд за процесом забезпечує введення для кожного кроку в ланцюжку думок. OpenAI оцінив ці моделі за допомогою математичних завдань, генеруючи кілька рішень і вибираючи рішення з найвищим рейтингом відповідно до кожної моделі зворотного зв’язку.
Після ретельного аналізу дослідницька група виявила, що нагляд за процесом забезпечив чудову продуктивність, оскільки спонукав модель дотримуватись схваленого людьми процесу. Навпаки, нагляд за результатами виявився більш складним для постійного вивчення.
OpenAI визнав, що наслідки нагляду за процесами виходять за межі математики, і необхідні подальші дослідження, щоб зрозуміти його вплив у різних областях. Було висловлено ймовірність того, що якщо спостережувані результати залишаються в ширшому контексті, нагляд за процесом може запропонувати сприятливе поєднання ефективності та узгодженості порівняно з наглядом за результатами. Щоб полегшити дослідження, компанія оприлюднила повний набір даних нагляду за процесом, запрошуючи до розвідки та дослідження в цій галузі.
За темою: попит на штучний інтелект ненадовго катапультує Nvidia в клуб 1 тис. доларів США
Незважаючи на те, що OpenAI не надав явних прикладів, які спонукали його до розслідування галюцинацій, два нещодавні випадки продемонстрували проблему в сценаріях реального життя.
Під час нещодавнього інциденту адвокат Стівен Шварц у справі Mata проти Avianca Airlines визнав, що покладався на чат-бот як дослідницький ресурс. Однак інформація, надана ChatGPT, виявилася повністю сфабрикованою, підкреслюючи суть проблеми.
ChatGPT від OpenAI — не єдиний приклад систем штучного інтелекту, які стикаються з галюцинаціями. Під час демонстрації своєї технології чат-ботів у березні чат-бот Microsoft Bing AI перевіряв звіти про прибутки та генерував неточні цифри для таких компаній, як Gap і Lululemon.