AI21 Labs нещодавно запустила «Contextual Answers», систему відповідей на запитання для великих мовних моделей (LLM).
При підключенні до LLM новий механізм дозволяє користувачам завантажувати власні бібліотеки даних, щоб обмежити вихідні дані моделі конкретною інформацією.
Запуск ChatGPT та подібних продуктів штучного інтелекту (ШІ) змінив парадигму індустрії ШІ, але відсутність надійності робить впровадження складною перспективою для багатьох компаній.
Згідно з дослідженнями, співробітники витрачають майже половину свого робочого дня на пошук інформації. Це відкриває величезні можливості для чат-ботів, здатних виконувати функції пошуку;однак більшість чат-ботів не орієнтовані на підприємства.
AI21 розробив Contextual Answers, щоб усунути розрив між чат-ботами, розробленими для загального використання, та службами відповідей на запитання корпоративного рівня, надаючи користувачам можливість конвеєрувати власні дані та документувати Libraries.
Відповідно до публікації в блозі AI21, Contextual Answers дозволяє користувачам керувати відповідями ШІ без моделей перенавчання, таким чином пом’якшуючи деякі з найбільших перешкод для впровадження:
«Більшість компаній намагаються прийняти [AI], посилаючись на вартість, складність і відсутність спеціалізації моделей у своїх організаційних даних, що призводить до неправильних, «галюцинованих» або невідповідних для контексту відповідей».
Одна з невирішених проблем, пов’язаних із розробкою корисних LLM, таких як ChatGPT від OpenAI або Bard від Google, полягає в тому, щоб навчити їх виражати брак впевненості.
Як правило, коли користувач надсилає запит чат-боту, він виводить відповідь, навіть якщо в його наборі даних недостатньо інформації, щоб надати фактичну інформацію. У цих випадках замість того, щоб виводити відповідь з низьким рівнем впевненості, наприклад «Я не знаю», LLM часто вигадують інформацію без будь-якої фактичної основи.
Дослідники називають ці результати «галюцинаціями», оскільки машини генерують інформацію, якої, здавалося б, не існує в їхніх наборах даних, як люди, які бачать речі, яких насправді немає.
We’re excited to introduce Contextual Answers, an API solution where answers are based on organizational knowledge, leaving no room for AI hallucinations.
➡️ https://t.co/LqlyBz6TYZ pic.twitter.com/uBrXrngXhW
— AI21 Labs (@AI21Labs) July 19, 2023
Згідно з A121, контекстні відповіді мають повністю пом’якшити проблему галюцинацій, виводячи інформацію лише тоді, коли вона стосується документації, наданої користувачем, або не виводячи взагалі нічого.
У секторах, де точність важливіша за автоматизацію, наприклад у фінансах і юриспруденції, поява систем генераторних попередньо навчених трансформаторів (GPT) мала різні результати.
Експерти продовжують рекомендувати бути обережними у сфері фінансів при використанні систем GPT через їх схильність до галюцинацій або змішування інформації, навіть якщо вони підключені до Інтернету та можуть посилатися на джерела. А в юридичному секторі адвокату тепер загрожують штрафи та санкції за те, що він покладався на результати, згенеровані ChatGPT під час розгляду справи.
Завдяки передньому завантаженню систем штучного інтелекту відповідними даними та втручанню до того, як система зможе галюцинувати інформацію, яка не відповідає дійсності, AI21, здається, продемонстрував пом’якшення проблеми галюцинацій.
Це може призвести до масового впровадження, особливо на арені фінансових технологій, де традиційні фінансові установи неохоче сприймали технологію GPT, а співтовариства криптовалют і блокчейнів мали неоднозначний успіх, у кращому випадку використовуючи чат-боти.
За темою: OpenAI запускає «спеціальні інструкції» для ChatGPT, щоб користувачам не доводилося повторюватися в кожному запиті