Генеральний директор Nvidia Дженсен Хуанг нещодавно офіційно заявив, що, на його думку, штучний інтелект (ШІ) людського рівня, ймовірно, буде реалізований протягом наступних п’яти років і що галюцинації, одну з найбільших проблем у цій галузі, буде легко вирішити..
Коментарі Хуанга були зроблені під час виступу на конференції розробників Nvidia GTC у Сан-Хосе, штат Каліфорнія, 20 березня.
Під час основної промови на заході Хуанг торкнувся ідеї загального штучного інтелекту (AGI). Згідно зі звітом TechCrunch, генеральний директор сказав журналістам, що поява AGI була проблемою бенчмаркінгу:
«Якщо ми визначили AGI як щось дуже конкретне, набір тестів, у яких програмне забезпечення може працювати дуже добре — або, можливо, на 8% краще, ніж більшість людей — я вважаю, що ми досягнемо цього протягом 5 років».
Незрозуміло, які саме тести мав на увазі Хуан. Термін «загальний» у контексті штучного інтелекту зазвичай відноситься до системи, яка, незалежно від еталонного рівня, здатна на все, що могла б зробити людина середнього інтелекту за наявності достатніх ресурсів.
Він також продовжив обговорення «галюцинацій», ненавмисного результату навчання великих мовних моделей діяти як генеративні системи ШІ. Галюцинації виникають, коли моделі штучного інтелекту видають нову, як правило, неправильну інформацію, яка не міститься в наборі даних.
За словами Хуанга, розгадувати галюцинації має бути простою справою. «Додайте правило: для кожної окремої відповіді ви повинні шукати відповідь, — сказав він присутнім перед тим, як додати, — ШІ не повинен просто відповідати;спочатку слід провести дослідження, щоб визначити, яка з відповідей найкраща».
Якщо залишити осторонь той факт, що CoPilot AI від Microsoft, Gemini від Google, ChatGPT від OpenAI і Claude 3 від Anthropic мають можливість надавати джерела для своїх результатів з Інтернету, якщо проблему галюцинацій AI потрібно вирішити раз і назавжди, цеможе революціонізувати безліч галузей, включаючи фінанси та криптовалюту.
Наразі виробники вищезгаданих систем радять бути обережними при використанні генеративних систем ШІ для функцій, де важлива точність. Інтерфейс користувача для ChatGPT, наприклад, попереджає, що «ChatGPT може робити помилки», і радить користувачам «перевірити важливу інформацію».
У світі фінансів і криптовалюти точність може визначити різницю між прибутком і збитком. Це означає, що за нинішнього статус-кво генеративні системи штучного інтелекту мають обмежену функціональність для спеціалістів у сфері фінансів і криптовалют.
За темою: CFTC попереджає, що ШІ не може вибрати наступного переможця криптовалюти
Хоча існують експерименти із залученням торгових ботів, що працюють на основі генеративних систем штучного інтелекту, вони, як правило, обмежені правилами, щоб запобігти автономному виконанню — тобто вони попередньо запрограмовані на виконання угод у суворо контрольований спосіб, подібний до розміщення лімітних замовлень.
Якби генеративні моделі штучного інтелекту не страждали від галюцинацій повністю сфабрикованих результатів, то, нібито, вони мали б бути здатні здійснювати торгівлю та приймати фінансові рекомендації та рішення абсолютно незалежно від людського втручання. Іншими словами, якби проблему галюцинацій у ШІ було вирішено, цілком можливо, що повністю автоматизована торгівля стала б реальністю.