Axel Springer, одна з найбільших медіа-компаній у Європі, співпрацює з OpenAI, щоб інтегрувати журналістику в технології штучного інтелекту (ШІ) ChatGPT, йдеться у заяві німецького видавця у своєму блозі 13 грудня.
Співпраця передбачає використання вмісту медіабрендів Axel Springer для вдосконалення навчання великих мовних моделей OpenAI. Він спрямований на покращення взаємодії з користувачем ChatGPT завдяки актуальному та авторитетному вмісту на різноманітні теми, а також підвищенню прозорості завдяки повним посиланням на статті.
Генеративні чат-боти штучного інтелекту давно борються з фактичною точністю, час від часу генеруючи неправдиву інформацію, яку зазвичай називають «галюцинаціями». Ініціативи щодо зменшення цих галюцинацій штучного інтелекту були оголошені в червні в публікації на веб-сайті OpenAI.
Галюцинації штучного інтелекту виникають, коли системи штучного інтелекту генерують фактично невірну інформацію, яка вводить в оману або не підтверджується даними реального світу. Галюцинації можуть проявлятися в різних формах, таких як генерування неправдивої інформації, вигадування неіснуючих подій чи людей або надання недостовірної інформації про певні теми.
Поєднання штучного інтелекту та журналістики породило проблеми, зокрема занепокоєння щодо прозорості та дезінформації. Дослідження Ipsos Global показало, що 56% американців і 64% канадців вважають, що ШІ посилить поширення дезінформації, а в усьому світі 74% вважають, що ШІ сприяє створенню реалістичних фейкових новин.
Партнерство між OpenAI і Axel Springer спрямоване на те, щоб користувачі ChatGPT могли створювати підсумки від медіа-брендів Axel Springer, зокрема Politico, Business Insider, Bild і Die Welt.
За темою: AI з відкритим кодом може перевершити приватні моделі, такі як Chat-GPT – дослідження ARK Invest
Проте також досліджується потенціал штучного інтелекту для боротьби з дезінформацією, як це видно з такими інструментами, як AI Fact Checker та інтеграція Microsoft GPT-4 у свій браузер Edge.
Associated Press відреагувало на ці занепокоєння, видавши вказівки, що обмежують використання генеративного ШІ в новинах, наголошуючи на важливості людського контролю.
У жовтні 2023 року команда вчених з Університету науки і технологій Китаю та лабораторії Tencent YouTu розробили інструмент для боротьби з «галюцинаціями» моделей штучного інтелекту (ШІ).