Anthropic, дослідницька організація штучного інтелекту (AI), відповідальна за модель великої мови Claude (LLM), нещодавно опублікувала визначне дослідження того, як і чому чат-боти AI вирішують генерувати результати, які вони роблять.
У центрі дослідження команди лежить питання про те, чи системи LLM, такі як Claude, ChatGPT від OpenAI і Bard від Google, покладаються на «запам’ятовування» для генерування результатів, чи існує глибший зв’язок між навчальними даними, тонким налаштуванням і тим, що зрештою виводиться.
https://twitter.com/AnthropicAI/status/1688946699254071296?ref_src=twsrc%5Etfw
Злиття шарів нейронної мережі разом із величезним розміром наборів даних означає, що сфера цього поточного дослідження обмежена попередньо підготовленими моделями, які не були точно налаштовані. Його результати ще не зовсім застосовні до Claude 2 або GPT-4, але це дослідження, здається, є кроком у цьому напрямку.
У майбутньому команда сподівається застосувати ці методи до більш складних моделей і, зрештою, розробити метод визначення того, що саме робить кожен нейрон у нейронній мережі під час функціонування моделі.
Як повідомляється, Вищий суд в Нігерії надав Комісії з економічних та фінансових злочинів країни (EFCC)…
Чиновник Швейцарського національного банку відхилив заклики до закладу додати біткойн до своїх резервів як хеджування…
Децентралізовані AI стартап -дослідження зібрали 50 мільйонів доларів у раунді серії A на чолі з…
Індустрія криптовалют намагається за значну зміну регуляторного тону після присяги Пола Аткінса як голови Комісії…
Оскільки російський уряд розглядає заборону транзакцій з грошовими коштами, деякі великі місцеві платформи обміну криптовалютами…
Прийняття біткойна серед фінансових установок США може побачити великий приріст після того, як Федеральний резерв…