Anthropic, дослідницька організація штучного інтелекту (AI), відповідальна за модель великої мови Claude (LLM), нещодавно опублікувала визначне дослідження того, як і чому чат-боти AI вирішують генерувати результати, які вони роблять.
У центрі дослідження команди лежить питання про те, чи системи LLM, такі як Claude, ChatGPT від OpenAI і Bard від Google, покладаються на «запам’ятовування» для генерування результатів, чи існує глибший зв’язок між навчальними даними, тонким налаштуванням і тим, що зрештою виводиться.
https://twitter.com/AnthropicAI/status/1688946699254071296?ref_src=twsrc%5Etfw
Злиття шарів нейронної мережі разом із величезним розміром наборів даних означає, що сфера цього поточного дослідження обмежена попередньо підготовленими моделями, які не були точно налаштовані. Його результати ще не зовсім застосовні до Claude 2 або GPT-4, але це дослідження, здається, є кроком у цьому напрямку.
У майбутньому команда сподівається застосувати ці методи до більш складних моделей і, зрештою, розробити метод визначення того, що саме робить кожен нейрон у нейронній мережі під час функціонування моделі.
Нещодавня цінова динаміка Ethereum показала, що 6 вересня ETH досяг ще одного мінімуму в 2150…
Solana (SOL) стикається зі значним ризиком, оскільки ширший ринок криптовалюти відскакує від локальних мінімумів, але…
Колін Батлер, глобальний керівник відділу інституційного капіталу в Polygon Labs, вважає, що токенізація реальних активів…
Кандидат у президенти від Республіканської партії Дональд Трамп з’явився в барі та ресторані Нью-Йорка, який…
Останнім часом SUI зробив кілька гігантських кроків, надаючи сильні бичачі сигнали. За останній тиждень SUI…
Мати Тиграна Гамбаряна, керівника Binance, затриманого в Нігерії з лютого, закликала уряд Сполучених Штатів припинити…