Anthropic, исследовательская организация в области искусственного интеллекта (ИИ), ответственная за модель большого языка Клода (LLM), недавно опубликовала важное исследование о том, как и почему чат-боты с искусственным интеллектом выбирают генерацию результатов, которые они делают.
В основе исследования команды лежит вопрос о том, полагаются ли LLM-системы, такие как Claude, OpenAI ChatGPT и Google Bard, на «запоминание» для получения выходных данных или существует более глубокая связь между данными обучения, точной настройкой и тем, что в конечном итоге выводится.
https://twitter.com/AnthropicAI/status/1688946699254071296?ref_src=twsrc%5Etfw
Слияние слоев нейронной сети вместе с огромным размером наборов данных означает, что объем этого текущего исследования ограничен предварительно обученными моделями, которые не были точно настроены. Его результаты еще не совсем применимы к Claude 2 или GPT-4, но это исследование, похоже, является ступенькой в этом направлении.
В будущем команда надеется применить эти методы к более сложным моделям и, в конечном итоге, разработать метод для точного определения того, что делает каждый нейрон в нейронной сети, когда модель функционирует.
Согласно данным CoinMarketCap, биткоин вырос на 2,9% в пятницу и торговался выше $67 000 впервые…
В последние несколько дней на рынке криптовалют наблюдается оживленная полоса: несколько активов с большой капитализацией…
LayerZero Labs официально объявила на платформе X, что этап самоотчетности Sybil в ее решении по…
У нас была возможность поговорить с Инхао из SevenX Ventures об их последних инвестициях в…
Вся команда OpenAI, занимавшаяся экзистенциальными опасностями ИИ, либо ушла в отставку, либо, как сообщается, была…
Cardano (ADA), сеть блокчейн с доказательством доли, известная своими смарт-контрактами, опровергла недавние прогнозы о падении…