В рамках недавней разработки, направленной на повышение безопасности и прозрачности искусственного интеллекта, Google представила три новые модели генеративного ИИ. Эти модели, входящие в серию Google Gemma 2, разработаны так, чтобы быть более безопасными, эффективными и прозрачными, чем многие существующие модели.
В сообщении в блоге на веб-сайте компании говорится, что новые модели — Gemma 2 2B, ShieldGemma и Gemma Scope — основаны на фундаменте, заложенном оригинальной серией Gemma 2, выпущенной в мае.
В отличие от моделей Gemini от Google, серия Gemma имеет открытый исходный код. Этот подход отражает стратегию Meta с ее моделями Llama, направленную на предоставление доступных и надежных инструментов искусственного интеллекта для более широкой аудитории.
Gemma 2 2B — облегченная модель для генерации и анализа текста. Он достаточно универсален, чтобы работать на различном оборудовании, включая ноутбуки и периферийные устройства. Его способность функционировать в различных средах делает его привлекательным вариантом для разработчиков и исследователей, которым нужны гибкие решения искусственного интеллекта.
Между тем, модель ShieldGemma фокусируется на повышении безопасности, выступая в качестве набора классификаторов безопасности. ShieldGemma создана для обнаружения и фильтрации токсичного контента, включая разжигание ненависти, оскорбления и материалы откровенно сексуального характера. Он работает на базе Gemma 2, обеспечивая уровень модерации контента, который имеет решающее значение в современном цифровом мире.
По данным Google, ShieldGemma может фильтровать запросы по генеративной модели и генерируемому контенту, что делает его ценным инструментом для обеспечения целостности и безопасности контента, созданного ИИ.
Модель Gemma Scope позволяет разработчикам глубже понять внутреннюю работу моделей Gemma 2. По данным Google, Gemma Scope состоит из специализированных нейронных сетей, которые помогают распаковывать плотную и сложную информацию, обрабатываемую Gemma 2.
По теме: Бюро регистрации авторских прав США сообщает о «срочной необходимости» в защите от дипфейков
Преобразовав эту информацию в более понятную форму, исследователи смогут лучше понять, как Gemma 2 идентифицирует закономерности, обрабатывает данные и делает прогнозы. Эта прозрачность жизненно важна для повышения надежности и надежности ИИ.
Запуск Google этих моделей также последовал за предупреждением инженера Microsoft Шейна Джонса, который выразил обеспокоенность по поводу инструментов искусственного интеллекта Google, создающих изображения насилия и сексуального характера и игнорирующих авторские права.
Выпуск этих новых моделей совпадает с предварительным отчетом Министерства торговли США, одобряющим открытые модели искусственного интеллекта. В отчете подчеркиваются преимущества повышения доступности генеративного искусственного интеллекта для небольших компаний, исследователей, некоммерческих организаций и отдельных разработчиков.
Тем не менее, он также подчеркивает важность мониторинга этих моделей на предмет потенциальных рисков, подчеркивая необходимость мер безопасности, подобных тем, которые реализованы в ShieldGemma.
Хакер, получивший доступ к серверам компании и укравший более 37 миллионов долларов в криптовалюте у…
Цены на такие сырьевые товары, как золото и сырая нефть, растут, поскольку на Ближнем Востоке…
Fenbushi Capital, венчурный капитал, ориентированный на блокчейн (VC), похоже, обналичивает деньги после перемещения четырех токенов,…
По данным исследовательской компании Santiment, существует как минимум пять ключевых слов, которые могут сигнализировать о…
Группа по защите интересов криптовалюты Cryptocurrency Open Patent Alliance (COPA) и патентно-ориентированная организация Unified Patents…
Фирма по добыче Биткоин, обвиняемая Swan Bitcoin в краже ее майнингового бизнеса с помощью плана…