В рамках недавней разработки, направленной на повышение безопасности и прозрачности искусственного интеллекта, Google представила три новые модели генеративного ИИ. Эти модели, входящие в серию Google Gemma 2, разработаны так, чтобы быть более безопасными, эффективными и прозрачными, чем многие существующие модели.
В сообщении в блоге на веб-сайте компании говорится, что новые модели — Gemma 2 2B, ShieldGemma и Gemma Scope — основаны на фундаменте, заложенном оригинальной серией Gemma 2, выпущенной в мае.
Новая эра искусственного интеллекта с Gemma 2
В отличие от моделей Gemini от Google, серия Gemma имеет открытый исходный код. Этот подход отражает стратегию Meta с ее моделями Llama, направленную на предоставление доступных и надежных инструментов искусственного интеллекта для более широкой аудитории.
Gemma 2 2B — облегченная модель для генерации и анализа текста. Он достаточно универсален, чтобы работать на различном оборудовании, включая ноутбуки и периферийные устройства. Его способность функционировать в различных средах делает его привлекательным вариантом для разработчиков и исследователей, которым нужны гибкие решения искусственного интеллекта.
Между тем, модель ShieldGemma фокусируется на повышении безопасности, выступая в качестве набора классификаторов безопасности. ShieldGemma создана для обнаружения и фильтрации токсичного контента, включая разжигание ненависти, оскорбления и материалы откровенно сексуального характера. Он работает на базе Gemma 2, обеспечивая уровень модерации контента, который имеет решающее значение в современном цифровом мире.
По данным Google, ShieldGemma может фильтровать запросы по генеративной модели и генерируемому контенту, что делает его ценным инструментом для обеспечения целостности и безопасности контента, созданного ИИ.
Модель Gemma Scope позволяет разработчикам глубже понять внутреннюю работу моделей Gemma 2. По данным Google, Gemma Scope состоит из специализированных нейронных сетей, которые помогают распаковывать плотную и сложную информацию, обрабатываемую Gemma 2.
По теме: Бюро регистрации авторских прав США сообщает о «срочной необходимости» в защите от дипфейков
Преобразовав эту информацию в более понятную форму, исследователи смогут лучше понять, как Gemma 2 идентифицирует закономерности, обрабатывает данные и делает прогнозы. Эта прозрачность жизненно важна для повышения надежности и надежности ИИ.
Решение проблем безопасности и одобрение правительства
Запуск Google этих моделей также последовал за предупреждением инженера Microsoft Шейна Джонса, который выразил обеспокоенность по поводу инструментов искусственного интеллекта Google, создающих изображения насилия и сексуального характера и игнорирующих авторские права.
Выпуск этих новых моделей совпадает с предварительным отчетом Министерства торговли США, одобряющим открытые модели искусственного интеллекта. В отчете подчеркиваются преимущества повышения доступности генеративного искусственного интеллекта для небольших компаний, исследователей, некоммерческих организаций и отдельных разработчиков.
Тем не менее, он также подчеркивает важность мониторинга этих моделей на предмет потенциальных рисков, подчеркивая необходимость мер безопасности, подобных тем, которые реализованы в ShieldGemma.