Генеральный директор Тим Кук дал редкий, хотя и осторожный, взгляд на обнесенный стеной сад Apple во время части вопросов и ответов недавней телефонной конференции, когда его спросили, что он думает о генеративном искусственном интеллекте (ИИ) и о том, куда он «видит это».
Кук воздержался от раскрытия планов Apple, заявив заранее: «Мы не комментируем дорожные карты продуктов». Однако он дал понять, что компания заинтересована в этом пространстве:
«Я действительно думаю, что очень важно быть обдуманным и вдумчивым в том, как вы подходите к этим вещам. И есть ряд проблем, которые необходимо решить… но потенциал, безусловно, очень интересный».
Позже генеральный директор добавил, что компания считает «ИИ чем-то большим» и будет «продолжать вплетать его в наши продукты на очень продуманной основе».
Комментарии Кука о «преднамеренном и продуманном» подходе могут объяснить отсутствие компании в сфере генеративного ИИ. Однако есть некоторые признаки того, что Apple проводит собственное исследование связанных моделей.
В исследовательской статье, которую планируется опубликовать на конференции Interaction Design and Children в июне этого года, подробно описывается новая система борьбы с предвзятостью при разработке наборов данных машинного обучения.
Предвзятость — тенденция модели ИИ делать несправедливые или неточные прогнозы на основе неверных или неполных данных — часто упоминается как одна из самых насущных проблем для безопасной и этичной разработки генеративных моделей ИИ.
So glad OpenAI is keeping its bias in check. pic.twitter.com/y4a7FUochR
— Brooklin Nash (@realBrookNash) April 27, 2023
В документе, который в настоящее время можно прочитать в препринте, подробно описывается система, с помощью которой несколько пользователей будут вносить свой вклад в разработку набора данных системы ИИ с одинаковым входом.
Развитие генеративного ИИ в статус-кво не добавляет обратной связи с людьми до более поздних стадий, когда, как правило, модели уже получили предвзятость обучения.
В новом исследовании Apple интегрируется человеческая обратная связь на самых ранних этапах разработки модели, чтобы существенно демократизировать процесс отбора данных. Результатом, по словам исследователей, стала система, в которой используется «практический совместный подход к внедрению стратегий для создания сбалансированных наборов данных».
Связанный: Проблема черного ящика ИИ: проблемы и решения для прозрачного будущего
Следует отметить, что это исследование было разработано как образовательная парадигма, чтобы стимулировать интерес новичков к развитию машинного обучения.
Может оказаться сложным масштабировать методы, описанные в документе, для использования в обучении моделей большого языка (LLM), таких как ChatGPT и Google Bard. Однако исследование демонстрирует альтернативный подход к борьбе с предвзятостью.
В конечном счете, создание LLM без нежелательных предубеждений может стать важной вехой на пути к разработке систем искусственного интеллекта человеческого уровня.
Такие системы способны разрушить каждый аспект технологического сектора, особенно мир финансовых технологий, криптовалютную торговлю и блокчейн. Беспристрастные боты для торговли акциями и криптовалютами, способные рассуждать на уровне человека, например, могут встряхнуть мировой финансовый рынок, демократизируя знания о трейдинге высокого уровня.
Кроме того, демонстрация беспристрастного LLM может иметь большое значение для удовлетворения правительственных требований безопасности и этических требований для индустрии генеративного ИИ.
Это особенно примечательно для Apple, поскольку любой генеративный продукт ИИ, который она разрабатывает или выбирает для поддержки, выиграет от интегрированного набора микросхем ИИ iPhone и его 1,5-миллиардного охвата пользователей.