Бывшие сотрудники OpenAI и Anthropic призывают к «праву предупреждать» о рисках ИИ

Новости

Бывшие сотрудники ведущих разработчиков искусственного интеллекта (ИИ) призывают эти новаторские компании в области ИИ усилить защиту информаторов. Это позволит им озвучить общественности «обеспокоенность, связанную с рисками» в отношении развития сложных систем искусственного интеллекта.

4 июня 13 бывших и нынешних сотрудников OpenAI (ChatGPT), Anthropic (Claude) и DeepMind (Google) вместе с «крестными отцами ИИ» Йошуа Бенджио и Джеффри Хинтоном, а также известным ученым в области ИИ Стюартом Расселом начали кампанию «Право на предупреждение». петиция «АИ».

Заявление направлено на то, чтобы закрепить обязательство передовых компаний, занимающихся искусственным интеллектом, позволить сотрудникам выражать обеспокоенность по поводу рисков, связанных с искусственным интеллектом, внутри компании и среди общественности.

Уильям Сондерс, бывший сотрудник OpenAI и сторонник движения, отметил, что при работе с потенциально опасными новыми технологиями должны быть способы поделиться информацией о рисках с независимыми экспертами, правительствами и общественностью.

«Сегодня люди, обладающие наибольшими знаниями о том, как работают передовые системы искусственного интеллекта и о рисках, связанных с их развертыванием, не имеют полной свободы слова из-за возможного возмездия и слишком широких соглашений о конфиденциальности».

Право предупреждать принципы

В предложении содержится четыре основных предложения для разработчиков ИИ, первое из которых заключается в устранении недооценки рисков, чтобы компании не заставляли сотрудников молчать с помощью соглашений, которые не позволяют им выражать обеспокоенность по поводу рисков ИИ или наказывать их за это.

Они также стремятся создать анонимные каналы сообщения для отдельных лиц, чтобы они могли выражать обеспокоенность по поводу рисков ИИ, тем самым создавая среду, способствующую открытой критике в отношении таких рисков.

Наконец, петиция требует защиты информаторов, согласно которой компании не будут принимать ответные меры против сотрудников, которые раскрывают информацию, подвергая серьезные риски ИИ.

Сондерс сказал, что предлагаемые принципы являются «активным способом» взаимодействия с компаниями, занимающимися ИИ, для достижения необходимого безопасного и полезного ИИ.

Растущие опасения по поводу безопасности ИИ

Петиция возникла на фоне растущей обеспокоенности по поводу «деприоризации» лабораторий искусственного интеллекта в отношении безопасности их последних моделей, особенно перед лицом общего искусственного интеллекта (AGI), который пытается создать программное обеспечение с интеллектом, подобным человеческому, и способностью к самообучению.

Бывший сотрудник OpenAI Дэниел Кокотайло заявил, что решил покинуть компанию, потому что «потерял надежду, что они будут действовать ответственно», особенно в отношении создания AGI.

«Они и другие придерживаются подхода «действуй быстро и ломай вещи», а это противоположно тому, что необходимо для такой мощной и плохо изученной технологии».

28 мая Хелен Тонер, бывший член совета директоров OpenAI, заявила во время подкаста Ted AI, что Сэм Альтман, генеральный директор OpenAI, как сообщается, был уволен из компании за якобы сокрытие информации от совета директоров.

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий