Виталик Бутерин подчеркивает риски ИИ на фоне переворота в руководстве OpenAI

Новости

Соучредитель Ethereum Виталик Бутертин поделился своим взглядом на «сверхразумный» искусственный интеллект (ИИ), назвав его «рискованным» в ответ на продолжающиеся смены руководства в OpenAI.

19 мая сообщалось, что бывший руководитель отдела согласования OpenAI Ян Лейке подал в отставку после того, как заявил, что достиг «переломного момента» в отношениях с руководством по основным приоритетам компании.

Лейке заявил, что «культура и процессы безопасности отошли на второй план по сравнению с блестящими продуктами» в OpenAI, при этом многие указывали на разработки в области общего искусственного интеллекта (AGI).

Ожидается, что AGI станет типом искусственного интеллекта, равным или превосходящим человеческие когнитивные способности. Мысль об этом уже начала беспокоить экспертов отрасли, которые говорят, что мир недостаточно оборудован для управления такими сверхразумными системами искусственного интеллекта.

Это мнение, похоже, совпадает со взглядами Бутерина. В сообщении на X он поделился своими текущими мыслями по этой теме, подчеркнув, что нам не следует спешить с действиями или сопротивляться тем, кто пытается.

Источник: Виталик Бутерин

Бутерин подчеркнул, что открытые модели, работающие на потребительском оборудовании, являются «защитой» от будущего, в котором небольшой конгломерат компаний сможет читать и передавать большую часть человеческих мыслей.

«Такие модели также гораздо менее опасны с точки зрения риска гибели, чем корпоративная мания величия и военные».

Это его второй комментарий за последнюю неделю об искусственном интеллекте и его растущих возможностях.

16 мая он заявил, что модель GPT-4 OpenAI уже превзошла тест Тьюринга, определяющий «человечность» модели ИИ. Он процитировал новое исследование, в котором утверждается, что большинство людей не могут расшифровать слова, разговаривая с машиной.

Связанный: Новая функция отзыва Microsoft «Черное зеркало» записывает все, что вы делаете

Однако Бутерин не первый, кто выражает такую ​​обеспокоенность. Правительство Соединенного Королевства также недавно внимательно изучило растущее участие крупных технологических компаний в секторе искусственного интеллекта, поднимая вопросы, связанные с конкуренцией и доминированием на рынке.

Такие группы, как 6079 AI, уже появляются в Интернете, выступая за децентрализацию ИИ, чтобы гарантировать, что он останется более демократичным и не будет доминировать в сфере высоких технологий.

Источник: 6079.ai

Это последовало за уходом еще одного старшего члена руководящей команды OpenAI 14 мая, когда Илья Суцкевер, соучредитель и главный научный сотрудник, объявил о своей отставке.

Суцкевер не упомянул о каких-либо опасениях по поводу AGI. Однако в своем посте на X он выразил уверенность, что OpenAI разработает AGI, который будет «безопасным и полезным».

Источник

Автор, являюсь внимательным наблюдателем тенденций и новых идей в области криптовалют и блокчейн технологий. Слежу за последними новостями и развитиями в этой области и готов анализировать и интерпретировать их для читателей.

Стремлюсь быть в курсе всех новых идей и инноваций в криптоиндустрии, чтобы статьи были всегда актуальными и полезными. Моя цель - предоставить читателям полную и достоверную информацию о последних тенденциях и развитиях в криптоиндустрии.

Считаю, что быть внимательным к тенденциям и новым идеям - важный аспект моей работы как автора, поскольку позволяет мне предоставлять читателям самую свежую и актуальную информацию в этой быстро развивающейся области.

Оцените автора
CryptoHamster.org
Добавить комментарий