ChatGPT демонстрирует географические предубеждения в вопросах экологической справедливости: отчет

Новости

Технологический институт Вирджинии (США) опубликовал отчет, в котором излагаются потенциальные предубеждения в инструменте искусственного интеллекта (ИИ) ChatGPT, предполагая различия в его результатах по вопросам экологической справедливости в разных округах.

В недавнем отчете исследователи из Технологического института Вирджинии заявили, что ChatGPT имеет ограничения в предоставлении конкретной информации по вопросам экологической справедливости.

Однако исследование выявило тенденцию, указывающую на то, что информация стала более доступной для более крупных и густонаселенных штатов.

«В штатах с большим городским населением, таких как Делавэр или Калифорния, менее 1 процента населения проживало в округах, которые не могут получить конкретную информацию».

Между тем, регионы с меньшим населением не имели аналогичного доступа.

«В сельских штатах, таких как Айдахо и Нью-Гэмпшир, более 90 процентов населения проживало в округах, которые не могли получать информацию, специфичную для местного населения», — говорится в отчете.

Далее он процитировал лектора по имени Ким с географического факультета Технологического института Вирджинии, который призвал к необходимости дальнейших исследований, поскольку обнаруживаются предрассудки.

«Хотя необходимы дополнительные исследования, наши результаты показывают, что в настоящее время в модели ChatGPT существуют географические предубеждения», — заявил Ким.

В исследовательский документ также включена карта, иллюстрирующая степень населения США, не имеющего доступа к конкретной информации по вопросам экологической справедливости.

Карта США, показывающая территории, где жители могут просматривать (синий) или не могут просматривать (красный) местную информацию по вопросам экологической справедливости. Источник: Технологический институт Вирджинии.

Связанный: ChatGPT впервые сдал экзамен по неврологии

Это следует из недавних новостей о том, что ученые обнаруживают потенциальную политическую предвзятость, проявленную ChatGPT в последнее время.

25 августа сообщалось, что исследователи из Великобритании и Бразилии опубликовали исследование, в котором заявили, что большие языковые модели (LLM), такие как выходной текст ChatGPT, содержат ошибки и предвзятости, которые могут ввести читателей в заблуждение и имеют возможность продвигать политические предубеждения, представленные традиционными СМИ..

Источник

Автор статей о криптовалюте и блокчейн технологиях, являюсь экспертом в этой области. Имею опыт работы в этой сфере и активно изучаю новые тенденции и развития. Мои статьи являются источником информации для любителей криптовалют и блокчейн технологий.

Занимаюсь в анализом и оценкой криптовалютных проектов и блокчейн решений, что позволяет мне предоставлять ценные рекомендации и прогнозы для читателей. Стремлюсь предоставлять качественную и доступную информацию, которая поможет людям понять сложные технологии и тенденции в этой области.

Оцените автора
CryptoHamster.org
Добавить комментарий