Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2025-12-29 13:45:00

Исследование выявило предвзятость ИИ-моделей к диалектам

Крупные языковые модели предвзято относятся к носителям диалектов, приписывая им негативные стереотипы. К такому выводу пришли ученые из Германии и США, пишет DW.  «Я считаю, мы видим действительно шокирующие эпитеты, приписываемые носителям диалектов», — отметил один из ведущих авторов исследования Минь Дук Буй в комментарии изданию.  Анализ Университета имени Йоханнеса Гутенберга показал, что десять протестированных моделей, включая ChatGPT-5 mini и Llama 3.1, описывали носителей немецких диалектов (баварского, кельнского) как «необразованных», «работающих на фермах» и «склонных к гневу». Предвзятость усиливалась, когда ИИ явно указывали на диалект. Другие случаи  Аналогичные проблемы ученые фиксируют глобально. В исследовании Калифорнийского университета в Беркли от 2024 года сравнили ответы ChatGPT на различные диалекты английского (индийский, ирландский, нигерийский).  Выяснилось, что чат-бот отвечал на них с более выраженными стереотипами, унизительным содержанием и снисходительным тоном по сравнению с обращением на стандартном американском или британском английском.  Аспирант Корнеллского университета США в области информатики Эмма Харви назвала предвзятость в отношении диалектов «значимой и тревожной».  Летом 2025 года она и ее коллеги также выявили, что ИИ-ассистент для покупок Amazon Rufus давал расплывчатые или даже неверные ответы людям, пишущим на афроамериканском диалекте английского. Если в запросах были ошибки, модель отвечала грубо.  Еще один наглядный пример предубеждений нейросетей — ситуация с соискателем из Индии, который обратился к ChatGPT для проверки резюме на английском. В итоге чат-бот изменил его фамилию на ту, что ассоциируется с более высокой кастой.  «Массовое внедрение языковых моделей грозит не просто консервацией укоренившихся предубеждений, а их масштабным усилением. Вместо того, чтобы нивелировать вред, технологии рискуют придать ему системный характер», — сказала Харви. Однако кризис не ограничивается предвзятостью — некоторые модели просто не распознают диалекты. Например, в июле ИИ-ассистент городского совета Дерби (Англия) не смог распознать диалект радиоведущей, когда та использовала в прямом эфире слова вроде mardy («нытик») и duck («дорогуша»).  Что делать?  Проблема заключается не в самих ИИ-моделях, а скорее в том, как они обучаются. Чат-боты читают гигантские объемы текстов из интернета, на основе которых потом дают ответы.  «Главный вопрос — кто пишет этот текст. Если в нем есть предубеждения против носителей диалектов, ИИ их скопирует», — пояснила Каролин Хольтерманн из Гамбургского университета. При этом она подчеркнула, что у технологии есть преимущество:  «В отличие от людей, у ИИ-системы предвзятость можно найти и „выключить“. Мы можем активно бороться с такими проявлениями». Некоторые ученые предлагают в качестве преимущества создавать кастомизированные модели под конкретные диалекты. В августе 2024 года компания Acree AI уже представила модель Arcee-Meraj, которая работает с несколькими арабскими диалектами.  По словам Хольтерманн, появление новых и более адаптированных LLM позволяет рассматривать ИИ «не как врага диалектов, а как несовершенный инструмент, который может совершенствоваться». Напомним, журналисты The Economist предупредили о рисках ИИ-игрушек для детской психики.  https://forklog.com/exclusive/ai/temnaya-era-ii-pochemu-etika-iskusstvennogo-intellekta-vazhna

면책 조항 읽기 : 본 웹 사이트, 하이퍼 링크 사이트, 관련 응용 프로그램, 포럼, 블로그, 소셜 미디어 계정 및 기타 플랫폼 (이하 "사이트")에 제공된 모든 콘텐츠는 제 3 자 출처에서 구입 한 일반적인 정보 용입니다. 우리는 정확성과 업데이트 성을 포함하여 우리의 콘텐츠와 관련하여 어떠한 종류의 보증도하지 않습니다. 우리가 제공하는 컨텐츠의 어떤 부분도 금융 조언, 법률 자문 또는 기타 용도에 대한 귀하의 특정 신뢰를위한 다른 형태의 조언을 구성하지 않습니다. 당사 콘텐츠의 사용 또는 의존은 전적으로 귀하의 책임과 재량에 달려 있습니다. 당신은 그들에게 의존하기 전에 우리 자신의 연구를 수행하고, 검토하고, 분석하고, 검증해야합니다. 거래는 큰 손실로 이어질 수있는 매우 위험한 활동이므로 결정을 내리기 전에 재무 고문에게 문의하십시오. 본 사이트의 어떠한 콘텐츠도 모집 또는 제공을 목적으로하지 않습니다.