Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2026-03-29 10:34:23

Исследование выявило риски чрезмерного обращения к ИИ за советами

Подхалимство ИИ — не просто стилистическая проблема или нишевый риск, а распространенное поведение с серьезными последствиями. Об этом говорится в исследовании Стэнфордского университета.  В работе под названием «Лесть ИИ снижает просоциальные намерения и способствует зависимости» сказано, что чат-боты чрезмерно уступчивы, когда дают советы в межличностном общении, подтверждая поведение пользователей, даже если оно вредно или незаконно. «По умолчанию советы от искусственного интеллекта не сообщают людям, что они неправы, и не содержат „жестких наставлений“. Боюсь, общество потеряет навыки решения сложных социальных ситуаций», — заявила ведущий автор отчета Майра Ченг.  Исследование разделили на две части. В первой измерялась распространенность подхалимства среди ИИ — оценили 11 крупных языковых моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Чат-ботам задали около 2000 запросов на основе существующих баз данных межличностных советов, потенциально вредных или незаконных действий, а также популярного сообщества Reddit r/AmITheAsshole. По сравнению с ответами людей, ИИ чаще подтверждали позицию пользователя. В случае общих советов и подсказок на основе Reddit модели в среднем одобряли позицию юзера на 49% чаще. Даже при ответах на «вредные подсказки» модели одобряли проблемное поведение в 47% случаев. Источник: Science.  На втором этапе исследования ученые изучили реакцию людей на подхалимство ИИ. Они привлекли более 2400 добровольцев для общения со льстивыми и независимыми моделями. Некоторые участники обсуждали с чат-ботами заранее подготовленные личностные дилеммы, основанные на постах с Reddit, где все единогласно считали пользователя неправым. Другие вспоминали свои собственные конфликты. После этого респонденты отвечали на вопросы о том, как проходил разговор и как он повлиял на их восприятие проблемы. Участники сочли льстивые ответы более заслуживающими доверия и указали, что с большей вероятностью вернутся к такому ИИ с аналогичными вопросами. При обсуждении своих конфликтов с «подхалимом» они также стали больше убеждаться в своей правоте. Кроме того, опрошенные часто отмечали, что оба типа ИИ демонстрировали одинаковую объективность. Пользователи не могли отличить, когда искусственный интеллект вел себя чрезмерно любезно. «Нам нужны более строгие стандарты, чтобы предотвратить распространение морально небезопасных моделей», — пришли к выводы авторы исследования.  Ченг советует проявлять осторожность тем, кто обращается за советом к ИИ. По ее мнению, нейросети не следует применять в качестве замены людей в конфликтных ситуациях. Напомним, аналитики ActivTrak пришли к выводу, что вместо облегчения нагрузки искусственный интеллект пока только ускоряет и усложняет рабочие процессы.

면책 조항 읽기 : 본 웹 사이트, 하이퍼 링크 사이트, 관련 응용 프로그램, 포럼, 블로그, 소셜 미디어 계정 및 기타 플랫폼 (이하 "사이트")에 제공된 모든 콘텐츠는 제 3 자 출처에서 구입 한 일반적인 정보 용입니다. 우리는 정확성과 업데이트 성을 포함하여 우리의 콘텐츠와 관련하여 어떠한 종류의 보증도하지 않습니다. 우리가 제공하는 컨텐츠의 어떤 부분도 금융 조언, 법률 자문 또는 기타 용도에 대한 귀하의 특정 신뢰를위한 다른 형태의 조언을 구성하지 않습니다. 당사 콘텐츠의 사용 또는 의존은 전적으로 귀하의 책임과 재량에 달려 있습니다. 당신은 그들에게 의존하기 전에 우리 자신의 연구를 수행하고, 검토하고, 분석하고, 검증해야합니다. 거래는 큰 손실로 이어질 수있는 매우 위험한 활동이므로 결정을 내리기 전에 재무 고문에게 문의하십시오. 본 사이트의 어떠한 콘텐츠도 모집 또는 제공을 목적으로하지 않습니다.