Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2026-03-29 10:34:23

Исследование выявило риски чрезмерного обращения к ИИ за советами

Подхалимство ИИ — не просто стилистическая проблема или нишевый риск, а распространенное поведение с серьезными последствиями. Об этом говорится в исследовании Стэнфордского университета.  В работе под названием «Лесть ИИ снижает просоциальные намерения и способствует зависимости» сказано, что чат-боты чрезмерно уступчивы, когда дают советы в межличностном общении, подтверждая поведение пользователей, даже если оно вредно или незаконно. «По умолчанию советы от искусственного интеллекта не сообщают людям, что они неправы, и не содержат „жестких наставлений“. Боюсь, общество потеряет навыки решения сложных социальных ситуаций», — заявила ведущий автор отчета Майра Ченг.  Исследование разделили на две части. В первой измерялась распространенность подхалимства среди ИИ — оценили 11 крупных языковых моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Чат-ботам задали около 2000 запросов на основе существующих баз данных межличностных советов, потенциально вредных или незаконных действий, а также популярного сообщества Reddit r/AmITheAsshole. По сравнению с ответами людей, ИИ чаще подтверждали позицию пользователя. В случае общих советов и подсказок на основе Reddit модели в среднем одобряли позицию юзера на 49% чаще. Даже при ответах на «вредные подсказки» модели одобряли проблемное поведение в 47% случаев. Источник: Science.  На втором этапе исследования ученые изучили реакцию людей на подхалимство ИИ. Они привлекли более 2400 добровольцев для общения со льстивыми и независимыми моделями. Некоторые участники обсуждали с чат-ботами заранее подготовленные личностные дилеммы, основанные на постах с Reddit, где все единогласно считали пользователя неправым. Другие вспоминали свои собственные конфликты. После этого респонденты отвечали на вопросы о том, как проходил разговор и как он повлиял на их восприятие проблемы. Участники сочли льстивые ответы более заслуживающими доверия и указали, что с большей вероятностью вернутся к такому ИИ с аналогичными вопросами. При обсуждении своих конфликтов с «подхалимом» они также стали больше убеждаться в своей правоте. Кроме того, опрошенные часто отмечали, что оба типа ИИ демонстрировали одинаковую объективность. Пользователи не могли отличить, когда искусственный интеллект вел себя чрезмерно любезно. «Нам нужны более строгие стандарты, чтобы предотвратить распространение морально небезопасных моделей», — пришли к выводы авторы исследования.  Ченг советует проявлять осторожность тем, кто обращается за советом к ИИ. По ее мнению, нейросети не следует применять в качестве замены людей в конфликтных ситуациях. Напомним, аналитики ActivTrak пришли к выводу, что вместо облегчения нагрузки искусственный интеллект пока только ускоряет и усложняет рабочие процессы.

Read the Disclaimer : All content provided herein our website, hyperlinked sites, associated applications, forums, blogs, social media accounts and other platforms (“Site”) is for your general information only, procured from third party sources. We make no warranties of any kind in relation to our content, including but not limited to accuracy and updatedness. No part of the content that we provide constitutes financial advice, legal advice or any other form of advice meant for your specific reliance for any purpose. Any use or reliance on our content is solely at your own risk and discretion. You should conduct your own research, review, analyse and verify our content before relying on them. Trading is a highly risky activity that can lead to major losses, please therefore consult your financial advisor before making any decision. No content on our Site is meant to be a solicitation or offer.