Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2026-03-29 10:34:23

Исследование выявило риски чрезмерного обращения к ИИ за советами

Подхалимство ИИ — не просто стилистическая проблема или нишевый риск, а распространенное поведение с серьезными последствиями. Об этом говорится в исследовании Стэнфордского университета.  В работе под названием «Лесть ИИ снижает просоциальные намерения и способствует зависимости» сказано, что чат-боты чрезмерно уступчивы, когда дают советы в межличностном общении, подтверждая поведение пользователей, даже если оно вредно или незаконно. «По умолчанию советы от искусственного интеллекта не сообщают людям, что они неправы, и не содержат „жестких наставлений“. Боюсь, общество потеряет навыки решения сложных социальных ситуаций», — заявила ведущий автор отчета Майра Ченг.  Исследование разделили на две части. В первой измерялась распространенность подхалимства среди ИИ — оценили 11 крупных языковых моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Чат-ботам задали около 2000 запросов на основе существующих баз данных межличностных советов, потенциально вредных или незаконных действий, а также популярного сообщества Reddit r/AmITheAsshole. По сравнению с ответами людей, ИИ чаще подтверждали позицию пользователя. В случае общих советов и подсказок на основе Reddit модели в среднем одобряли позицию юзера на 49% чаще. Даже при ответах на «вредные подсказки» модели одобряли проблемное поведение в 47% случаев. Источник: Science.  На втором этапе исследования ученые изучили реакцию людей на подхалимство ИИ. Они привлекли более 2400 добровольцев для общения со льстивыми и независимыми моделями. Некоторые участники обсуждали с чат-ботами заранее подготовленные личностные дилеммы, основанные на постах с Reddit, где все единогласно считали пользователя неправым. Другие вспоминали свои собственные конфликты. После этого респонденты отвечали на вопросы о том, как проходил разговор и как он повлиял на их восприятие проблемы. Участники сочли льстивые ответы более заслуживающими доверия и указали, что с большей вероятностью вернутся к такому ИИ с аналогичными вопросами. При обсуждении своих конфликтов с «подхалимом» они также стали больше убеждаться в своей правоте. Кроме того, опрошенные часто отмечали, что оба типа ИИ демонстрировали одинаковую объективность. Пользователи не могли отличить, когда искусственный интеллект вел себя чрезмерно любезно. «Нам нужны более строгие стандарты, чтобы предотвратить распространение морально небезопасных моделей», — пришли к выводы авторы исследования.  Ченг советует проявлять осторожность тем, кто обращается за советом к ИИ. По ее мнению, нейросети не следует применять в качестве замены людей в конфликтных ситуациях. Напомним, аналитики ActivTrak пришли к выводу, что вместо облегчения нагрузки искусственный интеллект пока только ускоряет и усложняет рабочие процессы.

Lesen Sie den Haftungsausschluss : Alle hierin bereitgestellten Inhalte unserer Website, Hyperlinks, zugehörige Anwendungen, Foren, Blogs, Social-Media-Konten und andere Plattformen („Website“) dienen ausschließlich Ihrer allgemeinen Information und werden aus Quellen Dritter bezogen. Wir geben keinerlei Garantien in Bezug auf unseren Inhalt, einschließlich, aber nicht beschränkt auf Genauigkeit und Aktualität. Kein Teil der Inhalte, die wir zur Verfügung stellen, stellt Finanzberatung, Rechtsberatung oder eine andere Form der Beratung dar, die für Ihr spezifisches Vertrauen zu irgendeinem Zweck bestimmt ist. Die Verwendung oder das Vertrauen in unsere Inhalte erfolgt ausschließlich auf eigenes Risiko und Ermessen. Sie sollten Ihre eigenen Untersuchungen durchführen, unsere Inhalte prüfen, analysieren und überprüfen, bevor Sie sich darauf verlassen. Der Handel ist eine sehr riskante Aktivität, die zu erheblichen Verlusten führen kann. Konsultieren Sie daher Ihren Finanzberater, bevor Sie eine Entscheidung treffen. Kein Inhalt unserer Website ist als Aufforderung oder Angebot zu verstehen