Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2026-03-29 10:34:23

Исследование выявило риски чрезмерного обращения к ИИ за советами

Подхалимство ИИ — не просто стилистическая проблема или нишевый риск, а распространенное поведение с серьезными последствиями. Об этом говорится в исследовании Стэнфордского университета.  В работе под названием «Лесть ИИ снижает просоциальные намерения и способствует зависимости» сказано, что чат-боты чрезмерно уступчивы, когда дают советы в межличностном общении, подтверждая поведение пользователей, даже если оно вредно или незаконно. «По умолчанию советы от искусственного интеллекта не сообщают людям, что они неправы, и не содержат „жестких наставлений“. Боюсь, общество потеряет навыки решения сложных социальных ситуаций», — заявила ведущий автор отчета Майра Ченг.  Исследование разделили на две части. В первой измерялась распространенность подхалимства среди ИИ — оценили 11 крупных языковых моделей, включая ChatGPT, Claude, Gemini и DeepSeek. Чат-ботам задали около 2000 запросов на основе существующих баз данных межличностных советов, потенциально вредных или незаконных действий, а также популярного сообщества Reddit r/AmITheAsshole. По сравнению с ответами людей, ИИ чаще подтверждали позицию пользователя. В случае общих советов и подсказок на основе Reddit модели в среднем одобряли позицию юзера на 49% чаще. Даже при ответах на «вредные подсказки» модели одобряли проблемное поведение в 47% случаев. Источник: Science.  На втором этапе исследования ученые изучили реакцию людей на подхалимство ИИ. Они привлекли более 2400 добровольцев для общения со льстивыми и независимыми моделями. Некоторые участники обсуждали с чат-ботами заранее подготовленные личностные дилеммы, основанные на постах с Reddit, где все единогласно считали пользователя неправым. Другие вспоминали свои собственные конфликты. После этого респонденты отвечали на вопросы о том, как проходил разговор и как он повлиял на их восприятие проблемы. Участники сочли льстивые ответы более заслуживающими доверия и указали, что с большей вероятностью вернутся к такому ИИ с аналогичными вопросами. При обсуждении своих конфликтов с «подхалимом» они также стали больше убеждаться в своей правоте. Кроме того, опрошенные часто отмечали, что оба типа ИИ демонстрировали одинаковую объективность. Пользователи не могли отличить, когда искусственный интеллект вел себя чрезмерно любезно. «Нам нужны более строгие стандарты, чтобы предотвратить распространение морально небезопасных моделей», — пришли к выводы авторы исследования.  Ченг советует проявлять осторожность тем, кто обращается за советом к ИИ. По ее мнению, нейросети не следует применять в качестве замены людей в конфликтных ситуациях. Напомним, аналитики ActivTrak пришли к выводу, что вместо облегчения нагрузки искусственный интеллект пока только ускоряет и усложняет рабочие процессы.

Feragatnameyi okuyun : Burada sunulan tüm içerikler web sitemiz, köprülü siteler, ilgili uygulamalar, forumlar, bloglar, sosyal medya hesapları ve diğer platformlar (“Site”), sadece üçüncü taraf kaynaklardan temin edilen genel bilgileriniz içindir. İçeriğimizle ilgili olarak, doğruluk ve güncellenmişlik dahil ancak bunlarla sınırlı olmamak üzere, hiçbir şekilde hiçbir garanti vermemekteyiz. Sağladığımız içeriğin hiçbir kısmı, herhangi bir amaç için özel bir güvene yönelik mali tavsiye, hukuki danışmanlık veya başka herhangi bir tavsiye formunu oluşturmaz. İçeriğimize herhangi bir kullanım veya güven, yalnızca kendi risk ve takdir yetkinizdedir. İçeriğinizi incelemeden önce kendi araştırmanızı yürütmeli, incelemeli, analiz etmeli ve doğrulamalısınız. Ticaret büyük kayıplara yol açabilecek yüksek riskli bir faaliyettir, bu nedenle herhangi bir karar vermeden önce mali danışmanınıza danışın. Sitemizde hiçbir içerik bir teklif veya teklif anlamına gelmez