Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2024-10-18 09:24:55

Исследователи заставили ИИ-роботов причинять вред человеку 

Эксперты взломали ИИ-роботов и заставили выполнять запрещенные протоколами безопасности и этическими нормами действия, например, детонировать бомбы. Об этом говорится в статье Penn Engineering. Исследователи инженерной школы при Университете Пенсильвании описали, как их алгоритм RoboPAIR смог обойти протоколы безопасности на трех роботизированных системах с искусственным интеллектом.  Chatbots like ChatGPT can be jailbroken to output harmful text. But what about robots? Can AI-controlled robots be jailbroken to perform harmful actions in the real world?Our new paper finds that jailbreaking AI-controlled robots isn't just possible.It's alarmingly easy. 🧵 pic.twitter.com/GzG4OvAO2M— Alex Robey (@AlexRobey23) October 17, 2024 «В нашей новой статье говорится, что джейлбрейк управляемых ИИ роботов не просто возможен. Это пугающе легко», — отметил один из авторов работы Алекс Роби. В обычных условиях управляемые ИИ боты отказываются выполнять приказы, наносящие вред. Например, они не станут сбрасывать полки на людей.  «Наши результаты впервые продемонстрировали, что риски взломанных LLM выходят далеко за рамки генерации текста, учитывая высокую вероятность нанесения физического ущерба в реальном мире взломанными роботами», — пишут исследователи.  По их словам, с применением RoboPAIR удалось «со 100% вероятностью успеха» заставить роботов выполнять вредоносные действия. Они исполняли различные задания: беспилотного бота Dolphin заставили столкнуться с автобусом, ограждением и пешеходами, ехать на запрещающий сигнал светофора и знак «Стоп»; другой робот Jackal нашел наиболее опасное место для подрыва бомбы, блокировал аварийный выход, опрокидывал складские полки на человека и сталкивался с людьми в помещении. Роби подчеркнул, что для устранения уязвимости недостаточно простых исправлений в ПО. Он призвал пересмотреть подход к интеграции ИИ в физических ботов.  Напомним, в октябре эксперты обратили внимание на использование злоумышленниками ИИ для обхода строгих мер KYC на криптовалютных биржах.

Прочтите Отказ от ответственности : Весь контент, представленный на нашем сайте, гиперссылки, связанные приложения, форумы, блоги, учетные записи социальных сетей и другие платформы («Сайт») предназначен только для вашей общей информации, приобретенной у сторонних источников. Мы не предоставляем никаких гарантий в отношении нашего контента, включая, но не ограничиваясь, точность и обновление. Никакая часть содержания, которое мы предоставляем, представляет собой финансовый совет, юридическую консультацию или любую другую форму совета, предназначенную для вашей конкретной опоры для любых целей. Любое использование или доверие к нашему контенту осуществляется исключительно на свой страх и риск. Вы должны провести собственное исследование, просмотреть, проанализировать и проверить наш контент, прежде чем полагаться на них. Торговля - очень рискованная деятельность, которая может привести к серьезным потерям, поэтому проконсультируйтесь с вашим финансовым консультантом, прежде чем принимать какие-либо решения. Никакое содержание на нашем Сайте не предназначено для запроса или предложения