Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2024-06-05 13:18:40

Право говорить и страх AGI. Сотрудники ИИ-компаний забили тревогу 

Бывшие и нынешние сотрудники ИИ-корпораций составили обращение с требованием расширить права на разглашение потенциально опасной корпоративной информации.  «Компании, занимающиеся искусственным интеллектом, обладают закрытой информацией о возможностях и ограничениях своих систем, их защитных мерах и уровнях риска [технологий]. В настоящее время у них есть лишь несущественные обязательства по предоставлению части этой информации правительствам, но не общественности», — говорится в документе.  Среди подписавших письмо 13 бывших и действующих сотрудников OpenAI, Google DeepMind и Anthropic, некоторые пожелали остаться анонимными. Авторы считают, что пока за ИИ-гигантами не установят эффективный государственный надзор, их работники являются «единственными, кто может привлечь их к ответственности».  Однако у таких компаний, есть «сильные финансовые стимулы, чтобы избежать надзора». По словам авторов документа, зачастую их ограничивают соглашения о конфиденциальности и другие корпоративные процедуры: «Обычных мер защиты информаторов недостаточно, поскольку они завязаны на незаконной деятельности, тогда как многие из беспокоящих нас рисков еще не регулируются. Некоторые обоснованно опасаются различных форм возмездия, учитывая историю подобных случаев в отрасли». В качестве смягчающей меры авторы предложили корпорациям придерживаться нескольких принципов: Не заключать соглашений, которые запрещают «унижение» или критику компании. Обеспечивать анонимность и непредвзятость по отношению к сотруднику, сообщившему о риске. Поддерживать «культуру открытой критики» и признать возможные опасения — от манипуляций с ИИ до потери контроля над ним, известной как «сингулярность».  Не принимать ответных мер по отношению к работникам, опубликовавших связанную с опасениями конфиденциальную информацию. Всемогущий AGI Другой бывший работник OpenAI Леопольд Ашенбреннер опубликовал эссе, в котором выразил обеспокоенность, связанную с быстро развивающимся общим искусственным интеллектом (AGI). https://forklog.com/exclusive/ai/za-prevyshenie-skorosti-chto-takoe-e-acc-i-kak-on-mog-povliyat-na-uvolnenie-sema-altmana Работа составлена в рамках инициативы Situational Awareness («Ситуативная осведомленность») и посвящена ушедшему в отставку сооснователю OpenAI Илье Суцкеверу.  «Гонка AGI началась. Мы строим машины, которые могут думать и рассуждать. К 2025-2026 году эти машины обгонят многих выпускников колледжей. […] Попутно в нее вмешаются органы национальной безопасности. Правительство США проснется, и в 2027-2028 мы получим некую форму правительственного проекта AGI. Ни один стартап не сможет справиться со сверхинтеллектом. Где-то в SiFi наступит финал», — пишет Ашенбреннер.  По его наблюдениям, технологическое противостояние усиливается с каждым годом, поэтому до конца десятилетия «триллионы долларов уйдут на графические процессоры».  При этом ведущие национальные компании-разработчики рассматривают безопасность как второстепенную задачу. В настоящее время исследовательские учреждения «преподносят на блюдечке AGI для Коммунистической партии Китая».  «Суперинтеллект даст решающее экономическое и военное преимущество. КНР еще не вышла из игры. В гонке за созданием AGI на карту будет поставлено само выживание свободного мира. Сможем ли мы сохранить наше превосходство над авторитарными державами? И удастся ли нам избежать самоуничтожения на этом пути?», — задался вопросом бывший сотрудник OpenAI. Он считает, что лишь немногие, кто связан с разработкой ИИ-технологии, могут повлиять на будущее человечества.  Ранее миллиардер Илон Маск назвал искусственный интеллект своим главным страхом. По его мнению, нейросети могут лишить людей необходимости работать.  Напомним, в мае 2024 года миллиардер и инвестор Уоррен Баффетт сравнил угрозу дипфейков с ядерным оружием.

Прочтите Отказ от ответственности : Весь контент, представленный на нашем сайте, гиперссылки, связанные приложения, форумы, блоги, учетные записи социальных сетей и другие платформы («Сайт») предназначен только для вашей общей информации, приобретенной у сторонних источников. Мы не предоставляем никаких гарантий в отношении нашего контента, включая, но не ограничиваясь, точность и обновление. Никакая часть содержания, которое мы предоставляем, представляет собой финансовый совет, юридическую консультацию или любую другую форму совета, предназначенную для вашей конкретной опоры для любых целей. Любое использование или доверие к нашему контенту осуществляется исключительно на свой страх и риск. Вы должны провести собственное исследование, просмотреть, проанализировать и проверить наш контент, прежде чем полагаться на них. Торговля - очень рискованная деятельность, которая может привести к серьезным потерям, поэтому проконсультируйтесь с вашим финансовым консультантом, прежде чем принимать какие-либо решения. Никакое содержание на нашем Сайте не предназначено для запроса или предложения