Crypto Currency Tracker logo Crypto Currency Tracker logo
Forklog 2024-04-24 11:46:14

Ведущие ИИ-компании обязались проверять датасеты на наличие материалов CSAM

Техгиганты вроде Google, Meta, OpenAI, Microsoft и Amazon согласились принять меры по предотвращению использования материалов о сексуальном насилии над детьми (CSAM) в обучающих наборах данных для искусственного интеллекта. Компании подписали новый набор принципов, призванных ограничить распространение подобного контента. Они пообещали: гарантировать, что обучающие наборы данных не содержат CSAM; избегать датасеты с высоким риском включения вредных материалов; удалять изображения CSAM или ссылки на них из источников данных. Компании также обязались проводить «стресс-тестирование» моделей ИИ. Это позволит убедиться, что они не генерируют изображения CSAM. Выпускать новые модели разработчики смогут лишь в том случае, если они прошли оценку на предмет детской безопасности.  В число подписавших соглашение входят также Anthropic, Civitai, Metaphysic, Mistral AI и Stability AI. ИИ усугубил проблему распространения CSAM Генеративный ИИ способствовал росту обеспокоенности по поводу дипфейков, в том числе распространению в сети поддельных фотографий CSAM. В декабре 2023 года исследователи Стэнфорда опубликовали доклад, в котором обнаружили, что популярный набор данных для обучения ИИ содержит ссылки на подобные изображения.  Они также выяснили, что телефонная линия Национального центра помощи пропавшим и эксплуатируемым детям (NCMEC) оказалась перегруженной изображениями CSAM, созданными искусственным интеллектом.  Некоммерческая организация Thorn утверждает, что ИИ-изображения помешают усилиям по выявлению жертв. Также это может создать дополнительный спрос на материалы CSAM, способствовать виктимизации детей, а также облегчить поиск информации о том, как делиться проблемными материалами. Помимо принятия новых обязательств, Google также пообещала увеличить рекламные гранты для NCMEC. Вице-президентка компании по решениям в области доверия и безопасности Сьюзан Джаспер отметила, что поддержка этих инициатив повышает осведомленность общественности и дает людям инструменты для выявления и сообщения о злоупотреблениях. Напомним, в октябре 2023 года британские эксперты сообщили о быстром распространении материалов CSAM, созданных с помощью искусственного интеллекта.  https://forklog.com/exclusive/ai/temnaya-era-ii-pochemu-etika-iskusstvennogo-intellekta-vazhna

Lesen Sie den Haftungsausschluss : Alle hierin bereitgestellten Inhalte unserer Website, Hyperlinks, zugehörige Anwendungen, Foren, Blogs, Social-Media-Konten und andere Plattformen („Website“) dienen ausschließlich Ihrer allgemeinen Information und werden aus Quellen Dritter bezogen. Wir geben keinerlei Garantien in Bezug auf unseren Inhalt, einschließlich, aber nicht beschränkt auf Genauigkeit und Aktualität. Kein Teil der Inhalte, die wir zur Verfügung stellen, stellt Finanzberatung, Rechtsberatung oder eine andere Form der Beratung dar, die für Ihr spezifisches Vertrauen zu irgendeinem Zweck bestimmt ist. Die Verwendung oder das Vertrauen in unsere Inhalte erfolgt ausschließlich auf eigenes Risiko und Ermessen. Sie sollten Ihre eigenen Untersuchungen durchführen, unsere Inhalte prüfen, analysieren und überprüfen, bevor Sie sich darauf verlassen. Der Handel ist eine sehr riskante Aktivität, die zu erheblichen Verlusten führen kann. Konsultieren Sie daher Ihren Finanzberater, bevor Sie eine Entscheidung treffen. Kein Inhalt unserer Website ist als Aufforderung oder Angebot zu verstehen