Шокирующие бездны искусственного интеллекта
Искусственный интеллект относится к тем критическим технологиям, которые развиваются стремительно быстро и их применение внедряется в самых различных сферах. Хотя есть случаи, когда эти инновации явно идут не на пользу, а используются, скорее, в деструктивных целях.
Первый пример связан с подменой реальности в Венесуэле. Поскольку за подстрекательство к протестам есть реальный шанс получить тюремный срок, оппозиционные стратеги для медийного манипулирования освоили новый трюк – создали виртуальных ведущих новостей, таких как Bestie и Buddy, чтобы публиковать в социальных сетях репортажи, критикующие правительство. Этот инновационный подход с виртуальными аватарами, являющийся частью проекта "Операция Ретвит", позволяет им говорить практически все что угодно, избегая ответственности. "Операция Ретвит", в свою очередь, является частью инициатив #VenezuelaVota и #LaHoradeVenezuela.
Впервые информация об этом появилась 16 августа на телеканале CNN, который является рупором глобалистов.
Эпизоды «Операции Ретвит» транслируются на различных цифровых платформах, включая X (ранее Twitter), YouTube, TikTok, Facebook и Instagram. На этих каналах аватары искусственного интеллекта делятся информацией по актуальным темам Венесуэлы. Первый эпизод, вышедший 14 августа, был посвящен количеству задержанных после президентских выборов и тому, как политический кризис в стране влияет на экономику.
Естественно, все это показано не с позиции верховенства права и суверенитета, а с точки зрения оппозиции и интересов главных зачинщиков текущего кризиса – США.
Вероятно, что и сам метод был подсказан спонсорами из Госдепартамента США.
Стратегия в целом довольно инновационная, в том числе в вопросах ухода от ответственности. Ведь если обычного ведущего можно привлечь за высказывания, которые явно противозаконны, то как поступать в отношении виртуального аватара? Нужно искать его создателя и редакторов, что явно затрудняет следственные действия.
Похожая ситуация, но с несколько иным измерением возникла в Южной Корее. Сейчас там зафиксирован целый бум видео дипфейков эротического и порнографического содержания.
В ходе одного из недавних правонарушений несколько учеников средней школы в Пусане создали порнографические фейки учеников и учителей в своей школе и разместили их в групповом чате на KakaoTalk. Подобные случаи произошли примерно в 150 средних и старших классах школ по всей стране. Это говорит о широко распространенной проблеме подделок, совершаемых подростками, привыкшими к цифровому контенту.
Согласно расследованиям, проведенным Hankyoreh, были и преступления, связанные с подделками документов в воинских частях страны. В некоторых фальшивках с участием женщин-солдат использовались фотографии, удостоверяющие личность, и официальные документы правительства, доступ к которым можно было получить только во внутренней сети вооруженных сил. Поскольку доступ к этой внутренней сети открыт только для инсайдеров, это говорит о том, что размах таких преступлений, действительно, широк.
Но правительство мало что может сделать, в связи с чем корейская группа по защите прав женщин Womenlink заявила, что женщины остаются «жить без государства», поскольку они больше не чувствуют, что их страна обеспечит им необходимую защиту.
Однако реальность сбоит не только из-за хулиганов, как в Южной Корее, или политически мотивированных активистов, как в Венесуэле.
В августе 2024 г. высокопоставленные чиновники из Мичигана, Миннесоты, Нью-Мексико, Пенсильвании и Вашингтона направили Илону Маску письмо с жалобой на то, что чат-бот Grok, работающий на платформе искусственного интеллекта в социальной сети Х (заблокирована в РФ), предоставил ложную информацию о сроках голосования в штатах вскоре после того, как президент Джо Байден выбыл из президентской гонки 2024 года.
Госсекретари попросили, чтобы чат-бот направлял пользователей, которые задают вопросы, связанные с выборами, на информационный веб-сайт для голосования.
Илон Маск пошел на встречу чиновникам. Интересно, что в недостоверной информации о сроках голосования также упоминались Алабама, Индиана, Огайо и Техас, хотя от руководства этих Штатов писем не приходило.
Всего ложные данные транслировались в течение десяти дней. Причина, по которой подавалась такая информация, неизвестна.
Если в приведённых случаях речь идет об искажении реальности и ее подмене, то есть и противоположный подход – это тщательный и глубокий анализ данных. Теоретически он может применяться в разных сферах, однако сейчас его активно эксплуатируют американские военные и разведка.
Директор по данным и цифровым инновациям Национального агентства геопространственной разведки США Марк Манселл сообщил на днях, что их агентство приступило к обучению алгоритмов искусственного интеллекта на основе своего уникального набора визуальных и текстовых данных. За десятилетия работы американская разведка накопила огромное количество данных, многие из которых были получены с помощью спутниковых снимков из космоса. Для их обработки нужно потратить очень много времени и задействовать большое количество персонала. Но теперь эти архивы пытаются объединить с отчетами тщательно отобранных людей о том, что они видят на этих изображениях.
Существуют языковые модели, которые работают исключительно с текстом: они тренируются на тексте, принимают вводимые данные и выводят ответы в виде текста. Другие формы генеративного искусственного интеллекта могут достаточно хорошо соотносить текст и изображения, чтобы превратить письменные запросы пользователей в картинки или даже видео.
И вот теперь военные и разведсообщество США заявляют о новом подходе, который переходит на следующий уровень, – это мультимодальный искусственный интеллект. Его важнейшей возможностью является сопоставление различных типов информации об одном и том же объекте, например изображения или видео с соответствующей надписью, описывающей его словами, примерно так же, как человеческий мозг может ассоциировать идею или воспоминание с информацией, поступающей от всех органов чувств.
Руководитель программы DARPA Уильям Корви, выступая на конференции Альянса разведки и национальной безопасности США, также отметил, что мультимодальный искусственный интеллект может работать даже с органами чувств, которых нет у людей, такими как инфракрасные изображения, радио- и радарные сигналы или гидролокатор. «Представьте себе кросс-модальные системы, которые могут согласовывать визуальную и лингвистическую информацию и другие виды датчиков, которые могут быть доступны роботу, но недоступны человеку», – восхищенно говорит Корви.
Современные алгоритмы искусственного интеллекта ранее доказали способность работать с изображениями, видео и всеми видами сенсорных данных, а не только с текстом, поскольку они могут преобразовать любые из них в одни и те же математические представления.
Поэтому военные в США стараются использовать его для приведения различных данных к общему знаменателю и более чёткого целеуказания. И этот подход используется повсеместно.
ФБР также использует технологию с поддержкой искусственного интеллекта для оценки подсказок, чтобы гарантировать их точную идентификацию, приоритезацию и своевременную обработку. Подразделение ЦРУ по открытым источникам запустило внутренний инструмент искусственного интеллекта в стиле «Чат-GPT», позволяющий аналитикам иметь «лучший доступ к разведданным с открытым исходным кодом», а АНБ открыло «Центр безопасности искусственного интеллекта», ориентированный на защиту «национального искусственного интеллекта посредством сотрудничества с промышленностью, научными кругами, разведывательным сообществом и другими государственными партнёрами».
Хотя для американских силовиков новые технологии, предположительно, дадут преимущество, нужно помнить и о другой стороне медали – все эти сведения будут использоваться против потенциальных противников, к которым в Вашингтоне относят и Китай, и Россию, и ряд других стран. И с их позиции такое применение искусственного интеллекта также носит деструктивный характер.