Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне

Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне

Искусственный интеллект обеспечивает жизненно важные решения некоторых очень сложных проблем, но остается надвигающейся угрозой, когда мы рассматриваем его применение на поле боя. Новое исследование детализирует надвигающиеся риски и связывает судьбу человечества со сложными решениями, с которыми мы столкнемся в ближайшем будущем.

Новая статья от частной разведывательно-оборонной компании ASRC Federal и Университета Мэриленда подробно описывает, что может произойти, если мы, как общество, решим использовать искусственный интеллект в современной войне. Хотя многие аспекты этой статьи сосредоточены на мрачных и отрезвляющих сценариях, которые приводят к искоренению человечества, в заключение делается вывод о том, что эта технология будет существовать, и мы тоже сможем это сделать, если сделаем правильный выбор. Тем не менее, исследователи затрагивают две важные неизбежности: развитие вооруженного искусственного интеллекта и надвигающуюся «нормальную аварию» (более известную как системная авария), связанную с этой технологией.

Обычные аварии, такие как авария на Три-Майл-Айленде, упомянутая в документе, происходят в результате внедрения сложных технологий, которые мы не можем полностью понять - по крайней мере, пока. Искусственный интеллект может соответствовать определению лучше, чем что-либо, что люди когда-либо создавали. Хотя мы понимаем, как работает ИИ, мы изо всех сил пытаемся объяснить, как он приходит к своим выводам, по той же причине, по которой мы боремся делать то же самое с людьми. С таким количеством переменных в системе, которые нужно отслеживать, не говоря уже о анализе, исследователи поднимают важный вопрос о создании дополнительной абстракции от наших инструментов войны:

Расширение подхода «человек на контуре» - это инициированный человеком подход «стреляй и забывай» к ИИ на поле боя. Как только скорость и размерность пространства сражений вырастут за пределы человеческого понимания, участие человека будет ограничено выбором временных и физических границ поведения, желаемых в ожидаемом контексте. В зависимости от непосредственности или непредсказуемости угрозы, включение системы вручную в начале военных действий может оказаться невозможным.

Хотя MIT обнаружил метод прогнозирования некоторых «ошибок» ИИ и только что начал 50-летнюю программу ускорителей ИИ с ВВС США, такая подготовка только уменьшает потенциальный ущерб, который мы можем предсказать. Точно так же, как мы не смогли предупредить психологическую потерю смартфонов - «обычную аварию» другого типа, - мы не сможем предсказать будущий ущерб, вызванный искусственным интеллектом. Это уже происходит.

Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне

Нормальные несчастные случаи не должны быть вызваны слабостью человеческой этики, хотя зачастую трудно определить разницу. Независимо от обстоятельств, эти несчастные случаи происходят, к сожалению, как резкое явление роста. Как отмечается в документе, воздержание от разработки потенциально опасных технологий не помешает их распространению через другие правительства и частных лиц - злонамеренных или иных. Хотя мы не можем остановить рост ИИ и не можем предотвратить ущерб, который он нанесет, мы можем последовать предложению газеты и сделать все возможное, чтобы уменьшить потенциальный ущерб.

В то время как исследователи предлагают только запрет и регулирование ИИ, основанная на этике правовая основа может, по крайней мере, обеспечить основу для управления проблемами по мере их возникновения. Мы также можем компенсировать затраты, инвестируя наше время и ресурсы в проекты машинного обучения, которые помогают спасать жизни. Поскольку в документе не рассматриваются другие виды использования искусственного интеллекта, в нем оцениваются потенциальные риски применения оружия в изоляции. Человеческие недостатки, которые представляют собой риск, который мы имеем сегодня, могут не выглядеть так же завтра. С одновременным ростом рынка искусственного интеллекта, технологий био-имплантации и генетической модификации люди завтрашнего дня могут быть лучше подготовлены к тому, чтобы справляться с угрозами, которые мы можем представить сегодня.

Мы не можем безопасно делать ставки на неизвестных, будь то положительные или отрицательные, но мы можем подготовиться к сценариям на основе фактических данных, которые мы можем предсказать. Хотя это новое исследование рисует неполную картину, оно побуждает нас использовать инструменты, имеющиеся в настоящее время в нашем распоряжении, для смягчения потенциального вреда искусственного интеллекта. Благодаря продуманным усилиям и готовности попробовать, мы сохраняем надежду выдержать будущий шторм неизбежных перемен.

Главный кредит изображения: Storyblocks

Читать далее

Обзор Xbox Series X: игровой компьютер для гостиной, которого я (в основном) всегда хотел
Обзор Xbox Series X: игровой компьютер для гостиной, которого я (в основном) всегда хотел

Xbox Series X выйдет через пять дней, и мы можем говорить об этом. Я никогда раньше не делал обзоров консоли, поэтому я рассмотрел это с точки зрения того, к чему я привык - компьютерных игр. Здесь Microsoft объективно есть чем гордиться.

SpaceX и НАСА отправляют на МКС 4 астронавтов в рамках первой коммерческой миссии экипажа
SpaceX и НАСА отправляют на МКС 4 астронавтов в рамках первой коммерческой миссии экипажа

После многих лет разработки программа Commercial Crew Program имела успех.

Игровой ноутбук с Ryzen 7 5800H и мобильным RTX 3080 просочился
Игровой ноутбук с Ryzen 7 5800H и мобильным RTX 3080 просочился

Новый вариант Acer Nitro 5 имеет процессор AMD Ryzen 7 5800H и мобильный графический процессор Nvidia GeForce RTX 3080. Однако официально ни одна из этих частей не существует. Ой.

SpaceX планирует «поймать» сверхтяжелые ракеты с помощью стартовой башни
SpaceX планирует «поймать» сверхтяжелые ракеты с помощью стартовой башни

Ноги Кому они нужны? Не новый бустер SpaceX Super Heavy, если последние твиты Илона Маска верны.