Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне
Искусственный интеллект обеспечивает жизненно важные решения некоторых очень сложных проблем, но остается надвигающейся угрозой, когда мы рассматриваем его применение на поле боя. Новое исследование детализирует надвигающиеся риски и связывает судьбу человечества со сложными решениями, с которыми мы столкнемся в ближайшем будущем.
Новая статья от частной разведывательно-оборонной компании ASRC Federal и Университета Мэриленда подробно описывает, что может произойти, если мы, как общество, решим использовать искусственный интеллект в современной войне. Хотя многие аспекты этой статьи сосредоточены на мрачных и отрезвляющих сценариях, которые приводят к искоренению человечества, в заключение делается вывод о том, что эта технология будет существовать, и мы тоже сможем это сделать, если сделаем правильный выбор. Тем не менее, исследователи затрагивают две важные неизбежности: развитие вооруженного искусственного интеллекта и надвигающуюся «нормальную аварию» (более известную как системная авария), связанную с этой технологией.
Обычные аварии, такие как авария на Три-Майл-Айленде, упомянутая в документе, происходят в результате внедрения сложных технологий, которые мы не можем полностью понять - по крайней мере, пока. Искусственный интеллект может соответствовать определению лучше, чем что-либо, что люди когда-либо создавали. Хотя мы понимаем, как работает ИИ, мы изо всех сил пытаемся объяснить, как он приходит к своим выводам, по той же причине, по которой мы боремся делать то же самое с людьми. С таким количеством переменных в системе, которые нужно отслеживать, не говоря уже о анализе, исследователи поднимают важный вопрос о создании дополнительной абстракции от наших инструментов войны:
Расширение подхода «человек на контуре» - это инициированный человеком подход «стреляй и забывай» к ИИ на поле боя. Как только скорость и размерность пространства сражений вырастут за пределы человеческого понимания, участие человека будет ограничено выбором временных и физических границ поведения, желаемых в ожидаемом контексте. В зависимости от непосредственности или непредсказуемости угрозы, включение системы вручную в начале военных действий может оказаться невозможным.
Хотя MIT обнаружил метод прогнозирования некоторых «ошибок» ИИ и только что начал 50-летнюю программу ускорителей ИИ с ВВС США, такая подготовка только уменьшает потенциальный ущерб, который мы можем предсказать. Точно так же, как мы не смогли предупредить психологическую потерю смартфонов - «обычную аварию» другого типа, - мы не сможем предсказать будущий ущерб, вызванный искусственным интеллектом. Это уже происходит.
Нормальные несчастные случаи не должны быть вызваны слабостью человеческой этики, хотя зачастую трудно определить разницу. Независимо от обстоятельств, эти несчастные случаи происходят, к сожалению, как резкое явление роста. Как отмечается в документе, воздержание от разработки потенциально опасных технологий не помешает их распространению через другие правительства и частных лиц - злонамеренных или иных. Хотя мы не можем остановить рост ИИ и не можем предотвратить ущерб, который он нанесет, мы можем последовать предложению газеты и сделать все возможное, чтобы уменьшить потенциальный ущерб.
В то время как исследователи предлагают только запрет и регулирование ИИ, основанная на этике правовая основа может, по крайней мере, обеспечить основу для управления проблемами по мере их возникновения. Мы также можем компенсировать затраты, инвестируя наше время и ресурсы в проекты машинного обучения, которые помогают спасать жизни. Поскольку в документе не рассматриваются другие виды использования искусственного интеллекта, в нем оцениваются потенциальные риски применения оружия в изоляции. Человеческие недостатки, которые представляют собой риск, который мы имеем сегодня, могут не выглядеть так же завтра. С одновременным ростом рынка искусственного интеллекта, технологий био-имплантации и генетической модификации люди завтрашнего дня могут быть лучше подготовлены к тому, чтобы справляться с угрозами, которые мы можем представить сегодня.
Мы не можем безопасно делать ставки на неизвестных, будь то положительные или отрицательные, но мы можем подготовиться к сценариям на основе фактических данных, которые мы можем предсказать. Хотя это новое исследование рисует неполную картину, оно побуждает нас использовать инструменты, имеющиеся в настоящее время в нашем распоряжении, для смягчения потенциального вреда искусственного интеллекта. Благодаря продуманным усилиям и готовности попробовать, мы сохраняем надежду выдержать будущий шторм неизбежных перемен.
Главный кредит изображения: Storyblocks