Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне

Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне

Искусственный интеллект обеспечивает жизненно важные решения некоторых очень сложных проблем, но остается надвигающейся угрозой, когда мы рассматриваем его применение на поле боя. Новое исследование детализирует надвигающиеся риски и связывает судьбу человечества со сложными решениями, с которыми мы столкнемся в ближайшем будущем.

Новая статья от частной разведывательно-оборонной компании ASRC Federal и Университета Мэриленда подробно описывает, что может произойти, если мы, как общество, решим использовать искусственный интеллект в современной войне. Хотя многие аспекты этой статьи сосредоточены на мрачных и отрезвляющих сценариях, которые приводят к искоренению человечества, в заключение делается вывод о том, что эта технология будет существовать, и мы тоже сможем это сделать, если сделаем правильный выбор. Тем не менее, исследователи затрагивают две важные неизбежности: развитие вооруженного искусственного интеллекта и надвигающуюся «нормальную аварию» (более известную как системная авария), связанную с этой технологией.

Обычные аварии, такие как авария на Три-Майл-Айленде, упомянутая в документе, происходят в результате внедрения сложных технологий, которые мы не можем полностью понять - по крайней мере, пока. Искусственный интеллект может соответствовать определению лучше, чем что-либо, что люди когда-либо создавали. Хотя мы понимаем, как работает ИИ, мы изо всех сил пытаемся объяснить, как он приходит к своим выводам, по той же причине, по которой мы боремся делать то же самое с людьми. С таким количеством переменных в системе, которые нужно отслеживать, не говоря уже о анализе, исследователи поднимают важный вопрос о создании дополнительной абстракции от наших инструментов войны:

Расширение подхода «человек на контуре» - это инициированный человеком подход «стреляй и забывай» к ИИ на поле боя. Как только скорость и размерность пространства сражений вырастут за пределы человеческого понимания, участие человека будет ограничено выбором временных и физических границ поведения, желаемых в ожидаемом контексте. В зависимости от непосредственности или непредсказуемости угрозы, включение системы вручную в начале военных действий может оказаться невозможным.

Хотя MIT обнаружил метод прогнозирования некоторых «ошибок» ИИ и только что начал 50-летнюю программу ускорителей ИИ с ВВС США, такая подготовка только уменьшает потенциальный ущерб, который мы можем предсказать. Точно так же, как мы не смогли предупредить психологическую потерю смартфонов - «обычную аварию» другого типа, - мы не сможем предсказать будущий ущерб, вызванный искусственным интеллектом. Это уже происходит.

Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне

Нормальные несчастные случаи не должны быть вызваны слабостью человеческой этики, хотя зачастую трудно определить разницу. Независимо от обстоятельств, эти несчастные случаи происходят, к сожалению, как резкое явление роста. Как отмечается в документе, воздержание от разработки потенциально опасных технологий не помешает их распространению через другие правительства и частных лиц - злонамеренных или иных. Хотя мы не можем остановить рост ИИ и не можем предотвратить ущерб, который он нанесет, мы можем последовать предложению газеты и сделать все возможное, чтобы уменьшить потенциальный ущерб.

В то время как исследователи предлагают только запрет и регулирование ИИ, основанная на этике правовая основа может, по крайней мере, обеспечить основу для управления проблемами по мере их возникновения. Мы также можем компенсировать затраты, инвестируя наше время и ресурсы в проекты машинного обучения, которые помогают спасать жизни. Поскольку в документе не рассматриваются другие виды использования искусственного интеллекта, в нем оцениваются потенциальные риски применения оружия в изоляции. Человеческие недостатки, которые представляют собой риск, который мы имеем сегодня, могут не выглядеть так же завтра. С одновременным ростом рынка искусственного интеллекта, технологий био-имплантации и генетической модификации люди завтрашнего дня могут быть лучше подготовлены к тому, чтобы справляться с угрозами, которые мы можем представить сегодня.

Мы не можем безопасно делать ставки на неизвестных, будь то положительные или отрицательные, но мы можем подготовиться к сценариям на основе фактических данных, которые мы можем предсказать. Хотя это новое исследование рисует неполную картину, оно побуждает нас использовать инструменты, имеющиеся в настоящее время в нашем распоряжении, для смягчения потенциального вреда искусственного интеллекта. Благодаря продуманным усилиям и готовности попробовать, мы сохраняем надежду выдержать будущий шторм неизбежных перемен.

Главный кредит изображения: Storyblocks

Читать далее

Бывшие сотрудники Tesla предупреждают неисправную модель 3 батареи

Некоторые бывшие сотрудники Tesla сообщают, что многие батареи модели 3 были собраны вручную, и могут быть проблемы с качеством, которые делают их более склонными к сбою. Тем не менее Тесла отрицает это.

Официальные представители разведки предупреждают о покупке телефонов Huawei и ZTE без обоснования

Множество показателей национальной безопасности в США выпустили прямое предупреждение о том, что потребители должны избегать устройств от китайских высокотехнологичных гигантов Huawei и ZTE. Однако в предупреждении отсутствуют какие-либо конкретные требования о нарушении.

FTC предупреждает об обязательствах компаний «Пустота, если удалены», наклейки являются явно незаконными

FTC направил письма нескольким компаниям, сообщив им, что наклейки с гарантийными обязательствами «недействительны, если сняты» являются незаконными и не допускаются в соответствии с федеральным законом.

Apple предупреждает пользователей MacOS о переходе от 32-разрядных приложений

Apple предупреждает пользователей о том, что 32-разрядные приложения теперь не оптимизированы. Является ли 64-битный переход неизбежным?