Новые исследования предупреждают о «нормальном происшествии» от ИИ в современной войне
Искусственный интеллект обеспечивает жизненно важные решения некоторых очень сложных проблем, но остается надвигающейся угрозой, когда мы рассматриваем его применение на поле боя. Новое исследование детализирует надвигающиеся риски и связывает судьбу человечества со сложными решениями, с которыми мы столкнемся в ближайшем будущем.
Новая статья от частной разведывательно-оборонной компании ASRC Federal и Университета Мэриленда подробно описывает, что может произойти, если мы, как общество, решим использовать искусственный интеллект в современной войне. Хотя многие аспекты этой статьи сосредоточены на мрачных и отрезвляющих сценариях, которые приводят к искоренению человечества, в заключение делается вывод о том, что эта технология будет существовать, и мы тоже сможем это сделать, если сделаем правильный выбор. Тем не менее, исследователи затрагивают две важные неизбежности: развитие вооруженного искусственного интеллекта и надвигающуюся «нормальную аварию» (более известную как системная авария), связанную с этой технологией.
Обычные аварии, такие как авария на Три-Майл-Айленде, упомянутая в документе, происходят в результате внедрения сложных технологий, которые мы не можем полностью понять - по крайней мере, пока. Искусственный интеллект может соответствовать определению лучше, чем что-либо, что люди когда-либо создавали. Хотя мы понимаем, как работает ИИ, мы изо всех сил пытаемся объяснить, как он приходит к своим выводам, по той же причине, по которой мы боремся делать то же самое с людьми. С таким количеством переменных в системе, которые нужно отслеживать, не говоря уже о анализе, исследователи поднимают важный вопрос о создании дополнительной абстракции от наших инструментов войны:
Расширение подхода «человек на контуре» - это инициированный человеком подход «стреляй и забывай» к ИИ на поле боя. Как только скорость и размерность пространства сражений вырастут за пределы человеческого понимания, участие человека будет ограничено выбором временных и физических границ поведения, желаемых в ожидаемом контексте. В зависимости от непосредственности или непредсказуемости угрозы, включение системы вручную в начале военных действий может оказаться невозможным.
Хотя MIT обнаружил метод прогнозирования некоторых «ошибок» ИИ и только что начал 50-летнюю программу ускорителей ИИ с ВВС США, такая подготовка только уменьшает потенциальный ущерб, который мы можем предсказать. Точно так же, как мы не смогли предупредить психологическую потерю смартфонов - «обычную аварию» другого типа, - мы не сможем предсказать будущий ущерб, вызванный искусственным интеллектом. Это уже происходит.
Нормальные несчастные случаи не должны быть вызваны слабостью человеческой этики, хотя зачастую трудно определить разницу. Независимо от обстоятельств, эти несчастные случаи происходят, к сожалению, как резкое явление роста. Как отмечается в документе, воздержание от разработки потенциально опасных технологий не помешает их распространению через другие правительства и частных лиц - злонамеренных или иных. Хотя мы не можем остановить рост ИИ и не можем предотвратить ущерб, который он нанесет, мы можем последовать предложению газеты и сделать все возможное, чтобы уменьшить потенциальный ущерб.
В то время как исследователи предлагают только запрет и регулирование ИИ, основанная на этике правовая основа может, по крайней мере, обеспечить основу для управления проблемами по мере их возникновения. Мы также можем компенсировать затраты, инвестируя наше время и ресурсы в проекты машинного обучения, которые помогают спасать жизни. Поскольку в документе не рассматриваются другие виды использования искусственного интеллекта, в нем оцениваются потенциальные риски применения оружия в изоляции. Человеческие недостатки, которые представляют собой риск, который мы имеем сегодня, могут не выглядеть так же завтра. С одновременным ростом рынка искусственного интеллекта, технологий био-имплантации и генетической модификации люди завтрашнего дня могут быть лучше подготовлены к тому, чтобы справляться с угрозами, которые мы можем представить сегодня.
Мы не можем безопасно делать ставки на неизвестных, будь то положительные или отрицательные, но мы можем подготовиться к сценариям на основе фактических данных, которые мы можем предсказать. Хотя это новое исследование рисует неполную картину, оно побуждает нас использовать инструменты, имеющиеся в настоящее время в нашем распоряжении, для смягчения потенциального вреда искусственного интеллекта. Благодаря продуманным усилиям и готовности попробовать, мы сохраняем надежду выдержать будущий шторм неизбежных перемен.
Главный кредит изображения: Storyblocks
Читать далее
Обзор Xbox Series X: игровой компьютер для гостиной, которого я (в основном) всегда хотел
Xbox Series X выйдет через пять дней, и мы можем говорить об этом. Я никогда раньше не делал обзоров консоли, поэтому я рассмотрел это с точки зрения того, к чему я привык - компьютерных игр. Здесь Microsoft объективно есть чем гордиться.
SpaceX и НАСА отправляют на МКС 4 астронавтов в рамках первой коммерческой миссии экипажа
После многих лет разработки программа Commercial Crew Program имела успех.
Игровой ноутбук с Ryzen 7 5800H и мобильным RTX 3080 просочился
Новый вариант Acer Nitro 5 имеет процессор AMD Ryzen 7 5800H и мобильный графический процессор Nvidia GeForce RTX 3080. Однако официально ни одна из этих частей не существует. Ой.
SpaceX планирует «поймать» сверхтяжелые ракеты с помощью стартовой башни
Ноги Кому они нужны? Не новый бустер SpaceX Super Heavy, если последние твиты Илона Маска верны.