Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні

Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні

Штучний інтелект забезпечує життєво важливі рішення для деяких дуже складних проблем, але залишається загрозливою, оскільки ми розглядаємо її застосування на полі бою. Нові дослідження деталізують небезпеку, що насувається, і долі людства щодо складних виборів, з якими ми зіткнемося найближчим часом.

Нова стаття приватної розвідувальної та оборонної компанії ASRC Federal та Університету Меріленда глибоко занурюється в те, що може статися, якщо ми, як суспільство, вирішимо застосувати штучний інтелект у сучасній війні. Хоча багато аспектів цього документа зосереджуються на похмурих і тверезих сценаріях, які призводять до викорінення людства, вона завершується розумінням того, що ця технологія буде існувати і ми можемо теж, якщо ми зробимо правильний вибір. Тим не менш, дослідники торкаються двох важливих неминучостей: розвитку збройного штучного інтелекту і назріваючої «звичайної аварії» (більш відомої як аварія системи), пов'язаної з цією технологією.

Нормальні нещасні випадки, такі як аварія на острові Три-Майл-Айленд, наведена у статті, відбувається через впровадження складних технологій, які ми не можемо повністю зрозуміти - принаймні, ще не. Штучний інтелект може відповідати цьому визначенню краще, ніж все, що люди коли-небудь створювали. Хоча ми розуміємо, як працює AI, ми намагаємося пояснити, як він приходить до своїх висновків з тієї ж причини, з якою ми намагаємося зробити те ж саме з людьми. З такою великою кількістю змінних в системі для моніторингу, не кажучи вже про аналіз, дослідники викликають важливе занепокоєння щодо створення подальшої абстракції від наших інструментів війни:

Розширення підходу «людина-на-петлі» - ініційований людиною підхід «вогонь і забудьте» до бою AI. Як тільки швидкість і розмірність бойового простору зростуть поза людським розумінням, участь людини буде обмежена вибором часових і фізичних меж поведінки, бажаних в очікуваному контексті. Залежно від безпосередності або непередбачуваності загрози, залучення системи вручну на початку бойових дій може бути неможливим.

Хоча MIT заздалегідь виявив метод прогнозування деяких “помилок” AI і щойно ініціював 50-річну програму прискорення AI з ВПС США, така підготовка лише пом'якшує потенційний збиток, який ми можемо передбачити. Подібно до того, як ми не змогли витіснити психологічний вплив смартфонів - «нормальної аварії» різного сорту, ми не зможемо передбачити майбутній збиток, викликаний штучним інтелектом. Це вже відбувається.

Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні

Звичайні нещасні випадки не повинні виникати через слабкість людської етики, хоча часто важко визначити різницю. Незалежно від їхніх обставин, ці нещасні випадки трапляються як, на жаль, жорстке явище зростання. Як стверджує газета, утримання від розвитку потенційно небезпечних технологій не перешкоджатиме їх розширенню через інші уряди і приватних осіб - злісно або іншим чином. Хоча ми не можемо зупинити зростання ІІ, і ми не можемо запобігти шкоді, яку він буде робити, ми можемо слідувати пропозиції паперу і робити все можливе, щоб зменшити потенційну шкоду.

Незважаючи на те, що дослідники лише пропонують заборону та регулювання інтелектуальної власності, правова основа, що базується на етиці, може принаймні забезпечити рамки для вирішення проблем, які виникають. Ми також можемо компенсувати витрати, інвестуючи наш час і ресурси в проекти машинного навчання, які допомагають врятувати життя. Оскільки документ не розглядає інші види використання штучного інтелекту, він оцінює потенційні ризики озброєння в ізоляції. Людські недоліки, які становлять ризик, який ми маємо сьогодні, не можуть виглядати однаково завтра. З одночасним зростанням ринку AI, біо-імплантаційних технологій і генетичної модифікації, люди завтрашнього дня можуть бути краще підготовлені для боротьби з загрозами, які ми можемо собі уявити сьогодні.

Ми не можемо безпечно зробити ставку на невідомі, як позитивні, так і негативні, але ми можемо підготуватися до сценаріїв, заснованих на фактах, які ми можемо передбачити. Незважаючи на те, що це нове дослідження відображає неповну картину, вона заохочує нас використовувати інструменти, які зараз знаходяться в нашому розпорядженні, щоб пом'якшити потенційні збитки зброї. Завдяки вдумливим зусиллям і готовності спробувати, ми зберігаємо надію на вивітрювання майбутньої бурі неминучих змін.

Найпопулярніші зображення кредиту: Storyblocks

Читати далі

Лазери, що використовуються для створення негативних частинок маси

Дослідники з університету Рочестера розробили спосіб створення негативних масових частинок, використовуючи, що ще, лазери. Чи не може щось зробити лазерами?

Nvidia виходить всередину на G-Sync з новими дисплеями "BFGD" з надвисоким кінцем

Nvidia поставляє деякі з найвидатніших екранів, які можуть бути продані в 2018 році, з 4K панелями, частотою оновлення 120 Гц, дисплеями з низьким рівнем затримки, інтегрованими Nvidia Shields та підтримкою 1000 ніт яскравості в HDR. Йовза

Телефонний довідник Huawei стосовно AT & T, як повідомляється, загинув від політики

Майбутня (і непередбачена) угода з AT & T про продаж нової серії Mate 10 повинна була стати початком натиску Huawei на Північну Америку, але ця операція, як повідомляється, розвалилася на останній хвилині після того, як AT & T застудився, і деякі джерела вказують до політичної справи.

Rivet запускає спливний, Intel-based Killer Wireless-AC 1550 Chip, новий Xbox маршрутизатор

Rivet Networks запустила новий чіп Wi-Fi на базі рішення Intel, а також новий, Xbox One оптимізований маршрутизатор, дебютує цієї весни.