Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні

Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні

Штучний інтелект забезпечує життєво важливі рішення для деяких дуже складних проблем, але залишається загрозливою, оскільки ми розглядаємо її застосування на полі бою. Нові дослідження деталізують небезпеку, що насувається, і долі людства щодо складних виборів, з якими ми зіткнемося найближчим часом.

Нова стаття приватної розвідувальної та оборонної компанії ASRC Federal та Університету Меріленда глибоко занурюється в те, що може статися, якщо ми, як суспільство, вирішимо застосувати штучний інтелект у сучасній війні. Хоча багато аспектів цього документа зосереджуються на похмурих і тверезих сценаріях, які призводять до викорінення людства, вона завершується розумінням того, що ця технологія буде існувати і ми можемо теж, якщо ми зробимо правильний вибір. Тим не менш, дослідники торкаються двох важливих неминучостей: розвитку збройного штучного інтелекту і назріваючої «звичайної аварії» (більш відомої як аварія системи), пов'язаної з цією технологією.

Нормальні нещасні випадки, такі як аварія на острові Три-Майл-Айленд, наведена у статті, відбувається через впровадження складних технологій, які ми не можемо повністю зрозуміти - принаймні, ще не. Штучний інтелект може відповідати цьому визначенню краще, ніж все, що люди коли-небудь створювали. Хоча ми розуміємо, як працює AI, ми намагаємося пояснити, як він приходить до своїх висновків з тієї ж причини, з якою ми намагаємося зробити те ж саме з людьми. З такою великою кількістю змінних в системі для моніторингу, не кажучи вже про аналіз, дослідники викликають важливе занепокоєння щодо створення подальшої абстракції від наших інструментів війни:

Розширення підходу «людина-на-петлі» - ініційований людиною підхід «вогонь і забудьте» до бою AI. Як тільки швидкість і розмірність бойового простору зростуть поза людським розумінням, участь людини буде обмежена вибором часових і фізичних меж поведінки, бажаних в очікуваному контексті. Залежно від безпосередності або непередбачуваності загрози, залучення системи вручну на початку бойових дій може бути неможливим.

Хоча MIT заздалегідь виявив метод прогнозування деяких “помилок” AI і щойно ініціював 50-річну програму прискорення AI з ВПС США, така підготовка лише пом'якшує потенційний збиток, який ми можемо передбачити. Подібно до того, як ми не змогли витіснити психологічний вплив смартфонів - «нормальної аварії» різного сорту, ми не зможемо передбачити майбутній збиток, викликаний штучним інтелектом. Це вже відбувається.

Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні

Звичайні нещасні випадки не повинні виникати через слабкість людської етики, хоча часто важко визначити різницю. Незалежно від їхніх обставин, ці нещасні випадки трапляються як, на жаль, жорстке явище зростання. Як стверджує газета, утримання від розвитку потенційно небезпечних технологій не перешкоджатиме їх розширенню через інші уряди і приватних осіб - злісно або іншим чином. Хоча ми не можемо зупинити зростання ІІ, і ми не можемо запобігти шкоді, яку він буде робити, ми можемо слідувати пропозиції паперу і робити все можливе, щоб зменшити потенційну шкоду.

Незважаючи на те, що дослідники лише пропонують заборону та регулювання інтелектуальної власності, правова основа, що базується на етиці, може принаймні забезпечити рамки для вирішення проблем, які виникають. Ми також можемо компенсувати витрати, інвестуючи наш час і ресурси в проекти машинного навчання, які допомагають врятувати життя. Оскільки документ не розглядає інші види використання штучного інтелекту, він оцінює потенційні ризики озброєння в ізоляції. Людські недоліки, які становлять ризик, який ми маємо сьогодні, не можуть виглядати однаково завтра. З одночасним зростанням ринку AI, біо-імплантаційних технологій і генетичної модифікації, люди завтрашнього дня можуть бути краще підготовлені для боротьби з загрозами, які ми можемо собі уявити сьогодні.

Ми не можемо безпечно зробити ставку на невідомі, як позитивні, так і негативні, але ми можемо підготуватися до сценаріїв, заснованих на фактах, які ми можемо передбачити. Незважаючи на те, що це нове дослідження відображає неповну картину, вона заохочує нас використовувати інструменти, які зараз знаходяться в нашому розпорядженні, щоб пом'якшити потенційні збитки зброї. Завдяки вдумливим зусиллям і готовності спробувати, ми зберігаємо надію на вивітрювання майбутньої бурі неминучих змін.

Найпопулярніші зображення кредиту: Storyblocks

Читати далі

Verizon почала переносити свій смартфон знову
Verizon почала переносити свій смартфон знову

Verizon оголосила, що вона знову почне блокувати телефони, принаймні, поки вони не будуть активовані. Verizon каже, що це для боротьби з крадіжкою пристроїв, але, схоже, Verizon просто хоче виправдання, щоб знову заблокувати свої телефони.

SpaceX збирається вести свій 50-й Falcon 9 Launch
SpaceX збирається вести свій 50-й Falcon 9 Launch

SpaceX має ще один запуск Falcon 9, запланований на завтра, і тут є щось особливе, але це не корисне навантаження. Коли ця ракета підніметься, це стане 50-м запуском Falcon 9, оскільки SpaceX вперше відправив автомобіль у 2010 році.

Подумай, що один військовий дроун поганий? Дронівські бухти жахливо важко зупинитися
Подумай, що один військовий дроун поганий? Дронівські бухти жахливо важко зупинитися

Дрони - це не просто загроза один за одним. Найсучасніші дослідження зосереджують увагу на розміщенні великої кількості крихітних безпілотників з потенційно смертельними результатами.

Новий криміналістичний аналіз показує, що ми знайшли тіло Амелії Ерхарт під час Другої світової війни
Новий криміналістичний аналіз показує, що ми знайшли тіло Амелії Ерхарт під час Другої світової війни

Нове дослідження підтверджує ідею про те, що вона приземлилась на острів Гарднер - чи нарешті знайшли її сучасні технології, де технологія 1930-х рр. Вийшла короткою?