Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні
Штучний інтелект забезпечує життєво важливі рішення для деяких дуже складних проблем, але залишається загрозливою, оскільки ми розглядаємо її застосування на полі бою. Нові дослідження деталізують небезпеку, що насувається, і долі людства щодо складних виборів, з якими ми зіткнемося найближчим часом.
Нова стаття приватної розвідувальної та оборонної компанії ASRC Federal та Університету Меріленда глибоко занурюється в те, що може статися, якщо ми, як суспільство, вирішимо застосувати штучний інтелект у сучасній війні. Хоча багато аспектів цього документа зосереджуються на похмурих і тверезих сценаріях, які призводять до викорінення людства, вона завершується розумінням того, що ця технологія буде існувати і ми можемо теж, якщо ми зробимо правильний вибір. Тим не менш, дослідники торкаються двох важливих неминучостей: розвитку збройного штучного інтелекту і назріваючої «звичайної аварії» (більш відомої як аварія системи), пов'язаної з цією технологією.
Нормальні нещасні випадки, такі як аварія на острові Три-Майл-Айленд, наведена у статті, відбувається через впровадження складних технологій, які ми не можемо повністю зрозуміти - принаймні, ще не. Штучний інтелект може відповідати цьому визначенню краще, ніж все, що люди коли-небудь створювали. Хоча ми розуміємо, як працює AI, ми намагаємося пояснити, як він приходить до своїх висновків з тієї ж причини, з якою ми намагаємося зробити те ж саме з людьми. З такою великою кількістю змінних в системі для моніторингу, не кажучи вже про аналіз, дослідники викликають важливе занепокоєння щодо створення подальшої абстракції від наших інструментів війни:
Розширення підходу «людина-на-петлі» - ініційований людиною підхід «вогонь і забудьте» до бою AI. Як тільки швидкість і розмірність бойового простору зростуть поза людським розумінням, участь людини буде обмежена вибором часових і фізичних меж поведінки, бажаних в очікуваному контексті. Залежно від безпосередності або непередбачуваності загрози, залучення системи вручну на початку бойових дій може бути неможливим.
Хоча MIT заздалегідь виявив метод прогнозування деяких “помилок” AI і щойно ініціював 50-річну програму прискорення AI з ВПС США, така підготовка лише пом'якшує потенційний збиток, який ми можемо передбачити. Подібно до того, як ми не змогли витіснити психологічний вплив смартфонів - «нормальної аварії» різного сорту, ми не зможемо передбачити майбутній збиток, викликаний штучним інтелектом. Це вже відбувається.
Звичайні нещасні випадки не повинні виникати через слабкість людської етики, хоча часто важко визначити різницю. Незалежно від їхніх обставин, ці нещасні випадки трапляються як, на жаль, жорстке явище зростання. Як стверджує газета, утримання від розвитку потенційно небезпечних технологій не перешкоджатиме їх розширенню через інші уряди і приватних осіб - злісно або іншим чином. Хоча ми не можемо зупинити зростання ІІ, і ми не можемо запобігти шкоді, яку він буде робити, ми можемо слідувати пропозиції паперу і робити все можливе, щоб зменшити потенційну шкоду.
Незважаючи на те, що дослідники лише пропонують заборону та регулювання інтелектуальної власності, правова основа, що базується на етиці, може принаймні забезпечити рамки для вирішення проблем, які виникають. Ми також можемо компенсувати витрати, інвестуючи наш час і ресурси в проекти машинного навчання, які допомагають врятувати життя. Оскільки документ не розглядає інші види використання штучного інтелекту, він оцінює потенційні ризики озброєння в ізоляції. Людські недоліки, які становлять ризик, який ми маємо сьогодні, не можуть виглядати однаково завтра. З одночасним зростанням ринку AI, біо-імплантаційних технологій і генетичної модифікації, люди завтрашнього дня можуть бути краще підготовлені для боротьби з загрозами, які ми можемо собі уявити сьогодні.
Ми не можемо безпечно зробити ставку на невідомі, як позитивні, так і негативні, але ми можемо підготуватися до сценаріїв, заснованих на фактах, які ми можемо передбачити. Незважаючи на те, що це нове дослідження відображає неповну картину, вона заохочує нас використовувати інструменти, які зараз знаходяться в нашому розпорядженні, щоб пом'якшити потенційні збитки зброї. Завдяки вдумливим зусиллям і готовності спробувати, ми зберігаємо надію на вивітрювання майбутньої бурі неминучих змін.
Найпопулярніші зображення кредиту: Storyblocks
Читати далі
Як працюють кеші процесорів L1 та L2 та чому вони є важливою частиною сучасних чіпів
Вам коли-небудь цікаво було, як працюють кеші L1 та L2? Ми раді, що ви запитали. Тут ми глибоко зануримось у структуру та природу одного з найважливіших обчислювальних проектів та інновацій.
Розміщення продуктів, незабаром до класичного фільму, сучасного телевізора біля вас
Нова маркетингова компанія AI-powered хоче рекламувати місця, коли раніше вважало недосяжним, щоб поставити більше продуктів перед вашими очними яблуками.
RISC проти CISC - це неправильна лінза для порівняння сучасного X86, ручного процесора
Спробуйте розслідувати відмінності між сім'ями процесорів X86 та ARM (або X86 та Apple M1), і ви побачите акроніми CISC та RISC. Це загальний спосіб рамки обговорення, але не дуже корисний. Сьогодні "RISC проти CISC" затьмарює більше, ніж це пояснює.
Інтегрована графіка ноутбука все ще є маргінальними для сучасних ігор
Ви можете потрапити 1080p ігор на деяких сучасних ноутбуках, але наскільки добре ви будете залежати від того, що ви намагаєтеся грати.