Нові дослідження попереджають про «нормальну аварію» від ІІ в сучасній війні
Штучний інтелект забезпечує життєво важливі рішення для деяких дуже складних проблем, але залишається загрозливою, оскільки ми розглядаємо її застосування на полі бою. Нові дослідження деталізують небезпеку, що насувається, і долі людства щодо складних виборів, з якими ми зіткнемося найближчим часом.
Нова стаття приватної розвідувальної та оборонної компанії ASRC Federal та Університету Меріленда глибоко занурюється в те, що може статися, якщо ми, як суспільство, вирішимо застосувати штучний інтелект у сучасній війні. Хоча багато аспектів цього документа зосереджуються на похмурих і тверезих сценаріях, які призводять до викорінення людства, вона завершується розумінням того, що ця технологія буде існувати і ми можемо теж, якщо ми зробимо правильний вибір. Тим не менш, дослідники торкаються двох важливих неминучостей: розвитку збройного штучного інтелекту і назріваючої «звичайної аварії» (більш відомої як аварія системи), пов'язаної з цією технологією.
Нормальні нещасні випадки, такі як аварія на острові Три-Майл-Айленд, наведена у статті, відбувається через впровадження складних технологій, які ми не можемо повністю зрозуміти - принаймні, ще не. Штучний інтелект може відповідати цьому визначенню краще, ніж все, що люди коли-небудь створювали. Хоча ми розуміємо, як працює AI, ми намагаємося пояснити, як він приходить до своїх висновків з тієї ж причини, з якою ми намагаємося зробити те ж саме з людьми. З такою великою кількістю змінних в системі для моніторингу, не кажучи вже про аналіз, дослідники викликають важливе занепокоєння щодо створення подальшої абстракції від наших інструментів війни:
Розширення підходу «людина-на-петлі» - ініційований людиною підхід «вогонь і забудьте» до бою AI. Як тільки швидкість і розмірність бойового простору зростуть поза людським розумінням, участь людини буде обмежена вибором часових і фізичних меж поведінки, бажаних в очікуваному контексті. Залежно від безпосередності або непередбачуваності загрози, залучення системи вручну на початку бойових дій може бути неможливим.
Хоча MIT заздалегідь виявив метод прогнозування деяких “помилок” AI і щойно ініціював 50-річну програму прискорення AI з ВПС США, така підготовка лише пом'якшує потенційний збиток, який ми можемо передбачити. Подібно до того, як ми не змогли витіснити психологічний вплив смартфонів - «нормальної аварії» різного сорту, ми не зможемо передбачити майбутній збиток, викликаний штучним інтелектом. Це вже відбувається.
Звичайні нещасні випадки не повинні виникати через слабкість людської етики, хоча часто важко визначити різницю. Незалежно від їхніх обставин, ці нещасні випадки трапляються як, на жаль, жорстке явище зростання. Як стверджує газета, утримання від розвитку потенційно небезпечних технологій не перешкоджатиме їх розширенню через інші уряди і приватних осіб - злісно або іншим чином. Хоча ми не можемо зупинити зростання ІІ, і ми не можемо запобігти шкоді, яку він буде робити, ми можемо слідувати пропозиції паперу і робити все можливе, щоб зменшити потенційну шкоду.
Незважаючи на те, що дослідники лише пропонують заборону та регулювання інтелектуальної власності, правова основа, що базується на етиці, може принаймні забезпечити рамки для вирішення проблем, які виникають. Ми також можемо компенсувати витрати, інвестуючи наш час і ресурси в проекти машинного навчання, які допомагають врятувати життя. Оскільки документ не розглядає інші види використання штучного інтелекту, він оцінює потенційні ризики озброєння в ізоляції. Людські недоліки, які становлять ризик, який ми маємо сьогодні, не можуть виглядати однаково завтра. З одночасним зростанням ринку AI, біо-імплантаційних технологій і генетичної модифікації, люди завтрашнього дня можуть бути краще підготовлені для боротьби з загрозами, які ми можемо собі уявити сьогодні.
Ми не можемо безпечно зробити ставку на невідомі, як позитивні, так і негативні, але ми можемо підготуватися до сценаріїв, заснованих на фактах, які ми можемо передбачити. Незважаючи на те, що це нове дослідження відображає неповну картину, вона заохочує нас використовувати інструменти, які зараз знаходяться в нашому розпорядженні, щоб пом'якшити потенційні збитки зброї. Завдяки вдумливим зусиллям і готовності спробувати, ми зберігаємо надію на вивітрювання майбутньої бурі неминучих змін.
Найпопулярніші зображення кредиту: Storyblocks
Читати далі
Майже 14 тисяч вчених попереджають проти ігнорування кліматичних змін
За даними групи 14 тисяч вчених, ігноруючи нашу поточну кліматичну кризу, може призвести до "невимовних страждань". Їх попередження приходить у формі документа, опублікованого в науковому журналі Bioscience та підписана професіоналами з усього світу.
Вчені попереджають про "дьомний льодовик", який міг би підвищити рівень моря дві ноги
Далеко, далеко від того, що, мабуть, точне місце, ви читаєте це, на узбережжі Уолгері Антарктиди, є масивний шматок льоду, відомий як дощовий льодовик. Це найширший льодовик у світі, і вчені стурбовані тим, що великий обсяг свого льоду може скоро закінчитися в океанах. Це заробив thwaites псевдонім: дьомний дохід.
Колишні працівники компанії Tesla попереджають про дефектні батареї моделі 3
Деякі колишні працівники компанії Tesla повідомляють, що багато акумуляторів типу 3 були зібрані вручну, і можуть виникнути проблеми з якістю, що робить їх більш схильними до невдач. Тесла, проте, заперечує це.
Службовці розвідки попереджають про покупку телефонів Huawei та ZTE без обґрунтування
Багато даних про національну безпеку в США видали прямого попередження, що споживачі повинні уникати пристроїв від китайських технічних гігантів Huawei та ZTE. Проте попередження не містить жодних конкретних тверджень про правопорушення.