Людська сторона штучного інтелекту

Людська сторона штучного інтелекту

Використання комп'ютерних алгоритмів диференційованих візерунків від шуму в даних зараз є звичайним явищем, завдяки дослідженню штучного інтелекту (AI), програмного забезпечення з відкритим кодом, таким як Scikit-Learn, та велика кількість талановитих даних, які транслюються в поле. Немає сумнівів у тому, що компетентність в галузі інформатики, статистики та інформаційних технологій може призвести до успішного проекту AI з корисними результатами. Однак існує відсутній шматок цього рецепту для успіху, який має важливі наслідки в деяких доменах. Не вистачає, щоб навчити людей мислити, як А.І. Нам потрібно навчити АІ, щоб зрозуміти цінність людей.

Розглянемо нещодавню навчально-переглянуте дослідження від Google та декілька навчальних партнерів для прогнозування результатів здоров'я від електронних медичних записів (EHR) десятків тисяч пацієнтів з використанням глибоких навчальних мереж. Google розробила спеціальні структури даних для обробки даних, мала доступ до потужних високопродуктивних обчислень, а також розгорнуті алгоритми сучасного АІ для прогнозування результатів, таких як пацієнт, який буде скасований до лікарні, після цієї процедури, як операція. Це була наукова екскурсія.

Незважаючи на те, що результати верхнього рівня Google у цьому дослідженні стверджував, щоб побити стандартну модель логістичної регресії, з'явилася значна відмінність, похована в прекрасному друку. Хоча Google бив стандартну модель логістичної регресії на основі 28 змінних, власний глибокий навчальний підхід лише прив'язав більш детальну модель логістичної регресії, побудованої з тих самих даних, що встановлюється. Глибоке навчання, іншими словами, не було необхідним для покращення продуктивності Google заявити. У цьому прикладі AI не відповідає очікуванням.

Незважаючи на те, що моделі глибоких навчальних закладів було краще, що деякі стандартні клінічні моделі повідомили в літературі, вони не працювали краще, ніж логістична регресія, яка є широко використовуваним статистичним методом. У цьому прикладі AI не відповідає очікуванням.

Межі глибокого навчання

Отже, що було відсутнє з дослідження Google?

Щоб відповісти на це питання, важливо зрозуміти домен охорони здоров'я та сильні та обмеження даних пацієнтів, отриманих від електронних медичних записів. Підхід Google повинен був гармонізувати всі дані та подати його до алгоритму глибокого навчання, завдавши до розуміння цього. Хоча технологічно розвинений цей підхід цілеспрямовано проігнорував експертні клінічні знання, які могли б бути корисними для AI. Наприклад, рівень доходу та поштовий індекс можливі вкладники, як хтось відповість на процедуру. Однак ці фактори можуть не бути корисними для клінічного втручання, оскільки вони не можуть бути змінені.

Моделювання знань та семантичних зв'язків між цими факторами могли поінформувати архітектуру нейронної мережі, що підвищує як продуктивність, так і тлумачення отриманих прогнозних моделей.

Те, що було відсутнє в дослідженні Google, було визнання цінностей людей, які приносять до АІ. Модель Google зробила б більш ефективно, якщо вона скористалася перевагами експертних знань, лише людські клініцисти могли забезпечити. Але що використовує людські знання, як у цьому контексті?

Скористаючись людською стороною АІ

Людське залучення до проекту AI починається, коли програміст або інженер формулює питання, що AI має вирішити. Запитання та відповіді на запитання залишається унікально людською діяльністю, і той, який АІ не зможе освоїти в будь-який час. Це пояснюється тим, що питання запитує покладається на глибину, широту та синтезу знань різних видів. Далі, питання запиту покладається на творчу думку та уяву. Необхідно уявити, що не вистачає або те, що не так. Це дуже важко для сучасного AIS.

Інша область, де потрібні люди, - це інженерія знань. Ця діяльність була важливою частиною поля AI протягом десятиліть та зосереджена на подання правильного доменних знань у правильному форматі до AI, щоб не треба починати з нуля при вирішенні проблеми. Знання часто виходить з наукової літератури, яка написана, оцінена та опублікована людьми. Крім того, люди мають здатність синтезувати знання, що набагато перевищує те, що може зробити будь-який комп'ютерний алгоритм.

Одним з центральних цілей АІ є створення моделі, що представляють, у даних, які можуть бути використані для чогось практичного, як прогнозування поведінки складної біологічної або фізичної системи. Моделі, як правило, оцінюються за допомогою об'єктивних обчислювальних або математичних критеріїв, таких як час виконання, точність прогнозування, або відтворюваність. Однак існує безліч суб'єктивних критеріїв, які можуть бути важливими для людського користувача AI. Наприклад, модель, що стосується генетичної різниці до ризику хвороби, може бути більш корисним, якщо вона включала гени з продуктами білків, які підлягають розробці та націленню. Це суб'єктивний критерій, який може бути цікавим лише для людини, що використовує AI.

Нарешті, оцінка корисності, корисності або впливу моделі розгорнутої АІ є унікальною людською діяльністю. Чи є модель етичної та неупередженої? Які соціальні та суспільні наслідки моделі? Які непередбачені наслідки моделі? Оцінка більшого впливу моделі на практиці є унікальною людською діяльністю з дуже реальними наслідками для власного благополуччя.

Під час інтеграції людей більш свідомо в додатках АІ, ймовірно, покращує шанси на успіх, важливо пам'ятати, що це також може зменшити шкоду. Це особливо вірно в галузі охорони здоров'я, де рішень щодо життя та смерті все частіше складаються на основі моделей AI, таких як ті, що розробили Google.

Наприклад, упередження та справедливість моделей AI можуть призвести до непередбачених наслідків для людей з неблагополучних або недостатньо представлених фонів. Це було зазначено в недавньому дослідженні, що показує алгоритм, який використовується для визначення пріоритетів пацієнтів для трансплантатів нирок під назвою 33% чорних пацієнтів. Це може мати величезний вплив на здоров'я тих пацієнтів у національному масштабі. Це дослідження, а інші, як це, підняли усвідомлення алгоритмічних упереджень.

Як АІ продовжує стати частиною усього, що ми робимо, важливо пам'ятати, що ми, користувачі та потенційні бенефіціарі, мають життєву роль у процесі наукового процесу. Це важливо для покращення результатів реалізації АІ та зменшення шкоди. Важливо також повідомити роль людей до тих, хто сподівається потрапити до робочої сили AI.

Читати далі

Нові відомості про Intel Rocket Lake: Сумісність із зворотною стороною, Xe Graphics, Cypress Cove
Нові відомості про Intel Rocket Lake: Сумісність із зворотною стороною, Xe Graphics, Cypress Cove

Intel опублікувала трохи більше інформації про Rocket Lake та його 10-нм процесор, який було перенесено назад на 14 нм.

Сторонні ремонтні магазини можуть бути заблоковані для обслуговування камери iPhone 12
Сторонні ремонтні магазини можуть бути заблоковані для обслуговування камери iPhone 12

Згідно з нещодавнім звітом iFixit, ворожість Apple до права ремонту досягла нових вершин з iPhone 12 та iPhone 12 Pro.

Купівля Nvidia ARM розслідується сторожовим органом Великобританії
Купівля Nvidia ARM розслідується сторожовим органом Великобританії

Угода ARM - Nvidia ретельно вивчається британськими регуляторами, які хочуть переконатись, що угода не порушить основну бізнес-модель, яка зробила ARM світовою силою, з якою слід рахуватися.

Google обіцяє не замінювати сторонні трекери чимось гіршим
Google обіцяє не замінювати сторонні трекери чимось гіршим

Торік Google оголосив, що відмовиться від сторонніх файлів cookie для відстеження в Chrome. Однак це навряд чи єдиний спосіб відстежувати людей в Інтернеті. Тепер Google підтверджує, що не буде інвестувати в жодну з цих альтернатив для відстеження окремих людей.