Человеческая сторона искусственного интеллекта
Использование компьютерных алгоритмов для дифференцированных шаблонов от шума в данных теперь является обычным явлением из-за достижений в исследовании искусственного интеллекта (AI), программное обеспечение с открытым исходным кодом, такими как Scikit-Suart, и большое количество талантливых данных ученых, передающих в поле. Нет сомнений в том, что компетентность в информатике, статистике и информационных технологиях может привести к успешному проекту AI с полезными результатами. Тем не менее, есть недостающая часть этого рецепта для успеха, который имеет важные последствия в некоторых доменах. Недостаточно научить людей думать как Ай. Нам нужно преподавать АИ понять ценность людей.
Рассмотрим недавнее рецензируемое рецензируемое исследование от Google и нескольких академических партнеров для прогнозирования результатов здравоохранения от электронных рекордов здравоохранения (EHR) десятков тысяч пациентов с использованием глубоких учебных нейронных сетей. Google разработал специальные структуры данных для обработки данных, имели доступ к мощным высокопроизводительным вычислениям, а развернутые современные алгоритмы Ai для прогнозирования результатов, таких как, будет ли у пациента, будет реабилизована в больницу после процедуры, такой как операция. Это был принудитель науки о данных.
Хотя результаты высшего уровня Google в этом исследовании заявили, что побивают стандартную модель логистической регрессии, появилось значимое различие, похороненное в тонкой печати. Хотя Google превосходит стандартную модель логистической регрессии на основе 28 переменных, собственный глубокий подход к обучению только завязан только более подробной модели логистической регрессии, созданной из тех же наборов данных. Глубокое обучение, другими словами, не было необходимым для улучшения производительности Google утверждали. В этом примере АИ не соответствует ожиданиям.
Хотя модели глубоких учебных моделей были лучше, чтобы некоторые стандартные клинические модели сообщали в литературе, они не выступили лучше, чем логистическая регрессия, которая является широко используемым статистическим методом. В этом примере АИ не соответствует ожиданиям.
Пределы глубокого обучения
Итак, что пропущено от изучения Google?
Чтобы ответить на этот вопрос, важно понимать домен здравоохранения и сильные стороны и ограничения данных пациента, полученные из электронных учетных записей. Подход Google заключался в том, чтобы гармонизировать все данные и кормить его в глубокий алгоритм обучения, порученным с этим ощущение. Хотя технологически продвинутый, этот подход целенаправленно проигнорировал экспертное клиническое знание, которое могло бы быть полезно для AI. Например, уровень доходов и почтовый индекс возможен вкладчик к тому, как кто-то ответит на процедуру. Однако эти факторы могут быть не полезны для клинического вмешательства, потому что они не могут быть изменены.
Моделирование знаний и семантических отношений между этими факторами может проинформировать, что архитектура нейронной сети, тем самым улучшая как производительность, так и интерпретативность полученных прогнозных моделей.
Что не хватало у исследований Google, было признание ценности людей, принесших в АИ. Модель Google будет эффективнее, если бы она воспользовалась экспертными знаниями, только клиницистами человека могут обеспечить. Но что пользуется преимуществом человеческих знаний, как в этом контексте?
Воспользоваться человеческой стороны AI
Участие человека с проектом AI начинается, когда программист или инженер формулирует вопрос, который должен учитывать. Запрашивая и ответы на вопросы по-прежнему однозначно человеческая деятельность и то, что AI не сможет учиться в ближайшее время. Это потому, что вопрос спрашивает полагается на глубину, широту и синтез знаний разных видов. Кроме того, вопрос спрашивает полагается на творческую мысль и воображение. Нужно быть в состоянии представить, чего отсутствует или что не так из того, что известно. Это очень сложно для современного AIS.
Еще одна область, где нужны люди, - это инженерия знаний. Эта деятельность была важной частью поля AI на протяжении десятилетий и ориентирована на представление о предложении правильных знаний, специфичных доменам в правильном формате AI, чтобы ему не нужно начинать с нуля при решении проблемы. Знание часто происходит из научной литературы, которая написана, оценена и опубликована людьми. Кроме того, люди имеют возможность синтезировать знания, которые далеко превышают, что может сделать любой компьютерный алгоритм.
Одним из центральных целей AI является создание модели, представляющей паттерны в данных, которые могут быть использованы для чего-то практического, как прогнозирование поведения сложной биологической или физической системы. Модели обычно оцениваются с использованием объективных вычислительных или математических критериев, таких как время выполнения, точность прогнозирования или воспроизводимость. Однако существует множество субъективных критериев, которые могут быть важны для пользователя человека AI. Например, модель, связанная с генетическим изменением риска заболеваний, может быть более полезной, если она включала в себя гены белковыми продуктами, поддаваемыми к развитию лекарств и нацеливания. Это субъективный критерий, который может представлять интерес для лица, использующего AI.
Наконец, оценка полезности, полезности или воздействия развернутой модели AI является однозначно человеческой деятельности. Модель этической и беспристрастной? Каковы социальные и социальные последствия модели? Каковы непреднамеренные последствия модели? Оценка более широкого воздействия модели на практике является однозначно человеческая деятельность с очень реальными последствиями для нашего собственного благополучия.
При интеграции людей более сознательно в приложениях AI, вероятно, улучшит шансы на успех, важно удержать, что это также может снизить вред. Это особенно верно в области здравоохранения, где жизненные и смертельные решения все чаще делаются на основе таких моделей AI, такие как те, которые разработали Google.
Например, предвзятость и справедливость моделей AI могут привести к непредвиденным последствиям для людей от обездоленных или недопредставленных фонов. Это было указано в недавнем исследовании, показывающем алгоритм, используемое для приоритеты, приоритеты пациентов по почкам-пересадкам, под названием 33% чёрных пациентов. Это может оказать огромное влияние на здоровье этих пациентов в национальном масштабе. Это исследование, а другие, как это, подняли осведомленность о алгоритмических предубеждениях.
Как AI продолжает становиться частью всего, что мы делаем, важно помнить, что мы, пользователи и потенциальные бенефициары, имеют жизненно важную роль в процессе науки о данных. Это важно для улучшения результатов реализации AI и снижения вреда. Также важно сообщать о роли людей тем, кто надеется попасть в рабочую силу АИ.
Читать далее
Сторонние ремонтные мастерские могут быть заблокированы для обслуживания камеры iPhone 12
Согласно недавнему отчету iFixit, неприязнь Apple к праву на ремонт достигла новых высот с iPhone 12 и iPhone 12 Pro.
Sony продает Cyberpunk 2077 и предлагает возмещение; CDPR ввел в заблуждение инвесторов в октябре
Sony объявила, что уберет Cyberpunk 2077 из PlayStation Store и вернет деньги всем, кто этого захочет. Между тем события прошлой недели доказали, что CD Projekt Red ввела инвесторов в заблуждение относительно состояния игры, когда объявила о последней трехнедельной отсрочке в октябре 2020 года.
Соотношения сторон экрана ПК, отличные от 16: 9, становятся все более популярными
Те из вас, кто устал страдать под тиранией коротких, несовершенных дисплеев формата 16: 9, радуйтесь! Ну, пока не радуйтесь. Но не стесняйтесь чувствовать себя немного более оптимистично, чем в прошлые годы.
Google обещает не заменять сторонние трекеры чем-то похуже
В прошлом году Google объявил о прекращении использования сторонних файлов cookie для отслеживания в Chrome. Однако это далеко не единственный способ отслеживать людей в сети. Теперь Google подтверждает, что не будет инвестировать ни в одну из этих альтернатив для отслеживания отдельных людей.