Человеческая сторона искусственного интеллекта

Человеческая сторона искусственного интеллекта

Использование компьютерных алгоритмов для дифференцированных шаблонов от шума в данных теперь является обычным явлением из-за достижений в исследовании искусственного интеллекта (AI), программное обеспечение с открытым исходным кодом, такими как Scikit-Suart, и большое количество талантливых данных ученых, передающих в поле. Нет сомнений в том, что компетентность в информатике, статистике и информационных технологиях может привести к успешному проекту AI с полезными результатами. Тем не менее, есть недостающая часть этого рецепта для успеха, который имеет важные последствия в некоторых доменах. Недостаточно научить людей думать как Ай. Нам нужно преподавать АИ понять ценность людей.

Рассмотрим недавнее рецензируемое рецензируемое исследование от Google и нескольких академических партнеров для прогнозирования результатов здравоохранения от электронных рекордов здравоохранения (EHR) десятков тысяч пациентов с использованием глубоких учебных нейронных сетей. Google разработал специальные структуры данных для обработки данных, имели доступ к мощным высокопроизводительным вычислениям, а развернутые современные алгоритмы Ai для прогнозирования результатов, таких как, будет ли у пациента, будет реабилизована в больницу после процедуры, такой как операция. Это был принудитель науки о данных.

Хотя результаты высшего уровня Google в этом исследовании заявили, что побивают стандартную модель логистической регрессии, появилось значимое различие, похороненное в тонкой печати. Хотя Google превосходит стандартную модель логистической регрессии на основе 28 переменных, собственный глубокий подход к обучению только завязан только более подробной модели логистической регрессии, созданной из тех же наборов данных. Глубокое обучение, другими словами, не было необходимым для улучшения производительности Google утверждали. В этом примере АИ не соответствует ожиданиям.

Хотя модели глубоких учебных моделей были лучше, чтобы некоторые стандартные клинические модели сообщали в литературе, они не выступили лучше, чем логистическая регрессия, которая является широко используемым статистическим методом. В этом примере АИ не соответствует ожиданиям.

Пределы глубокого обучения

Итак, что пропущено от изучения Google?

Чтобы ответить на этот вопрос, важно понимать домен здравоохранения и сильные стороны и ограничения данных пациента, полученные из электронных учетных записей. Подход Google заключался в том, чтобы гармонизировать все данные и кормить его в глубокий алгоритм обучения, порученным с этим ощущение. Хотя технологически продвинутый, этот подход целенаправленно проигнорировал экспертное клиническое знание, которое могло бы быть полезно для AI. Например, уровень доходов и почтовый индекс возможен вкладчик к тому, как кто-то ответит на процедуру. Однако эти факторы могут быть не полезны для клинического вмешательства, потому что они не могут быть изменены.

Моделирование знаний и семантических отношений между этими факторами может проинформировать, что архитектура нейронной сети, тем самым улучшая как производительность, так и интерпретативность полученных прогнозных моделей.

Что не хватало у исследований Google, было признание ценности людей, принесших в АИ. Модель Google будет эффективнее, если бы она воспользовалась экспертными знаниями, только клиницистами человека могут обеспечить. Но что пользуется преимуществом человеческих знаний, как в этом контексте?

Воспользоваться человеческой стороны AI

Участие человека с проектом AI начинается, когда программист или инженер формулирует вопрос, который должен учитывать. Запрашивая и ответы на вопросы по-прежнему однозначно человеческая деятельность и то, что AI не сможет учиться в ближайшее время. Это потому, что вопрос спрашивает полагается на глубину, широту и синтез знаний разных видов. Кроме того, вопрос спрашивает полагается на творческую мысль и воображение. Нужно быть в состоянии представить, чего отсутствует или что не так из того, что известно. Это очень сложно для современного AIS.

Еще одна область, где нужны люди, - это инженерия знаний. Эта деятельность была важной частью поля AI на протяжении десятилетий и ориентирована на представление о предложении правильных знаний, специфичных доменам в правильном формате AI, чтобы ему не нужно начинать с нуля при решении проблемы. Знание часто происходит из научной литературы, которая написана, оценена и опубликована людьми. Кроме того, люди имеют возможность синтезировать знания, которые далеко превышают, что может сделать любой компьютерный алгоритм.

Одним из центральных целей AI является создание модели, представляющей паттерны в данных, которые могут быть использованы для чего-то практического, как прогнозирование поведения сложной биологической или физической системы. Модели обычно оцениваются с использованием объективных вычислительных или математических критериев, таких как время выполнения, точность прогнозирования или воспроизводимость. Однако существует множество субъективных критериев, которые могут быть важны для пользователя человека AI. Например, модель, связанная с генетическим изменением риска заболеваний, может быть более полезной, если она включала в себя гены белковыми продуктами, поддаваемыми к развитию лекарств и нацеливания. Это субъективный критерий, который может представлять интерес для лица, использующего AI.

Наконец, оценка полезности, полезности или воздействия развернутой модели AI является однозначно человеческой деятельности. Модель этической и беспристрастной? Каковы социальные и социальные последствия модели? Каковы непреднамеренные последствия модели? Оценка более широкого воздействия модели на практике является однозначно человеческая деятельность с очень реальными последствиями для нашего собственного благополучия.

При интеграции людей более сознательно в приложениях AI, вероятно, улучшит шансы на успех, важно удержать, что это также может снизить вред. Это особенно верно в области здравоохранения, где жизненные и смертельные решения все чаще делаются на основе таких моделей AI, такие как те, которые разработали Google.

Например, предвзятость и справедливость моделей AI могут привести к непредвиденным последствиям для людей от обездоленных или недопредставленных фонов. Это было указано в недавнем исследовании, показывающем алгоритм, используемое для приоритеты, приоритеты пациентов по почкам-пересадкам, под названием 33% чёрных пациентов. Это может оказать огромное влияние на здоровье этих пациентов в национальном масштабе. Это исследование, а другие, как это, подняли осведомленность о алгоритмических предубеждениях.

Как AI продолжает становиться частью всего, что мы делаем, важно помнить, что мы, пользователи и потенциальные бенефициары, имеют жизненно важную роль в процессе науки о данных. Это важно для улучшения результатов реализации AI и снижения вреда. Также важно сообщать о роли людей тем, кто надеется попасть в рабочую силу АИ.

Читать далее

НАСА выбирает SpaceX Starship для человеческой лунной посадки
НАСА выбирает SpaceX Starship для человеческой лунной посадки

После рассмотрения дизайнов от Dynetics, Spacex и Blue Origin, NASA решила пойти с Spacex и звездопользом.

Человеческое тетрахромасье реально. Вот что мы знаем
Человеческое тетрахромасье реально. Вот что мы знаем

После десятилетий исчерпывающего исследования ученые определили, что человеческое тетрахромасье реальна. Это происходит в двух формах - и на самом деле может быть приобретенная черта.

Ученые закончили секвенирование человеческого генома. Опять таки.
Ученые закончили секвенирование человеческого генома. Опять таки.

Ученые объявили, что они закончили секвенирование всего человеческого генома! Опять таки! Мы определенно на 100% поняли это наверняка на этот раз. Мы думаем.

DeepMind строит ИИ, который кодирует, а также средний человеческий программист
DeepMind строит ИИ, который кодирует, а также средний человеческий программист

Очевидные усилия, чтобы избавиться от работы, исследователи DeepMind создали ИИ, который может писать код, и он удивительно хорошо работает в задачах по программированию.