Вы не можете автоматизировать здравоохранения с Amazon Эхо

Амазонки Алекса в ближайшее время будут подключены к Национальной службе здравоохранения в Великобритании, но искусственный интеллект еще не достаточно опытен, чтобы раздавать фактическое врачу.

You Can't Automate Health Care With an Amazon Echo

(Фото: Эндрю Мэтьюз/изображения ПА через Гетти Картинки)

Правительство Великобритании сегодня сообщило, что амазонки Alexa сейчас может дать людям медицинскую консультацию.

You Can't Automate Health Care With an Amazon Echo

Предложение достаточно простое: вы спрашиваете одно из устройств компании Amazon Эхо-вопроса (“как лечить мигрень?” или “Каковы симптомы гриппа?”) и Алекса будет иметь доступ к сайту Национальной службы здравоохранения, чтобы придумать ответ.

На поверхности, это полезно: компания Amazon, как сообщается, было продано более 100 миллионов Алекса-устройств, которые могли бы помочь слабовидящим, пожилым людям и инвалидам получить информацию о здоровье. Но это еще более серьезно, чем установка таймера или просить погода. Если Алекса поверхностей плохую информацию, и люди действуют по отношению к этим данным, никто не выигрывает.

Не Так Автоматической

Хотя понятие использования смарт-спикер для ответа на медицинские вопросы, является новым, это не первый случай, когда правительство Великобритании передали простые вопросы от медицинских специалистов для посредников (или средних машин).

До 2013 года, Национальная служба здравоохранения провел телефонный сервис под названием “Прямая линия” ГСЗ, которые использовали 3000 сотрудников, 40% из них были обученные медсестры, чтобы ответить на вопросы о большой круг вопросов—в том числе здравоохранения, которые требуют оценки и лечения.

Эта система была заменена на НГС 111, где работают обработчики звонок от частная медицинская фирма Vocare. Они не медицинские работники, но и обучаются, чтобы задать ряд клинических вопросов и оценки ответов. Тем не менее, за эти годы многие критиковали нехваткой персонала обучение. В некоторых случаях оператор не признает необходимости срочного медицинского вмешательства, приведшего к смерти.

В настоящее время Алекса-устройства не смогут обеспечить сложные ответы на медицинские запросы. Неясно, будет ли—когда столкнулись с серьезной проблемой—устройством будет еще рекомендуем Вам записаться на прием к врачу или вызвать экстренные службы. С такими ограниченными интеллектуальными возможностями, Доктора Алексы кажется лишь первым шагом на НГС, что такое “пригодный для будущего”, как государственный секретарь по вопросам здравоохранения и социальной опеки Мэтт Хэнкок говорит.

Это не невозможно представить, как это будет выглядеть. Мы видели возможности системы, как Google дуплекс, который похож на человека и может попросить пользователей уточняющие вопросы или уточнения запроса. Но даже год спустя, предприятий, взаимодействующих с дуплекс по-прежнему смущает.

В медицинской отрасли, последствия более серьезные, чем бронирование ресторан не делаемый или такси не прибывает. Выступая на Би-би-си, профессор Хелен Стокс-Лэмпард из Королевского колледжа врачей общей практики, выразил озабоченность по поводу исследований делается для того, чтобы обеспечить советы голосовых помощников является безопасным. Если нет, то может “предотвратить людей, ищущих надлежащую медицинскую помощь и создать еще большее давление” точно так же сегодня человеческая работникам приходится иметь дело с медицинскими проблемами, для которых они не обучены.

Информация Неизвестный

Используя Амазонки Алекса, или помощник Google, также представлена еще одна проблема: это может быть трудно определить источник этой информации. Когда вы просите помощника А. И. вопрос, он идет к своему привилегированному поисковик и читает ответ—представлены как факт. В отличие от просмотра веб-страниц на компьютере или телефоне, вы не увидите список ссылок или источников. Люди просто дали один ответ.

Во многих случаях ответы Сири, Алекса, Cortana и Google были неправильные. Иногда с чувством юмора, таких как Сири, уверенно заявив, что болгарский гимн Луис Фонси и “Despacito Дэдди Янки”. Другие времена, это опасно. Уолл Стрит Джорнал сообщает, как, когда спросил: “должен ли аборт быть незаконным?”, Гугл продвигал неясный ответ с сайта ссылка-приманка заявив, что “аборт-это убийство”.

В Великобритании, лондонский стартап Вавилон симптом-проверка бота, который неоднократно подвергался критике как неточные; один экс-сотрудник заявил, что компания “отдельный[с] их брендинг и маркетинг очень сильно от их хладнокровия, и они держаться подальше от проверки в клинических испытаниях…они видят, как дорого и скучно и отнимает много времени.” Вавилон опроверг подобные утверждения.

Это не означает, что внедрение новых технологий в общественных услуг, таких как NHS-это плохо. Мы видели, как виртуальная реальность используется, чтобы помочь пациентам справиться со своими фобиями или поезд хирургов, чтобы быть более точным. Что она делает, подчеркнуть, как автоматизированные системы не могут (пока) решить проблемы человека, и не должен быть перепродан. Разрыв между рекламный текст и реальность могут быть смешливой. Правительство не может перепутать одно с другим.


Понравилась статья? Поделиться с друзьями:
Гуру ПК
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: