Робот-инквизитор: машины более объективно опрашивают свидетелей | Наука 21 век

Наука 21 век » Робот-инквизитор: машины более объективно опрашивают свидетелей





Робот-инквизитор: машины более объективно опрашивают свидетелей

Февраль 20th, 2013

Робот-инквизитор: машины более объективно опрашивают свидетелейПамять – странная штука: если при опросе свидетелей аварии вы вместо глаголов «ударить» или «толкнуть» используете слово «разбить», они вспомнят, что машины неслись на большей скорости и сильнее пострадали, чем это было на самом деле. Так называемый «эффект дезинформации» создает серьезныепроблемы для полицейских, пытающихся воссоздать картину преступления. Однако ученые нашли неожиданный выход: использовать роботов для опроса свидетелей, сообщает New Scientist.

Робот-инквизитор: машины более объективно опрашивают свидетелейСинди Бетел (Cindy Bethel) и ее коллеги из Университета штата Миссисипи в Старквилле показали ста «свидетелям» слайд-шоу, где мужчина, под предлогом починки стула, ворует из находящегося в комнате шкафчика деньги и калькулятор. Потом свидетелей разделили на четыре группы и опросили о том, что они видели – или человеком, или роботом Nao, управляемым на расстоянии невидимым оператором (в духе «Волшебника изумрудного города»).

Двум группам (одной «человеческой» и одной с допрашивающим роботом) были заданы одинаковые вопросы, дающие неверную информацию о преступлении (упоминались вещи, которых не было на слайдах). Когда вопросы задавали люди, точность воспоминаний свидетелей падала на 40% (по сравнению с теми, кто не был дезинформирован). Но неверные данные, полученные от робота, не давали такого эффекта.

«Мы очень удивились. Роботам вообще не удалось сбить свидетелей с толка. Сценарии допроса были абсолютно идентичны. Мы даже попросили ведущих допрос специалистов задавать вопросы в манере, максимально напоминающей роботов», - рассказывает Бетел. Результаты исследования будут представлены в следующем месяце на конференции по взаимодействию людей и роботов в Токио.

Бильге Мутлу (Bilge Mutlu), директор лаборатории по изучению взаимодействия людей и роботов в Университете штата Висконсин в Мэдисоне, предполагает, что ведущие допрос роботы не «включают» эффект дезинформации потому, что люди с ними не знакомы. Нет игнорируют намеков и сигналов в жестах и поведении, на которые мы обычно реагируем в процессе общения, которые нередко «ведут» нас к нужному для собеседника ответу. «Мы выстроили хорошие модели мыслительных процессов человека, но не робота», - говорит Мутлу.

Эффект дезинформации затрагивает не только взрослых: дети страдают от него куда больше, утверждает Дебора Икин (Deborah Eakin), психолог, участник проекта. Конечная цель Бетель – приспособить роботов к опросу детей, которые ведутся на намеки и скрытую информацию, содержащуюся в вопросах, и выдают «нужные» ответы. «Это огромная проблема», - говорит Эакин.

Офицеры полиции города Старквилль, на расстоянии десяти миль от университета, были бы рады обратиться к помощи допрашивающего робота для получения более надежной информации от свидетелей. Полицейские очень стараются избежать эффекты дезинформации, но, даже если у следователя самые лучшие намерения, в его вопросы может прокрасться предубеждение и «подсказки», утверждает Марк Баллард (Mark Ballard), полицейский из Старквилля.

В американской практике детей-свидетелей допрашивает специальный судебный детский психолог. Но такой специалист есть не в каждом районе. «Возможно, если роботов аттестуют на проведение судебной экспертизы, мы сможем применять их в такого рода допросов. Сложно спорить с тем, что робот не привносит в допрос свои воспоминания или теории», - говорит Баллард.

Артём Космарский nauka21vek.ru