Ученые разработали модель для оценки уровня доверия между роботами и людьми

Исследователи из Мичиганского университета разработали двунаправленную модель для прогнозирования доверия между людьми и роботам в ситуациях, предполагающих их сотрудничество. Об этом пишет Tech Xplore.

По словам участника проекта Герберта Азеведо-Са, в совместной работе доверие должно быть взаимным. Основываясь на этом принципе, исследователи хотели создать роботов, способных взаимодействовать и укреплять доверие к людям или другим агентам, подобно паре коллег.

«Было проведено множество исследований, направленных на понимание того, почему люди должны или не должны доверять роботам. Однако мы знаем гораздо меньше о том, почему роботы должны или не должны доверять людям», — сказал Азеведо-Са.

В рамках проекта ученые попытались воспроизвести процесс, посредством которого люди узнают, какие задачи можно или нельзя доверить вычислительным алгоритмам. Модель дает общее представление о возможностях агента, включающее информацию о его способностях, целостности и других факторах. Затем оно сравнивается с требованиями задачи, предназначенной для робота.

Если оказывается, что агент более чем способен выполнить данную работу, модель считает его заслуживающим доверия. С другой стороны, если задача является сложной — доверие к алгоритму снижается.

Ученые разработали модель для оценки уровня доверия между роботами и людьми cryptowiki.ruСхематическое изображения работы модели двунаправленного доверия между парами «человек-робот» и «робот-робот». Данные: исследование.

В отличие от других способов предсказания доверия к агентам, представленный метод применим как к людям, так и к роботам. Во время тестирования модели исследователи также выяснили, что ее прогнозы гораздо надежнее существующих подходов.

«Предыдущие методы пытались предсказать передачу доверия, оценивая сходство задач на основе их словесного описания. Они представляли собой большой шаг вперед для моделей доверия, но у них были некоторые проблемы. Например, задачи «поднять карандаш» и «поднять кита» имеют очень похожие описания, но на самом деле они очень разные», — сказали исследователи.

Они добавили, что их модель может избежать этой ошибки, различая объекты, которые робот должен подбирать.

Ученые надеются, что в будущем двунаправленная модель пригодится для улучшения взаимодействия человека и робота в различных условиях. Например, она может помочь более эффективно распределять задачи между командами, состоящими из людей и роботов-агентов.

Напомним, в мае 2021 года исследователи выяснили, что пациенты не доверяют ИИ-врачам, которые знают их имена.

В апреле ученые из университета Джорджии выяснили, что люди склонны довериться в решении сложной задачи алгоритму, чем другому человеку или самому себе.

Источник: forklog.com

Оцените автора
( Пока оценок нет )
КриптоВики
Добавить комментарий