Ненатуральный ум научился располагать к для себя людей

Ненатуральный ум (ИИ) уже умеет новости осмысленные беседы с юзерами, а именно, задавая наводящие вопросы либо давая советы. К коммуникативным способностям нейросетей сейчас добавилось и умение покорять доверие людей.

© Русская Газета

Агенты ИИ — виртуальные ассистенты на базе нейросетей — могут обучаться располагать к для себя человека методом конфигурации собственного стиля общения. К такому выводу пришли южноамериканские исследователи в области ИИ из Калифорнийского универа в Сан-Хосе, передает научный журнальчик Management Наука.

"Человек может заслужить доверие других людей, обучаясь этому методом проб и ошибок. ИИ может действовать точно так же", — растолковал Ян Ву, один из создателей исследования.

Опыт строился последующим образом: 2-ва игрока — ничего не понимающие про доверие нейросети — передавали друг дружке "некоторую сумму денег".

"Первый может передать второму некоторую сумму, и если он это делает, то сумма значительно увеличивается. Тогда взамен второй игрок может передать первому любую сумму обратно", — уточнил претендент физико-математических наук, научный работник Института искусственного ума AIRI Дмитрий Киселев.

Исходя из убеждений поведения оптимальных людей такая положение, обстановка практически невозможна — геймер навряд ли станет делиться средствами с другим, а тот в свою очередь не возвратит полученную сумму. В реальной жизни же люди, если доверяют человеку, то готовы дать часть либо даже полную сумму. Результатом опыта стало то, что нейросети через существенное кол-во партий начали верить друг дружке: делиться частью выигрыша и возвращать финансы.

"Для того, чтобы максимизировать выигрыш, игроки приходят к тому, что им выгодно делиться и доверять друг другу", — отметил специалист.

Из его слов, в дальнейшем выводы исследования можно будет применить на практике: к примеру, ИИ-агенты могут применяться для исследования общества и поведения людей, вдобавок для определенных прикладных задач, включая пророчества спроса и инфляции.

Совместно с тем существует и ряд рисков. Один из их связан с трудностями определения, точно ли ИИ-агент заслуживает доверия либо нет.

"То есть предложенные нейросетью рекомендации или факты будут выглядеть правдоподобно, но без гарантии достоверности", — произнесла подменяющий управляющего Центра практической информационной безопасности IT-компании Innostage Ксюша Рысаева.