Facebook пытается дать чатботам постоянную личность

29.01.2018 23:36 18

Facebook пытается дать чатботам постоянную личность

Пообщавшись с чат-ботами, и вы обнаружите, что они отвечают консервированными фразами и, как правило, не зная о том, что вы сказали. Facebook хочет это исправить. Ее исследовательская группа проверила новый подход, который дает ботам более последовательные личности и более естественные ответы. Facebook научила ее ИИ искать шаблоны в специальном наборе данных 164 000 слов, Persona-Chat, который включал несколько фактов о персонаже данного бота. У ИИ, пытающегося подражать реальному человеку, было бы пять биографических заявлений для работы, таких как его семья и хобби, причем каждый из них пересматривался, чтобы сказать то же самое по-другому. Обучайте существующим чат-ботам, и вы получите ИИ, который «знает», что ему нравится, но все еще поддерживает контекст беседы и говорит относительно плавно.

Конечно, акцент делается на «относительно». Примеры бесед из исследования Facebook показали, что боты были намного более последовательными и бегло, чем боты, обучаемые по фразам фильма, но они определенно не прошли бы тест Тьюринга. Тестеры добавили, что боты не были такими привлекательными, хотя это может быть связано с ограниченным числом фактов. Реальные люди часто имеют гораздо больше, чем пять вещей, чтобы сказать о себе, поэтому колоссальная беседа, возможно, закончилась намного раньше с ботами, чем с людьми.

Это исследовательский проект, поэтому неясно, будет ли уроки, извлеченные здесь, применимы к реальным чатботам или другим диалоговым системам ИИ. Однако трудно представить, что Facebook проигнорирует то, что узнала здесь. Многие помощники ИИ, будь то боты или голосовые помощники, имеют тенденцию иметь либо личность вообще, либо определенную только симпатичными фразами. Это, по крайней мере, вытолкнет их и даст им больше данных, о чем можно поговорить, чем о погоде или вашей последней покупке.