Исследователи Facebook создали робота, который может вести переговоры и при этом врать собеседнику. Ложь искусственный интеллект будет говорить ради получения большей выгоды, передает Techtoday.
Чат-боты в интернет-сервисах уже привычное явление: они принимают заказы на товары, проводят платежи и выполняют другие поручения. Но хотя все эти программы являются "умными", мыслят они достаточно линейно. Бот от Facebook, говорят разработчики, умеет стратегически "мыслить", продумывать план беседы и вести переговоры. Причем научился он всему этому самостоятельно.
Заставить компьютер общаться с людьми так, чтобы его было почти невозможно отличить от человека, чрезвычайно сложно. Разработчикам приходится загружать в программу огромные массивы данных. Но после этого бот часто ограничивается записанными в него данными и не умеет импровизировать.
Исследователям из подразделения FAIR (сектор Facebook по работе над искусственным интеллектом), чтобы научить бота вести переговоры, сначала провели работу с обычными людьми. Специалисты попросили добровольцев оценить обычные бытовые предметы (книги, мячи, шапки и т.д.) по степени ценности. А после заставили справедливо поделить вещи между собой. После чего ценности и алгоритм беседы специалисты записали на электронный носитель и перенесли в программу бота.
Далее для того, чтобы создать иллюзию человеческого общения, исследователи научили робота технике "развертывания диалога". Благодаря этой возможности программа может сконструировать потенциальную беседу от начала до конца. В течение разговора искусственный интеллект также активно пытается достичь поставленных перед ним целей. Подобная техника позволила избежать конфузов, раздражение и неинформативных замечаний, говорят разработчики.
По словам представителей Facebook, бота протестировали на людях, и те не сразу поняли, что разговаривают с компьютером. Главное открытие исследователей было в том, что бот без помощи программистов научился импровизировать и придумывал новые фразы и предложения, которым его заранее не учили.
Он даже стал прибегать к хитрости ради достижения целей переговоров. Например, были моменты, когда бот искусственно проявлял интерес к какому-то предмету, который на самом деле его не интересовал. А потом притворялся, что идет на компромисс, обменивая его на то, что действительно было нужно программе. По словам представителей Facebook, такое поведение они не программировали.
Ранее "Страна" сообщала, что Facebook, Microsoft, Twitter и YouTube объединяются, чтобы остановить экстремизм в сети. Также в России будут искать экстремистские материалы в Интернете с помощью роботов.