隨著人工智能的不斷發(fā)展,智能語音機器人越來越受到歡迎。但眼下,F(xiàn)acebook已經(jīng)不滿足于研發(fā)一款可以聊天的智能語音助手,而是要訓練機器人與人類進行談判。
Facebook人工智能研究所(Facebook Artificial Intelligence Research,簡稱FAIR)的研究人員已經(jīng)創(chuàng)建了人工智能模型,它們被賦予了與人類談判的能力,可以與人討價還價。
目前FAIR的研究人員已經(jīng)開放了該模型的源代碼,并發(fā)表論文,介紹了該機器人所具有的談判能力。在論文中,研究人員表示,通過大量的訓練,對于具有不同目標的對話機器人,已經(jīng)可以與其他機器人或人類進行從開始到結(jié)束的談判,并最終達成一致結(jié)果和目標。
研究人員指出,現(xiàn)實生活中人們經(jīng)常需要面對的“討價還價”就是最常見的一種談判行為。他們從這一行為模式入手,開始教機器人如何分配物品,譬如五本書、三頂帽子、兩個球等等。每一場談判被限定在10次對話之內(nèi),如果10次對話結(jié)束后,沒有達成共識,那么雙方都不能得到物品。
為了達到訓練效果和進行大規(guī)模的定量評估,F(xiàn)AIR團隊收集了一系列人與人之間討價還價的記錄供機器學習。這些案例詳細記錄了人們給一組物品定價并進行分配的過程。然后研究人員建立了一個遞歸的神經(jīng)網(wǎng)絡(luò),通過教它模仿人們的行為來學會談判。
工程師們還利用機器人與機器人的對話來改善學習結(jié)果,方法是讓一個機器人生成數(shù)據(jù)去“愚弄”另一個機器人。這個場景需要機器人與另一方建立對話模型,雙方間就交易展開談判,從而預判出對方對特定報價的反應(yīng),而采取具體應(yīng)對措施,而非簡單的模仿。在訓練過程中,研究人員很快發(fā)現(xiàn),機器人學會了一些談判策略,比如故意強調(diào)一些低價的物品,假裝讓對方認為該物品擁有更高的價值。
FAIR團隊的工作人員表示,他們訓練機器人的目的是教會他們防止做出不好的決策,而不是每次都作出最優(yōu)的選擇。“就像你用日歷提醒自己開會,是為了保證會議能如期參加,而不是為了選在最好的時間開會。”工作人員稱。
在2016年的開發(fā)者大會上,F(xiàn)acebook的創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格(Mark Zuckerberg)就像外界介紹過類似的應(yīng)用場景,在這個場景中,人們通過機器人與企業(yè)互動,例如,訂購產(chǎn)品或獲得客戶服務(wù)幫助。
不過目前,F(xiàn)AIR還沒有深入研究什么這種機器人的討價還價能力可能適用于哪些應(yīng)用軟件,也沒有表示這種能力是否會在Facebook的產(chǎn)品中出現(xiàn)。FAIR在論文中指出,辯論、對話和談判的能力對進一步開發(fā)并提升聊天機器人是非常重要的,訓練機器人學會談判過程中的所有重要步驟都是打造個性化數(shù)字助理的關(guān)鍵。