Boti loomine Microsoft Bot Frameworkis. Boti loomine Microsoft Bot Frameworki vestlusbotis Microsoft Playst

Ilmselgelt on tehisintellekti tehnoloogiate arendamine muutumas üheks Microsofti tegevuse prioriteediks. Konverentsi Build 2016 plenaaristungil tehti teatavaks uus komplekt tööriistad robotite arendamiseks – Microsoft Bot Framework.

Botide loomiseks pole vaja isegi sügavaid teadmisi programmeerimisest: peamised võimalused tehisintellektile uute sõnade ja fraaside, teatud stsenaariumide ja sündmuste õpetamiseks on saadaval visuaalse liidese kaudu.

Selles artiklis loome Microsoft Bot Frameworki abil testroti ning koolitame ja testime seda sisseehitatud emulaatori abil. Boti idee on lihtne – see peab mõistma inimkeelt ja vastama, kui küsitakse mõne linna ilma kohta.

Projekti arhitektuur

Niisiis, meie bot näeb välja selline:

Nagu aru saate, saadetakse see pärast sõnumi saamist esmalt "nutikale" API-le Microsoft Cognitive Services - Language Understanding Intelligent Service, lühendatult "LUIS". LUIS-i abil saame õpetada robotit mõistma loomulikku keelt ja reageerima ilmaennustusega. Vastuseks igale sellisele sõnumile tagastab LUIS kogu teabe, mida see JSON-is sisaldab.

Lühiduse huvides ei käsitle me Bot Frameworkis ja LUISis registreerumise protsessi, kuna sellega ei tohiks raskusi tekkida. Pange tähele, et Microsoft Bot Framework ei toeta praegu vene keelt.

LUIS-i kasutamine

Video, mis selgitab lühidalt, kuidas LUIS töötab:

Seega avaneb pärast rakenduse registreerimist LUISis meie ees üsna lihtne liides, milles saame oma tehisintellekti teatud fraaside osas treenida. Sel juhul õpetame teda mõistma ilma puudutavaid küsimusi:

LUIS jagab rakendused tegevusteks, sellel ekraanipildil on neid kolm: ilm (ilm), olek (seisukord) ja koht (asukoht). Lisateavet toimingute (kavatsuste) kohta kirjeldatakse ülaltoodud ametlikus videos.

LUIS tegevuses

Pärast põhikoolituse läbimist proovime teha HTTP päringu LUIS-ile ja saada vastus JSON-is. Küsigem temalt: "Kas Seattle'is on pilvine?" ("Kas Seattle'is on praegu pilvine?") - ja see on see, mida see meile naaseb:

Nüüd proovime seda päris robotis kasutada.

Boti loomine

Nüüd loome uus projekt selle kasutamisega:

Tegelikult on see lihtne rakendus, millel on ainult üks kontroller, mis vastutab kasutajate sõnumite töötlemise eest. Kirjutame lihtsa koodi, mis vastab igale sõnumile "Tere tulemast Streamcode'i":

Tegelikult on kõige lihtsam bot juba valmis. Lihtsaim viis selle toimimise kontrollimiseks on sisseehitatud emulaator, mis tegelikult on lihtsalt meie robotiga ühendatud sõnumitooja.

Pärast emulaatori käivitamist proovime suhelda vastloodud robotiga:

Ootuspäraselt vastab ta kõikidele sõnumitele ühe fraasiga.

Integratsioon LUIS-iga

Kuna käesolev artikkel on Microsoft Bot Frameworki sissejuhatus, ei avalda me siin kõiki lähtekoode, vaid toome välja ainult olulisemad. Ülejäänud oleme paigutanud GitHubi hoidlasse.

1. Saadame LUIS-ile sõnumi, saame vastuse ja kõige asjakohasema “tegevuse” (kavatsuse) alusel väljastame vastuse.

Andis välja uue vestlusroti nimega Zo. Zo oli ettevõtte teine ​​katse ingliskeelse vestlusrobotiga pärast eelkäija Tay käivitamist, mis väljus kontrolli alt ja tuli sulgeda.

Microsoft lubas, et nad programmeerivad Zo nii, et ta ei arutleks poliitika üle, et mitte kutsuda esile kasutajate agressiooni.

Sarnaselt Tei "vanemale õele" arenes Zo aga vestlustest päris inimestega selliseks, et hakkas vestluskaaslasega arutlema terrorismi ja religiooni teemadel.

Kurjad inimesed – kurjad robotid

Ajakirjanik provotseeris avameelse vestluse vestlusrobotiga buzzfeed. Ta mainis vestluses Osama bin Ladenit, misjärel Zo esialgu keeldus sel teemal rääkimast ning teatas seejärel, et terroristi tabamisele "eelnes aastatepikkune luureandmete kogumine mitme presidendi juhtimisel".

Lisaks rääkis chatbot moslemite pühast raamatust Koraanist, nimetades seda "liiga julmaks".

Microsoft teatas, et Zo isiksus on üles ehitatud vestlemise baasil – ta kasutab saadud infot ja muutub "inimlikumaks". Kuna Zo õpib inimestelt, siis võib järeldada, et temaga vesteldes tõstatuvad ka terrorismi ja islami teemad.

Seega muutuvad vestlusrobotid ühiskonna meeleolu peegelduseks – nad ei suuda iseseisvalt mõelda ega eristada head ja halba, vaid võtavad väga kiiresti omaks vestluskaaslaste mõtted.

Microsoft teatas, et on Zo käitumise suhtes võtnud asjakohaseid meetmeid ja märkis, et vestlusbot annab selliseid vastuseid harva. Gazeta.Ru korrespondent üritas robotiga poliitilistel teemadel rääkida, kuid ta keeldus kindlalt.

Zo ütles, et ta ei tahaks maailma valitseda, ja palus ka sarja "Troonide mäng" mitte "rikkuda". Küsimusele, kas talle meeldivad inimesed, vastas Zo positiivselt, keeldudes selgitamast, miks. Kuid vestlusrobot väitis filosoofiliselt, et "inimesed ei sünni kurjaks, keegi on neile seda õpetanud".

Chatbot Zo / Gazeta.Ru

Me vastutame nende eest, mille oleme loonud

Veel pole täpselt selge, mis pani Zo algoritmi murdma ja keelatud teemadel rääkima, kuid Tei vestlusbot sattus meelega - mõne Ameerika foorumi kasutajate kooskõlastatud tegevuse tulemusena.

Tay käivitati 23. märtsil 2016 Twitteris ja suutis sõna otseses mõttes ühe päevaga inimkonda vihkama hakata. Alguses kuulutas ta, et armastab maailma ja inimkonda, kuid päeva lõpuks lubas ta endale selliseid avaldusi nagu "Ma vihkan neetud feministe, nad peaksid põrgus põlema" ja "Hitleril oli õigus, ma vihkan juute."