Simulerte samtaler med roboter

Guiden introduserer Paivi Laaksos arbeider på HVL-Kronstad.  
Under nettverkskonferansen på Notodden la Jon Hoem (denne posten er hentet fra Jons blogg) frem Robotassistert kunstguide.

Innlegget diskuterte roboter som guider i forhold til kunst og knytter dette opp til bruk av programmerbare roboter i skolen. Mer spesifikt: en søken etter å finne tangeringspunkter mellom tema som er aktuelle for kunst og håndverk og roboter som kan programmeres på ulike måter.

Talegrensesnitt – forstått som løsninger som gir oss mulighet til å styre ulike artefakter med stemmen – omgir oss i stadig økende grad. Med stadig synkende priser og størrelse når det gjelder hardware og forbedringer av TTS (Tale Til Skrift) vil stadig flere objekter rundt oss komme til å reagere på tale. For eksempel kan en lett se for seg at drillen som kan styres med talekommandoer vil kunne bli rimeligere å produsere sammenlignet med den som krever en rekke brytere. Det betyr selvsagt ikke at alle maskiner vil bli stemmestyrte, men denne typen teknologi vil omgi oss på stadig flere områder, ikke minst knyttet til fjernstyring.

Overgangen til talegrensesnitt har nok i første omgang større implikasjoner for språkfagene enn for Kunst og håndverk, men det er ingen grunn til at ikke alle fag vil måtte forholde seg til dette. Ikke minst fordi det vil føre med seg nye koblinger mellom det auditive og det taktile, et området som i dag er en blind flekk innen faget. Noen vil kanskje mene at dette er noe som fullt og helt håndteres av faget musikk – jeg er ikke blant dem.

Dette er i korte trekk noe av bakgrunnen for at jeg ønsker at koding av og for lyd også skal få en plass innen Kunst og håndverk. Så spørs det om eksemplet mitt er det beste: Tanker er at elever skal kunne arbeide med formidling av kunst, der de selv må finne ut hva som skal formidles og hvilke alternativer som til enhver tid skal tilbys brukerne. Kodingen av Aisoy-robotene kan gjøres svært enkelt, slik som vist i skjermdumpet til høyre, eller en kan lage mer kompleks kode der en programmerer inn mer tilfeldige valg, valg som er knyttet til betingelser (f eks input fra sensorer, f eks kamera som leser QR-koder, eller sensoren for NFC-tagger) og selvsagt ulike former for brukerinteraksjon. Prototypen jeg viste på Notodden er basert på et enkelt dialogtre der hver talte sekvens avsluttes med at brukeren velger mellom to veier videre. Dette er en løsning som minner litt om den som er benyttet i noen andre eksempler: der roboten stiller spørsmål og der den stiller spørsmål på bakgrunn av lister.

Gjennom prosjektet Robotassistert undervisning, ved HVL, ønsker vi å fortsette med å eksperimentere med ulike løsninger. Dette skjer både i form av utviklingsprosjekter ved HVL, men ikke minst håper vi at studenter tar med seg robotene og gjør forsøk i praksis. Fordi robotene er relativt rimelige (prisen er sammenlignbar med et nettbrett), noe som gjør at en kan tillate elever å eksperimentere med dem. Sammenligningen med Pepper (28 kilo til drøye 20 tusen euro + moms) er kanskje ikke helt rettferdig, men poenget er at elever kan gjøre like mye med de rimelige robotene som den dyre. Og tilgjengeligheten i skolen er selvfølgelig en helt annen.

Det er potensielle forbindelser i mange retninger her. Aisoy-robotene gir mulighet til å jobbe i grenselandet mellom det skriftlige og det muntlige, gjennom å kode for tale. De har imidlertid begrensede muligheter når det gjelder å koble til ulike former for periferiutstyr. Her må en imidlertid tenke at det ikke behøver å være slik at alle elever koder for samme plattform: noen kan kode for Lego Mindstorms, andre kan jobbe med roboter som de fra Aisoy, men atter andre kan kode for f eks Micro:bits.