Därför blir fiender inte smartare i spel
av Jimmy Wilhelmsson (arkivlänk)
Publicerad på Eurogamer.se lördagen den 24 mars 2012
FPS-skjutaren Bodycount utlovade i fjol mer samspelta och dödliga fiender än någonsin. Känslan av att möta en trupp som tränat på att samarbeta var menad att ge en upplevelse av att det var faktiska människor du mötte, trots att du spelade mot en AI.
Resultatet blev istället en soppa av konstigheter, som du kan läsa om i recensionen från i höstas. Fiender som under eldgivning stod blickstilla, som sprang åt fel håll eller som kunde känna min närvaro genom solida väggar.

Ibland spränger fienden sig själv i Bodycount, långt innan du ens visat dig.
Det händer ibland att recensioner och speltester klagar på AI, den artificiella intelligensen. Vad som menas är lite oklart, men ofta handlar det om att vi förväntar oss att en datorstyrd motståndare ska agera smart och logiskt, och när den inte gör det skyller vi på det diffusa AI-begreppet och lutar oss bekvämt tillbaka efter utförd sågning. Ibland är det lätt att vara recensent.
Men vad är AI? Och hur använder spelutvecklare begreppet i sitt vardagliga arbete? Och varför verkar inte AI-nivån ta rejäla skutt i varje konsolgeneration, som så mycket annat gör?
PÃ¥ Ubisoft-studion Massive i Malmö arbetar i dag över 230 personer och en del av dem är experter pÃ¥ hur saker ska uppföra sig, bland annat genom artificiell intelligens. Petter Mannerfelt är Lead Programmer och utbildad datavetare med inriktning mot just AI – men använder ogärna begreppet.
“Vi pratar inte gärna om artificiell intelligens eller AI. Att utveckla spel handlar om att skapa övertygande miljöer att interagera med; vi finns här för att göra roliga spel och dÃ¥ handlar det egentligen inte om att skapa en AI som är sÃ¥ duktig som möjligt”, förklarar han och gÃ¥r rakt pÃ¥ sak utan omsvep.
“Jag tror inte att särskilt mÃ¥nga spelutvecklare är ute efter att skapa en riktigt smart AI. Om vi använder oss av fiender som kan ta sig runt ditt synfält och falla dig i ryggen skulle du som spelare förmodligen bara bli frustrerad och inte ha kul. Det handlar om att skapa en trovärdig motstÃ¥ndare som är rolig att möta, inte att skapa sann articiell intelligens. Däri ligger utmaningen.”

Martin Hultberg och Petter Mannerfelt på Massive.
Vad Mannerfelt menar är alltså att det kan vara farligt att låta spelets fiender hitta optimala lösningar på ett problem eftersom de då potentiellt skulle kunna besegra spelaren i varje enskild del och döda underhållningen.
“Det skulle ocksÃ¥ kunna bli trÃ¥kigt”, fyller Martin Hultberg i – chef för kommunikation och speltestning pÃ¥ Massive – som deltar i diskussionen, “med fiender som till exempel väljer att vänta ut en spelare (sÃ¥ kallad camping) eller helt enkelt agerar pÃ¥ ett sÃ¥ intelligent vis att spelupplevelsen blir lidande.”
Fokusgrupper med speltester har nämligen visat att de flesta inte alls tycker att det är särskilt kul att ständigt dödas av fiendetrupper som kan samarbeta och vars främsta mål är att just ha ihjäl spelaren.
“I ett FPS kan du exempelvis ensam möta tio man samtidigt; en riktigt smart AI hade lÃ¥tit tvÃ¥ man skjuta nedhÃ¥llande eld pÃ¥ avstÃ¥nd, sex man storma dig för att uppehÃ¥lla dig och de sista hade fÃ¥tt flankera dig och falla dig i ryggen. Du hade inte haft en chans mot en sÃ¥dan AI.”
“Men detta säger fÃ¥ spelutvecklare rakt ut”, flikar jag in.
“Nej, antagligen för att fÃ¥ spelutvecklare haft som mÃ¥l att skapa en sann AI. VÃ¥rt fokus ligger pÃ¥ annat och taget ur rätt kontext kan det ju framstÃ¥ som man skapat en ‘dum’ fiende-AI, och det är ju inget direkt försäljningsargument”, skrattar Hultberg.
…
SÃ¥ – om det finns en uppenbar motsättning mellan smart fiende-AI och underhÃ¥llande spel mÃ¥ste vi frÃ¥ga oss vilken typ av AI spelutvecklare faktiskt använder sig av, och vad de kallar den istället.
Men för att en vidare begreppsdiskussion om AI ska vara givande behöver jag mer kött på benen, jag behöver prata med en generell AI-expert som kan reda ut begreppen och inte bara prata spel.

Asimo – Hondas robot frÃ¥n Ã¥r 2000 var frÃ¥n början tänkt att hjälpa rörelsehindrade och kan själv ta sig fram i cirka 6 km/h.
Henrik Schinzel är medgrundare och teknisk chef på Avail Intelligence, ett svenskt bolag som bygger teknik som föreslår produkter på e-handelssajter baserat på vad andra köpt och tittat på, vilket inte är så okomplicerat som det låter. Även han valde AI som specialområde under sin studietid och utförde en omfattande analys av olika beslutstödssystem för SAAB JAS 39 Gripen som sitt examensarbete.
“Det finns ingen klar definition av vad artificiell intelligens är, sÃ¥ det är lite upp till var och en att stöta och blöta vad som räknas som AI och inte.
Men jag tycker att man generellt kan säga att det handlar om att 1) applicera en stor mängd data i 2) en intelligensmotor och fÃ¥ ut en generell hypotes – ett regelverk för hur en robot eller mjukvara ska bemöta yttre stimulans”, förklarar Schinzel.
“Om vi tar exemplet spel kan jag tänka mig att AI kommer in i bilden när variablerna är för mÃ¥nga eller för komplicerade för att scripta, det vill säga skriva i förväg. PÃ¥ nÃ¥got vis skulle vi kunna säga att script är en slags AI-fusk – det ser ut som AI, men det är egentligen förutbestämt.”
Det allra största problemet för dagens AI-utveckling, oavsett om det handlar om spel eller inte, är att det krävs en enorm beräkningskraft för att behandla de data som appliceras i det första steget av Schinzels AI-modell ovan. Företag som exempelvis Google har runt en halv miljon servrar världen över som dagligen arbetar sig glödheta med beräkningar av olika slag.
Dessutom behövs ofantliga mängder data att arbeta med och företagen som driver på utvecklingen använder olika metoder för att samla in dem.
“Google lanserade för ganska mÃ¥nga Ã¥r sedan en gratistjänst i USA till vilken du kunde ringa och frÃ¥ga saker”, berättar Babak Vahidi som är utvecklare pÃ¥ Avail Intelligence. “De fick dÃ¥ miljoner röstprover att analysera och lagra och när de hade tillräckligt stängdes helt enkelt tjänsten ner. Nyligen rullade Apple ut gratistjänsten Siri, förmodligen av exakt samma anledning”, menar han.

Babak Vahidi och Henrik Schinzel på Avail Intelligence.
Men om vi Ã¥tergÃ¥r till AI i just spelvärlden förhÃ¥ller det sig alltsÃ¥ pÃ¥ det viset att varje fiende styrs av ett generellt regelverk som bestämts av en AI-motor som fÃ¥tt ett stort antal data att arbeta med – begränsat av spelmaskinens beräkningskraft, kvaliteten pÃ¥ de data som stoppats in – och naturligtvis hur vältrimmad AI-motorn är.
Det är ganska många olika variabler som kan påverka en AI negativt.
“Det finns ytterligare en variabel och detta är den enda som är okänd för din AI – och det är hur du kommer att agera.
De flesta AI-definitioner gÃ¥r nämligen ut pÃ¥ att försöka mäta hur en AI uppträder beroende pÃ¥ vad du gör; vilken förmÃ¥ga den har att svara, att lära sig och sÃ¥ vidare”, förklarar Henrik Schinzel.
Utan yttre pÃ¥verkan kan vi alltsÃ¥ inte prata om en artificiell intelligens alls. Den yttre pÃ¥verkan är dock oftast självklar i tv- och datorspelens värld – det är helt enkelt du som spelar som stÃ¥r för den.
…
Men om utvecklarstudior som Massive inte är intresserade av att skapa den perfekta AI som Henrik Schinzel och Babak Vahidi pÃ¥ Avail Intelligence pratar om – vilken typ av AI är de egentligen ute efter?
“Vi pratar ofta om OCR-loopar (Objective Challenge Reward) och vi vill skapa tydliga mÃ¥l och tydliga utmaningar för att spelaren ska förstÃ¥ spelet och kunna ha roligt. Om motstÃ¥ndaren beter sig helt slumpartat är det svÃ¥rt att förstÃ¥ spelet och det kan bli frustrerande för spelaren. En bra AI är helt enkelt relativt förutsägbar; det är dÃ¥ det känns trovärdigt och man som spelare kan bli uppslukad av spelet”, förklarar Petter Mannerfelt pÃ¥ Massive.
Att däremot låta fienderna lära av spelaren ger inte samma effekt, snarare visar tester med fokusgrupper att få spelare tycker det är kul att bli besegrad av en AI som blir bättre och lär sig att förstå dig ju längre du spelar.
Istället verkar spelaren skifta fokus från att vara indragen i spelet till att bli frustrerad över att fienderna till slut är övermäktiga. Givetvis beror det lite på vilken spelgenre vi pratar om, men rent generellt verkar inte särskilt många av oss vara intresserade av en stegrande AI när vi väl hamnar framför en.

Hur bör en folkmassa reagera på att Ezio drar fram sina dolda knivar ur ärmarna? Och hur påverkar det spelet?
“Alla saker som kan interagera intelligent med det spelaren gör räknar vi som AI – men det viktiga för oss är att AI i detta fallet mÃ¥ste stödja det som pÃ¥ engelska kallas ‘immersion’, känslan av upplevelse.
SÃ¥ fort känslan av upplevelse bryts, och det kan den göra bÃ¥de av för bra och för dÃ¥lig AI, är det fel. Vi arbetar enbart med AI som vi tror kan stärka denna upplevelsekänsla”, förklarar Petter Mannerfelt.
Som exempel nämner han Crowd Management – hantering av folkmassor i spel, vilket tagit stora steg framÃ¥t jämfört med för bara tio Ã¥r sedan. Här handlar det inte om att optimera problemlösning för en fiende-AI, utan att fÃ¥ en grupp människor i spel att uppföra sig trovärdigt i förhÃ¥llande till yttre omständigheter, som exempelvis vad spelaren har för sig.
En annan teknisk detalj, som egentligen alltid varit en het frÃ¥ga bland utvecklare, är sÃ¥ kallad Pathfinding – pÃ¥ vilket sätt AI-karaktärer tar sig fram i komplexa miljöer. Ska de alltid välja den kortaste vägen eller kan de välja en väg som är lättare, men kanske längre rent avstÃ¥ndsmässigt? Och hur reagerar AI:n pÃ¥ en vägg som tidigare var där, men som nu är bortsprängd?

Pathfinding handlar i sin enklaste form om på vilket sätt en AI-styrd karaktär ska ta sig från punkt A till B.
“Det har pratats mycket om animationer i utvecklingskretsar den senaste tiden, eftersom jakten pÃ¥ verklig grafik och mer realistiska rörelsemönster ställer högre krav pÃ¥ hur spelfigurerna faktiskt rör sig. Det kanske inte framgÃ¥r särskilt tydligt, men det ligger enormt mycket AI bakom animationer och hur de ska användas realistiskt”, förklarar Mannerfelt.
På utvecklarkonferenser diskuteras alltid sådana saker, men få väljer att kalla det AI. Det intressanta är att konkurrensen är som bortblåst vid dessa event; här hittar du världens bästa utvecklare från jordens alla hörn och det alla har gemensamt är att de försöker lösa samma eller liknande problem.
“Men du som är utbildad AI-expert”, sticker jag in. “Har du aldrig känt en lust att bygga en ordentlig AI-motor som ligger i framkant?”
“Absolut, det är klart jag ville det när jag började efter min utbildning. Alla som är nyutbildade inom omrÃ¥det kommer till spelstudiorna och vill bygga världens coolaste AI, det ser vi nästan varje Ã¥r när en ny kull släpps ut. Men efter ett par fokustester förstÃ¥r man ganska snabbt att det inte riktigt är vad de flesta spelare faktiskt vill ha”, menar Mannerfelt.
…
Henrik Schinzel pÃ¥ Avail Intelligence, som själv är en van PC-spelare, ser ocksÃ¥ mÃ¥nga möjligheter för AI att utvecklas inom ramen för upplevelsekänslan – och anser även att spelkaraktärer längre fram faktiskt kan lära sig, utan att underhÃ¥llningen tar skada.
“AI är ju sedan starten pÃ¥ 1800-talet ett sätt att försöka skapa liv i nÃ¥got livlöst. I samband med att Babbage teoretiserade kring sin Analytical Engine, den första ‘datorn’, triggades flera kreativa människor i gÃ¥ng; Mary Shelley skrev till exempel om Frankensteins monster och myten om golem, den judiska konstgjorda människan, fick fart. Att skapa liv var tabu, därför blev det ocksÃ¥ intressant. Men gemensamt för alla dessa AI-koncept är det belöningssystem alla tänkande varelser drivs av.”

Rabbi Löw väcker liv i en golem från filmen Der Golem från 1920.
En tänkande varelse behöver ett belöningssystem och en uppfattning om vad som är bra och dåligt. På engelska kallas det Utility Theory och går ut på att väga nyttan av något jämfört med troligt utfall. Ett exempel är försäkringssystem eller lotterier.
“Det finns en väldigt liten chans att en försäkring slÃ¥r ut, det vill säga att nÃ¥got dÃ¥ligt händer, men ändÃ¥ tecknar mÃ¥nga av oss försäkringar helt enkelt därför att det väntade utfallet – att den lilla summan pengar är i sjön – är bättre än det värsta utfallet; att du eller dina ägodelar blir skadade eller stulna.”
Omvandlat i spel betyder det att en varelses bedömning av en situation kan tjäna på att AI-motorn tar belöningssystemet i beräkning. En typisk sådan situation är huruvida en varelse ska fly eller strida till slutet. Det är inte logiskt att någon slåss mot övermäktiga odds om denne bara kan vända på klacken och fly. Å andra sidan får inte flykten som sådan skada spelupplevelsen.
“En drake kan känna pÃ¥ sig att striden hÃ¥ller pÃ¥ att gÃ¥ Ã¥t skogen; det logiska vore dÃ¥ att fly. Det är dock inte särskilt kul för spelaren att se draken flaxa iväg, sÃ¥ just av den anledningen fÃ¥r förmodligen belöningssystemet prepareras sÃ¥ att sannolikheten för att fly är lÃ¥g eller obefintlig”, menar Henrik Schinzel.

Tjo, där flög den draken iväg. Snopet.
För lägre stÃ¥ende varelser som inte är av bosskaraktär kan dock flykten vara ett alternativ till strid in i döden och kan bidra till en ökad upplevelsenärvaro – förutsatt att spelaren i och med detta inte blir av med viktiga färdighetspoäng eller pÃ¥ annat sätt förlorar pÃ¥ flykten i frÃ¥ga. DÃ¥ blir vi nämligen ocksÃ¥ irriterade, dÃ¥ tappar ju vi som spelare vÃ¥r belöning.
En fråga som naturligt uppkommer är huruvida känslor, vilka börjar bli allmer närvarande i tv-spel, har med AI att göra. Henrik Schinzel tillhör det stall som inte tycker att känslor är ett krav för AI, men menar att känslor som sådana är ett effektivt sätt att implementera belöningssystemet.
“Turing-testet, döpt efter den kände matematikern och kodknäckaren Alan Turing, säger att en AI är lyckad när en människa genom att ställa frÃ¥gor inte kan säga om en AI är konstgjord eller mänsklig. Jag hÃ¥ller inte helt med Turing, känslor är för mig inget krav för god AI, men det är egentligen bara en definitionsfrÃ¥ga. Känslor är däremot ett sätt att beskriva hur en AI uppfattar olika saker och kan ge exempelvis en spelare feedback”, avslutar Schinzel och ser fundersam ut.
Det ser nästan ut som att han under diskussionens gång vill lämna sin bransch och börja utveckla spel.
…
Vad kan vi då förvänta oss av AI i spel i framtiden? Vilken riktning tar tekniken när det handlar om spelutveckling?

Charles Babbages ‘Analytical Engine’ – som han aldrig själv lyckades konstruera annat än i teorin.
“AI kräver som bekant otroligt mycket beräkningar, men framtidens hÃ¥rdvara förväntas sÃ¥klart klara av mycket fler CPU-cykler sÃ¥ visst kan vi förvänta oss allt möjligt som gör miljöerna verklighetstrognare och som ser till att upplevelsekänslan blir bÃ¥de djupare och varar längre”, spÃ¥r Petter Mannerfelt pÃ¥ Massive.
Immersion eller upplevelsekänsla kan mätas, till exempel i tid; när du först kliver in i en värld som exempelvis en historisk miljö i Assassin’s Creed kan gatorna, folken och byggnaderna kännas levande och autentiska. Du är inne i spelet.
Men sÃ¥ börjar du höra människor säga samma saker, kanske upptäcker du samma slags person pÃ¥ flera olika ställen eller börjar känna igen människors rörelser, reaktioner eller andra detaljer. I vilket fall bryts upplevelsekänslan när du “förstÃ¥r” hur miljöns AI-regler fungerar – bättre AI kan potentiellt förlänga tiden du är uppslukad och “tror” pÃ¥ miljön.
“En annan faktor är hur vi i dag arbetar med berättandeteknik. Fienders AI mÃ¥ste passa in i dessa och ge utrymme för det sätt vi skapar känslor, förmedlar intryck och för handlingen framÃ¥t. Det betyder oftast att vi behöver en AI som kan följa det manus spelet bygger pÃ¥ och inte agerar alltför självständigt”, menar Martin Hultberg.
Att fienderna blir smartare och dödligare tror däremot varken Petter Mannerfelt eller Martin Hultberg på, åtminstone inte i annat syfte än att skapa botar som ska efterlikna människor för övande klaner i onlineskjutare.
“Nej, fiender lär inte bli särskilt mycket dödligare än vad de redan är – men däremot kommer sÃ¥klart sÃ¥ kallad Squad-AI att förbättras, det vill säga AI-styrda karaktärers förmÃ¥ga att agera i grupp med dig som ledare eller deltagare. Det kan handla om allt frÃ¥n att inte springa i vägen för dig till att utföra order pÃ¥ ett verklighetstroget vis.”
En fundering vi pÃ¥ Eurogamer vet att mÃ¥nga har är varför ökad svÃ¥righetsgrad bara innebär fler fiender, färre ammo, starkare fiender eller svagare hjältar – nästan aldrig smartare AI. Varför?
“Vi har provat detta, bland annat redan i World in Conflict – men Ã¥terigen visade fokusgrupperna att det inte uppskattades till den grad att det är värt besväret och att spel ska vara kul är som sagt det viktigaste för oss. Det är problematiskt att införa smartare AI vid en högre svÃ¥righetsgrad, inte minst därför att du egentligen skapar flera olika spel och det är svÃ¥rt att hantera bÃ¥de för oss och spelaren”, försäkrar Petter Mannerfelt.

Få spel kommer att låta dig möta fiender med Terminator-AI, alltså helt oresonlig och överlägsen.
Framtiden lär alltså föra med sig väsentligt mycket mer AI i spel i framtiden, men det finns en möjlighet att vi även kommer att höra utvecklarna prata allt mindre om AI som koncept.
Klart är att både utvecklare och allmänna AI-experter är överens om att den artificiella intelligensen kan skapa trovärdigare karaktärer och miljöer genom att de svarar på det vi gör på ett sätt som bättre stämmer överens med det vi förväntar oss.
En annan trolig utveckling är att just tiden det tar för dig att “falla ur” upplevelsen blir längre. Karaktärer och folkmassor kan kännas troliga under längre tid och rapar mer sällan upp samma dialog eller gör samma saker.
Men får vi tro Mannerfelt och Hultberg kan vi alltså glömma alltför avancerade AI-fiender som gör sitt yttersta för att vara logiska och dödliga á la Terminator. Vi kan kanske också ta med oss lärdomen att tänka efter en extra gång nästa gång vi vill klaga på AI:n i ett spel.
“Vi vill ha bättre AI”, säger jag.
“Vad betyder det?”, svarar Petter Mannerfelt.
Helt plötsligt är det inte lika lätt att vara recensent.
Senaste snacket