DeepMinds AI er nå i stand til å slå menneskelige spillere i Quake III

Vi har sett spill der utviklere setter roboter for å gjøre det enkelt for menneskelige spillere eller lage rekreasjoner for en spiller av flerspillermodusene til mange spill. Disse AI-spillerne er sjelden i stand til å konkurrere mot sine menneskelige kolleger. Dermed brukes de til å lette læringskurven til mange flerspillerspill. På den annen side er DeepMind et firma som spesialiserer seg på bruk av AI innen mange arbeidsfelt. De avslørte at deres AI-drevne roboter endelig kunne slå sine menneskelige kolleger i et av de mest spilte flerspillerspillene Quake III. Funnene deres er fascinerende for de som har noe for AI-læring og evner.

Dette er ikke DeepMinds første satsing innen videospill, de har allerede utviklet en nevral motor som er i stand til å beseire pro-spillere fra mange flerspillerspill. Det beste eksemplet her er AlphaGo, hvor deres AI beseiret den velkjente pro-spilleren til det nevnte spillet. De har også utviklet AI for mange andre spill.

Fradrag

Kommer tilbake til deres fradrag for deres AI i Quake III. Quake III er drastisk annerledes enn mange andre spill der ute. Spillet er kategorisk annerledes på grunn av de prosessuelt genererte trinnene og det faktum at spillet er i førstepersonsperspektiv. Problemet for AI-utvikling her er at de ikke kunne lære den best mulige metoden for å slå spillet. Problemet viste seg å være en velsignelse i forkledning da AI lignet humanoid læringskurve, mer om dette senere.

AI startet fra bunnen av og lærte reglene for å fange selve flaggmodusen. AI klarte da å slå 40 menneskelige spillere der mennesker, så vel som AI, ble matchet. Etter å ha beseiret mennesker betydelig, aksepterte DeepMind at deres gevinst tilskrives AI-agentens pro-humane responstid. Så de bestemte seg for å senke dem, men AI var fortsatt i stand til å slå sine menneskelige kolleger.

Fremgang av AI

Tomshardware rapporterer at deres fradrag er spesielt fascinerende siden AI måtte lære det grunnleggende i selve spillet og det faktum at AI var i stand til å få resultatene når stadier ble generert prosessuelt.

DeepMind sa at deres arbeid med dette prosjektet fremhever det faktum at vi kan trene AI effektivt ved å bruke multi-agent teknikker, som betyr AI mot AI. Det gjør ikke bare AI oppmerksom på feilene, men fungerer også på ting som kan gjøres bedre. De sa, “Det fremhever resultatene ved å utnytte den naturlige læreplanen som tilbys av multi-agent trening, og tvinge utviklingen av robuste agenter som til og med kan slå seg sammen med mennesker.”

Facebook Twitter Google Plus Pinterest