DeepMinds AI kan nu slå mänskliga spelare i Quake III
Vi har sett spel där utvecklare sätter bots för att göra det enkelt för mänskliga spelare eller för att göra en spelares rekreationer av flerspelarlägen för många spel. Dessa AI-spelare är sällan kapabla att tävla mot sina mänskliga motsvarigheter. Således används de för att underlätta inlärningskurvan för många multiplayer-spel. Å andra sidan är DeepMind ett företag som specialiserat sig på användning av AI inom många verk. De avslöjade att deras AI-drivna robotar äntligen kunde slå sina mänskliga motsvarigheter i ett av de mest spelade multiplayer-spelet Quake III. Deras resultat är fascinerande för dem som har en sak för AI-lärande och kapacitet.
Detta är inte DeepMinds första satsning på videospel, de har redan utvecklat en neural motor som kan besegra pro-spelare i många multiplayer-spel. Det bästa exemplet här är AlphaGo, där deras AI besegrade den välkända pro-spelaren i nämnda spel. De har också utvecklat AI för många andra spel.
Avdrag
Kommer tillbaka till deras avdrag angående deras AI i Quake III. Quake III är drastiskt annorlunda än många andra spel där ute. Spelet är kategoriskt annorlunda på grund av de procedurgenererade stadierna och det faktum att spelet är i förstapersonsperspektiv. Problemet med AI-utveckling här är att de inte kunde lära sig bästa möjliga metod för att slå spelet. Problemet i själva verket visade sig vara en välsignelse när AI liknade humanoid inlärningskurva, mer om detta senare.
AI startade från grunden och lärde sig reglerna för att fånga flaggläget själv. AI kunde sedan slå 40 mänskliga spelare där människor, såväl som AI, mixades. Efter att ha besegrat människor avsevärt accepterade DeepMind att deras vinst tillskrivs deras AI-agents pro-mänskliga svarstider. Så de bestämde sig för att sakta ner dem, men AI kunde fortfarande slå sina mänskliga motsvarigheter.
AI-framsteg
Tomshardware rapporterar att deras avdrag är särskilt fascinerande eftersom AI var tvungen att lära sig grunderna i själva spelet och det faktum att AI kunde få resultaten när etapper genererades procedurellt.
DeepMind sa att deras arbete med detta projekt belyser det faktum att vi kan träna AI effektivt genom att använda multi-agent tekniker, vilket betyder AI mot AI. Det gör inte bara AI medveten om sina misstag utan fungerar också på saker som kan göras bättre. De sa, ”Det lyfter fram resultaten genom att utnyttja den naturliga läroplanen som tillhandahålls av utbildning för flera agenter och tvinga utvecklingen av robusta agenter som till och med kan samarbeta med människor.”