Analytics og testing

Tips for A / B-testing på Google Play-eksperimenter

For Android-apputviklere, Google Play-eksperimenter kan gi verdifull innsikt og bidra til å øke installasjonene. Å kjøre en godt designet og godt planlagt A / B-test kan utgjøre forskjellen mellom en bruker som installerer appen din eller en konkurrent. Imidlertid er det mange tilfeller der testene har blitt kjørt feil. Disse feilene kan virke mot en app og skade ytelsen.

Her er en guide for bruk Google Play-eksperimenter forum A / B-testing.

Sette opp et Google Play-eksperiment

Du får tilgang til eksperimentkonsollen fra app-dashbordet til Google Play Developer Console. Gå til Oppbevar nærvær på venstre side av skjermen og velg Butikkoppføringseksperimenter. Derfra kan du velge "Nytt eksperiment" og sette opp testen.

Det er to typer eksperimenter du kan kjøre: Standard grafikkeksperiment og Lokalisert eksperiment. Standardgrafikkeksperiment vil bare kjøre tester i regioner med språket du valgte som standard. Localized Experiment vil derimot kjøre testen din i hvilken som helst region appen din er tilgjengelig i.

Førstnevnte lar deg teste kreative elementer som ikoner og skjermbilder, mens sistnevnte også lar deg teste dine korte og lange beskrivelser.

Når du velger testvarianter, må du huske at jo flere varianter du tester, jo lengre tid kan det ta å få handlingsrike resultater. For mange varianter kan føre til at testene trenger mer tid og trafikk for å etablere et konfidensintervall som bestemmer den mulige konverteringspåvirkningen.

Forståelse av eksperimentresultatene

Når du kjører tester, kan du måle resultatene basert på First Time Installers eller Retained Installers (One Day). Førstegangsinstallatører er de totale konverteringene knyttet til varianten, med beholdte installatører som brukere som har beholdt appen etter den første dagen.

Konsollen gir også informasjon om Current (brukere som har appen installert) og Scaled (hvor mange installasjoner du hypotetisk hadde fått hadde varianten mottatt 100% av trafikken i testperioden).

Google Play-eksperimenter og A / B-testing

90% konfidensintervall genereres etter at testen har kjørt lenge nok til å få handlingsbar innsikt. Det viser en rød / grønn linje som indikerer hvordan konverteringer teoretisk ville justert seg hvis varianten ble distribuert live. Hvis linjen er grønn, er det et positivt skifte, rødt hvis det er negativt, og / eller begge fargene betyr at den kan svinge i begge retninger.

Beste fremgangsmåter du bør vurdere for A / B-testing i Google Play

Når du kjører A / B-testen, vil du vente til konfidensintervallet er etablert før du gjør noen konklusjoner. Installasjoner per variant kan skifte gjennom hele testprosessen, så uten å kjøre testen lenge nok til å etablere et selvtillit, kan variantene utføre forskjellige når de brukes live.

Hvis det ikke er nok trafikk til å etablere et konfidensintervall, kan du sammenligne konverteringstrender uke for uke for å se om det er noen konsistenser som dukker opp.

Du vil også spore innvirkning etter distribusjon. Selv om tillitsintervallet sier at en testvariant ville ha prestert bedre, kan dens faktiske ytelse fremdeles variere, spesielt hvis det var et rødt / grønt intervall.

Etter å ha distribuert testvarianten, må du holde øye med inntrykkene og se hvordan de påvirkes. Den virkelige virkningen kan være annerledes enn forutsagt.

Når du har bestemt deg for hvilke varianter som fungerer best, vil du gjenta og oppdatere. En del av målet med A / B-testing er å finne nye måter å forbedre seg på. Etter å ha lært hva som fungerer, kan du lage nye varianter med tanke på resultatene.

Google Play-eksperimenter og A / B-testresultater

For eksempel, når du jobber med AVIS, gikk Gummicube gjennom flere runder med A / B-testing. Dette bidro til å bestemme hvilke kreative elementer og meldinger som best konverterte brukere. Denne tilnærmingen ga en økning på 28% i konverteringer fra funksjonen grafiske tester alene.

Iterasjon er viktig for appens vekst. Det hjelper deg med å kontinuerlig skru opp hjulet på konverteringen når innsatsen din vokser.

konklusjonen

A / B-testing kan være en fin måte å forbedre appen din og din generelle App Store Optimalisering. Når du konfigurerer testen, må du sørge for at du begrenser antall varianter du tester samtidig for å fremskynde testresultatene.

Under testen må du overvåke hvordan installasjonene dine påvirkes og hva tillitsintervallet viser. Jo flere brukere som ser appen din, jo bedre er sjansene dine for å etablere en konsistent trend som validerer resultatene.

Til slutt vil du hele tiden gjenta. Hver iterasjon kan hjelpe deg med å lære hva som konverterer brukere best, slik at du bedre kan forstå hvordan du optimaliserer appen din og skalaen. Ved å ta en metodisk tilnærming til A / B-testing, kan en utvikler jobbe for å utvide appen sin videre.

David Bell

Dave Bell er en gründer og anerkjent pioner innen mobil underholdning og distribusjon av digitalt innhold. Dave er medstifter og administrerende direktør for Gummicube - den ledende globale leverandøren av data, teknologi og tjenester for App Store Optimization.

Hva tror du?

Dette nettstedet bruker Akismet for å redusere spam. Lær hvordan kommentaren din behandles.

Relaterte artikler