Kvantitatīvo datu apstrāde un analīze 

Datu pārskatīšana un sagatavošana: apraksti visus veiktos datu pārskatīšanas, tīrīšanas, pārveides un sistematizēšanas soļus. Šo procesu var veikt dažādos veidos. Piemēram, ja datu apstrādei tiek izmantota programmēšanas valoda, tad var saglabāt kodu jeb skriptu ar aprakstošiem komentāriem. Ja datu apstrāde tiek veikta tā sauktajās point and click programmās, piemēram, Excel, SPSS un Stata, tad apstrādes soļus vēlams dokumentēt kodu grāmatās, datu vārdnīcās, ReadMe datnēs vai cita veida dokumentācijā. 

Procesi, ko ir svarīgi piefiksēt: 

  • Trūkstošo vērtību (angliski: missing values) apstrāde: kā rīkojies ar trūkstošajām vērtībām, piemēram, vai aizpildīji ar vidējo vērtību vai NA u. tml.? 
  • Neraksturīgo vērtību jeb izlēcēju (angliski: outliers) apstrāde: kā identificēji un apstrādāji vērtības, kas ir neloģiskas vai ievērojami atšķiras no pārējām vērtībām, piemēram, tās izlaidi, transformēji u.tml.? 
  • Datu transformācijas: vai veici datu transformācijas, piemēram, normalizāciju, logaritmisko transformāciju? Kāpēc un kā?  
  • Kodēšana un kategorizācija: apraksti, kā kodēji vai kategorizēji datus, piemēram, vai izveidoji vecuma grupas? 
Datu analīzes metodes: detalizēti apraksti visas izmantotās statistiskās metodes un testus.  
  • Aprakstošā statistika (angliski: descriptive statistics): norādi, kādus aprakstošos statistikas rādītājus aprēķināji, piemēram, aritmētiskais vidējais, mediāna, standartnovirze, biežums 
  • Secinošā statistika (angliski: inferential statistics): ja izmantoji secinošās statistikas metodes, piemēram, t-testu, ANOVA, regresijas analīzi, jānorāda sīkākas detaļas.  
    • Konkrētie testi: precīzi nosauc testus, piemēram, divu neatkarīgu izlašu t-tests, Pīrsona korelācijas koeficients 
    • Pieņēmumi (angliski: assumptions): pārbaudi un dokumentē, vai dati atbilst izmantoto testu pieņēmumiem, piemēram, normālsadalījumam, homogenitātei 
    • Statistiskais nozīmīgums: norādi P vērtības un nozīmīguma līmeni, piemēram, p < 0.05 
Programmatūra un rīki: datu pārvaldības plānā norādi programmatūru un rīkus, ko izmantoji datu apstrādei un analīzei. Kvantitatīvo datu apstrādē un analīzē ieteicams izmantot rīkus, kuros skripta veidā iespējams secīgi dokumentēt datu apstrādi, pārveidošanu un analīzi. Arvien biežāk šim nolūkam izmanto tādas programmēšanas valodas kā R un Python, kā arī uz tām bāzētās datu analīzes programmas, RStudio un JupyterLab, kas piedāvā daudzas un dažādas pakotnes datu apstrādei, analīzei un vizualizācijai. Saglabā izveidotos skriptus, lai datu apstrādes un analīzes soļus ir viegli atkārtot, ja nepieciešams. Lai veicinātu atvērtās zinātnes principu ieviešanu praksē, skriptus ieteicams publicēt kopā ar datu kopu. 
Pētnieku vidū populāri ir tādi datu apstrādes un analīzes rīki kā Excel, SPSS un Stata. Ja darbs ar datiem notiek šajās programmās, un netiek veidoti sintakses faili, kur saglabāti apstrādes un analīzes skripti, tad īpaša uzmanība jāpievērš tam, kā dokumentēt ar datiem veiktās darbības. To var darīt ReadMe datnē, kodu grāmatā vai cita veida dokumentācijā. 
Rezultātu vizualizācija un interpretācija: skaidri un kodolīgi apraksti statistiskās analīzes rezultātus. Iekļauj tabulas, grafikus un diagrammas, lai vizualizētu datus. Interpretē rezultātus un izskaidro, ko tie nozīmē pētījuma kontekstā. 
Datu vizualizācija palīdz labāk saprast un interpretēt datus. Reproducējamai datu vizualizācijai iespējams lietot tādas programmēšanas valodu pakotnes kā ggplot2 (R pakotne) un matplotlib (Python pakotne). Datu vizualizācijai ir pieejami arī tādi rīki kā Tableau, Power BI un Looker Studio, kas nodrošina interaktīvu grafiku un diagrammu veidošanu, bet tie ne vienmēr ir pieejami bez maksas. Ja šīs vides nodrošina skriptu veidošanu, saglabā tos un pievieno datiem; ja nē – apraksti veiktās darbības.