Computer Adaptive Test per la valutazione dell

Transcript

Computer Adaptive Test per la valutazione dell
ComputerAdaptiveTestperla
valutazionedell’apprendimento
nell’e-learning
Veronica ROSSANO, Enrica PESARE, Teresa ROSELLI
Dipartimento di Informatica, Università degli Studi di Bari, Bari (BA)
Abstract
Valutazione e misura dell’apprendimento sono due parole chiave nel contesto dell’elearning, che negli ultimi anni è diventato un fenomeno di massa. Il pubblico che accede alle risorse didattiche dei MOOC non è più classificabile per la natura “massive” dei corsi online. E’ necessario, quindi, che la ricerca nel campo dell’informatica
proponga nuovi modelli e strumenti utili alla valutazione di ampie popolazioni. Una
soluzione promettente è l’uso della Computer Adaptive Test (CAT) come possibile approccio alla creazione di test che si adattano alle abilità riconosciute al soggetto. In
questo contesto, il contributo presenta la realizzazione di un gioco-quiz riguardante
argomenti di cultura generale che utilizza i modelli della Item Response Theory per
creare un test adattivo. Il quiz-gioco è stato sottoposto ad un test con gli utenti che
hanno condiviso il risultato fornito dal test.
Keywords
Computer Adaptive Test, Item Response Theory, MOOCs.
2
Rossano,Pesare,Roselli
Introduzione
La valutazione dell’apprendimento è uno dei temi centrali nel campo
dell’educazione,inparticolarmodonegliultimianniconl’evoluzionedelletecnicheperl’e-learning.InuovimodellidiinsegnamentoadottaticoniMOOC(MassiveOpenOnlineCourses)(Kennedy2014,Liyanagunawardenaetal.,2013),infatti,richiedonol’ideazionedinuovistrumenticheconsentanodifarevalutazioni
efficientiedaffidabiliancheconunavastaplateadifruitori.
Inletteratura,lediversesoluzionipropostevannodall’integrazionedimisure
qualitative (Admiraal et al., 2015, Muñoz-Merino, 2015), che consentono al docentediavereunquadropiùcompletodelfruitorepoichéconsideranoanchele
interazioniconlerisorseeleattivitàdidattichediuncorsoonline,alladefinizionedistrumentiche,partendodaidatiditracciamentodeisistemidie-learning,
forniscano la visualizzazione di informazioni dettagliate sul percorso compiuto
dallostudentenelcorso(Pesareetal.,2015,Siemens,2012).
Un’altra strategia può essere l’adozione del Computerized Adaptive Testing
(CAT)(vanderLinden&Glas,2000,Waineretal.,2000)cheimitailprocessovalutativo messo in atto da un docente durante una prova orale selezionando, in
maniera personalizzata, i quesiti da porre ai fruitori. L’uso del CAT consente di
crearetestchesianoingradodidareunavalutazionequantitativapiùefficacedi
untestrealizzatoutilizzandolaClassicalTestTheory(CTT)conunapopolazione
difruitorimoltoampia.ItestcostruitisecondolaCTT,infatti,presentanolostessonumerodiquesitiatuttiglistudentiegiungonoallamisurazionedell’abilità
mediantelatrasformazionedelnumerodirisposteesatteinunpunteggioglobale (Faraci, 2008). In questo caso, la valutazione ottenuta è fortemente legata al
campionedidomandescelteperiltestche,perquesto,puòesserescarsamente
informativo in contesti in cui la popolazione dei fruitori è molto ampia e non
classificabile,comeèquelladeiMOOC.
UnCATrisolvetaleproblematicaperchépresentauntestcostruitodinamicamentesullabasedelpersonalelivellodiabilitàdellostudentecheinteragiscecon
iltestinunospecificomomento.L’usodelCATconsentelapersonalizzazionedel
testsullabasedellerispostedatedallostudente:laprimadomandapostaèsceltatraquelledimediadifficoltà,ladifficoltàdelladomandasuccessivaèsceltain
base alla risposta data dallo studente. Il calcolo procede per approssimazioni
successiveesiconcludequandoraggiungeilvalorechepresentalamassimaapprossimazione. Questo consente di proporre test di lunghezza variabile: individuareillivellodiconoscenzautilizzandoilminimonumerodidomandenecessarieè,infattitragliobiettiviprincipalidiunCAT.Inoltre,l’effettocollateraleèla
minimizzazionedelsensodifrustrazionecheunostudenteprovaquandoledomandesonootroppofaciliotroppodifficili.Duesoggetti,unomoltobravoeuno
meno, risponderanno, in termini percentuali, correttamente allo stesso numero
didomandeperchéledomandepostealsoggettopiùbravosarannopiùdifficili
diquellepostealsoggettomenobravo.
ComputerAdaptiveTestperlavalutazionedell’apprendimentonell’e-learning3
Laricercadegliautorisiproponedivalutarel’applicabilitàdeitestadattivial
particolarecontestodeiMOOC.QuestostudioèvoltoafamiliarizzareconlateoriaeletecnichedelCATeproponeunprototipoditestadattivosuargomentidi
culturagenerale.Unavoltaperfezionatol’algoritmodautilizzare,sipotràprocedereallarealizzazionediuntestadattivosuspecificiMOOC.
ComputerAdaptiveTest:processodicostruzionediuntest
Comegiàanticipatol’obiettivoprincipalediunCATèquellodidefiniredinamicamente la composizione di un test adattando la sequenza dei quesiti (item)
alle capacità riconosciute all’utente. In generale, il processo di costruzione del
testèiterativo:
• Passo zero: stima iniziale delle conoscenze del soggetto;
• Passo uno: si esaminano tutti gli item disponibili e si determina quale sia il migliore da somministrare in base al livello corrente riconosciuto al soggetto;
• Passo due: item selezionato è somministrato e l’esaminato risponde;
• Passo tre: in base alla riposta fornita si stima il nuovo livello di conoscenza del
soggetto.
Ipassiuno,dueetresonoripetutifinoaquandoillivellodiconoscenzacorrettononèindividuato.
Unodeimaggioriproblemiperlacostruzionedeltest,èladefinizionedellivellodiconoscenzainizialedariconoscereall’utente.Questo,puòessereassimilato
al problema del “cold start” delle tecniche di raccomandazione collaborative
(Schaferetal.,2000)e,comeperesse,puòessererisoltointegrandoinformazioni provenienti da altre fonti. Una soluzione può essere, per esempio, quella di
chiedere all’utente di autovalutare la propria conoscenza e, in base alla sua risposta,scegliereopportunamentelaprimadomandadaporre.Perevitarediesseretroppoinvasivi,ilproblemapuòessererisoltoscegliendodisomministrare
come primo quesito un item di media difficoltà (normalmente indicato come
itemdipartenza).Sullabasedellarispostasistimailnuovolivellodiabilità:sela
rispostaècorrettalanuovastimasaràpiùalta,piùbassaaltrimenti.L’algoritmo
prosegueproponendoadognipassounitemdidifficoltàpariallivellodiabilità
stimato e aggiornando la stima del livello di abilità. All’aumentare del livello di
abilitàdellostudente,aumenteràillivellodidifficoltàdegliitemsomministrati.
La somministrazione degli item terminerà quando sarà verificata la condizione
distopprevistadalprogettistadelCAT.Adesempio,unodeipossibilicriterièla
valutazione dell’errore standard di misura (Standard Error Measure, SEM):
quandotaleerroreèinferioreadunasogliaprefissata,illivellodiabilitàsièstabilizzato.
Unaltrovantaggiodiuntestadattivoèlariduzionedelnumerodiquesitie,di
conseguenza,anchelariduzionedeltempoimpiegatoperstimareillivellodiconoscenzadiunsoggetto.Ilmiglioramentoèsostanzialeinterminidiefficienza:
4
Rossano,Pesare,Roselli
unCATèingradodideterminareilpunteggiodiunostudenteriducendolalunghezzadeltestfinoal60%poichéevitadisomministrarequesitipocoopernulla
informativi nella determinazione del punteggio (quesiti troppo facili oppure
troppodifficili).
Per costruire un CAT è necessario prima di tutto classificare la difficoltà di
ciascunitemdellabancadati.Perfarequestolaletteraturanelcampodellapsicologiametricaproponediusaredifferentiapprocci,nellospecificocasoèapplicata la Item Response Theory (IRT) (Baker, 2001, Faraci, 2008, Hambleton &
Swaminathan,1985).
ItemResponseTheory(IRT)
L’ItemResponseTheoryèunapprocciomatematicostatisticoutileperlastimadellaprobabilitàdirisponderecorrettamenteadognisingoloitem,infunzionedellivellodiabilitàpossedutodalsoggettoedialcuniparametripropridegli
item (Baker, 2001, Faraci, 2008, Hambleton & Swaminathan, 1985). Il livello di
abilità di ogni signolo soggetto, detto anche fattore o tratto, è indicato con θ e
rappresentaquellavariabilelatente(nondirettamenteosservabile)cheinfluenzal’andamentodeltestdiognisoggetto.L’IRT,inoltre,presupponechelarisposta ad una domanda sia influenzata anche dalle caratteristiche psicometriche
dell’item somministrato. Tali caratteristiche, o parametri, sono: il livello di discriminazione(a),illivellodidifficoltàdell’item(b)el’incidenzadelcaso,oguessing (c). Esistono diversi modelli dell’IRT che possono essere classificati sia in
funzionedelnumerodiabilitàmisuratedaltest(UnidimensionalioMultidimensionali),siainfunzionedelnumerodiparametripresiinconsiderazione(modelli
auno,dueotreparametri).
Perinostriscopièstatoutilizzatounmodellologisticoa3parametri(3PL)in
cuilaprobabilità,chel’itemihadimisurarel’abilitàθècalcolatadallaformula
(1).
(1)
Perogniitemiealvariaredeltrattolatente(θ)sicostruiscelacurvacaratteristicadell'item(ItemCharacteristicCurve-ICC),cherappresentaladistribuzione delle risposte in funzione della probabilità che soggetti, collocati in diverseposizionideltrattolatente,dianounarispostacorretta.Unavoltacalcolati
i parametri, è possibile calcolare la funzione informativa dell’item (2) (Item InformationFunction-IFF)cheesprimelaprecisioneconcuil’itemmisuraundato
rangediabilitàdelsoggetto.
ComputerAdaptiveTestperlavalutazionedell’apprendimentonell’e-learning5
(2)
Nellaformula(2)Qi(θ)èdefinitocome1-Pi(θ).LostudiodellaIIFèfondamentalenellasceltadell’itemdaselezionaredurantelacostruzionedeltestadattivo,perchèconsentedidefinireperognilivellodiabilitàqualiquesitisonopiù
informativi. Per chiarire meglio, in Figura 1 è mostrato il grafico di una IIF che
mostracomel’itemèsignificativoperunrangediabilitàda1.0a3.5eraggiunge
ilmassimoperθ=2.
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
-4,0-3,5-3,0-2,5-2,0-1,5-1,0-0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0
Figura 1 – Funzione Informativa dell’Item (Item Information Function - IFF)
Permigliorarel’efficaciadeltesteinsiemeottimizzareitempidiesecuzioneè
conveniente selezionare tutti gli item che possiedono una IIF elevata per una
moderataareadiabilità.Perquestoèfondamentalecurareilprocessodicalibrazione che deve prevedere un congruo numero sia di item sia di soggetti che rispondono agli item. Normalmente questo è considerato uno dei maggiori limiti
nell’adozionediunCAT.
QuizMania:unquiz-giococheutilizzailCAT
IlCATèstatoutilizzatoperprogettareedimplementareunquiz-giocoriguardanteargomentidiculturagenerale(storia,geografia,letteraturaescienze)con
l’obiettivodimettereapuntounastrategiaalgoritmicapercreareuntestadattivo.Ilquiz-giocoè,infatti,unpuntodipartenzaperesplorarelapossibilitàdiutilizzare il CAT nell’ambito dei corsi online, e più in particolare dei MOOC. Quiz-
6
Rossano,Pesare,Roselli
maniaèideatoperun’ampiafasciadiutenti,orientativamentedai15anniinsu
consufficienticonoscenzediculturagenerale.Datal’ampiapopolazioneacuisi
rivolge,l’interazioneelanavigazionesonostateprogettateinmanieradaessere
semplicieintuitive.
Processodicalibrazione
Per raccogliere i dati necessari alla stima dei parametri IRT e creare la item
bank, è stata inizialmente realizzata e diffusa online una versione del quiz non
adattiva.L’applicazioneèstatadiffusaattraversoisocialnetworkpersomministrareledomandeadunampionumerodipersone.Sonostateraccolterisposte
da200soggettisuungruppodi30item.Idatisonostatiutilizzatiperavviareil
processodicalibrazioneadottandoilmodelloIRTa3parametrieutilizzandoil
software Param3PL (http://echo.edres.org:8080/irt/param/). La tabella 1 presenta il risultato del processo di calibrazione che ha consentito di definire i tre
parametriperogniitem.
Tabella 1 – Esempio di risultato del processo di calibrazione: parametri calcolati per i
primi 4 item.
Item
1
2
3
4
…
Parametroa
(Discriminazione)
0.376
0.166
0.786
0.134
…
Parametrob
(Difficoltà)
-1.829 0.146
-0.711 5.000
…
Parametroc
(Guessing)
0.000
0.000
0.104
0.416
…
TaliparametrisonostatiusatipercalcolareilvalorediP(θ)edellafunzione
IIF(Tabella2)utileallaselezionedeiquesitiperlacomposizionedell’itembank.
Tabella 2 – Esempio di Funzione Informativa per ogni Item.
Item
MAX1(IIF)
Livellodiabilitàincuiricade
MAX(IIF)
1
0.035
-2
2
0.006
0
3
0.120
-1
4
0.259
3
…
---
….
Il processo di calibrazione degli item, inoltre, ha consentito di definire per
ognilivellodidifficoltànappartenenteall’intervallo[-5,5],laprobabilitàP(θm)
cheunutenteconlivellodiabilitàmrispondacorrettamentealladomandapro-
ComputerAdaptiveTestperlavalutazionedell’apprendimentonell’e-learning7
posta.Atitolopuramenteesemplificativo,intabella3sonofornitiidatirelativi
allevarieP(θm)delledomandeclassificateconlivellodidifficoltà0.
Tabella 3 – Probabilità di risposta corretta per ogni livello di abilità del soggetto rispetto
al livello di difficoltà della domanda
Difficoltà P
domanda (θ-5)
P
P
P
P
P
P
P
P
P
P
(θ-4)
(θ-3)
(θ-2)
(θ-1)
(θ0)
(θ1)
(θ2)
(θ3)
(θ4)
(θ5)
liv(0)
0,36
0,4
0,44
0,48
0,57
0,6
0,61
0,65
0,66
0,7
0,32
Algoritmodiselezioneecalcolodelpunteggio
L’algoritmodicreazionedeltestvieneavviatoconunastimaneutradelvalore
diabilità:alprimopassosiassociaalsoggettounvalorediabilitàparia0(valore
mediodell’intervallodiabilitàutilizzato)esiproponeunitemdimediadifficoltà.
Isuccessivitrequesitimiranoafocalizzareilrangediabilitàpiùvicinoallereali
competenzedell’utente.Iquesitisuccessivimiranoalla“conferma”delrangedi
abilitàdimostratodall’utentedurantel’interazione.Quandoillivellodidifficoltà
delladomandasistabilizzailtestterminaconungiudiziocomplessivovisualizzatosecondoiseguenticomunicriteridigiudizio:
•
•
•
•
•
"SCARSO", se il livello di abilità raggiunto è compreso tra [-5, -3]
"MEDIOCRE", se il livello di abilità raggiunto è compreso tra ]-3, -1]
"SUFFICIENTE", se il livello di abilità raggiunto è compreso tra ]-1, 1]
"BUONO", se il livello di abilità raggiunto è ]1, 3]
"OTTIMO", se il livello di abilità raggiunto è ]3, 5]
Inoltre,poichéilCATrealizzatoèpensatoperessereunquiz-gioco,èstatodefinitoancheunmodellodicalcolodelpunteggiocheconsenteall’utentediaccumulare punti per ogni partita giocata e scalare la classifica dei giocatori. Le rispostedell’utenteadogniquesitocontribuirannoalcalcolodelpunteggioinmanieradifferenteasecondadellivellodiabilitàedellivellodidifficoltàdelladomanda. Il punteggio attribuito ad ogni quesito, infatti, aumenta o diminuisce in
basesiaall’esitodellarispostasiaallivellodiabilità(θ)raggiuntodall’utente.Se
unutenteconlivellodiabilitàmrispondeaunadomandadilivellonilpunteggio
parzialeassegnatoallarispostadiminuiràoaumenteràindipendenzadelvalore
che si trova all’incrocio della tabella 3 liv(n)/ P(θm). Nel dettaglio, il calcolo del
punteggioparzialeavvienecomediseguitoindicato:
• 1 + (1 - P(θm)), in caso di risposta corretta
• -1 * P(θm), in caso di risposta errata
Supponendoperesempiom=-2en=0ilpunteggiosarà:1,56incasodirispostacorrettae-0,44incasodirispostaerrata.Aparitàdellivellodidifficoltàdella
8
Rossano,Pesare,Roselli
domanda(n)eall’aumentaredellivellodiabilitàdellostudente(m),ipunteggi
parzialiincasodirispostacorrettaeincasodirispostaerratasarannorispettivamente più piccolo di 1,56 e più alto di -0,44. Questo perché è plausibile che
all’aumentare del livello di abilità dello studente sia più alta la probabilità che
risponda correttamente e quindi diminuirà la premialità; aumenterà invece
l’incidenzadiun’eventualerispostaerrata.
Unesempiodiinterazione
Quiz-maniaèstatoprogettatoerealizzatocomeun’applicazionemultimediale
cheinteragisceconundatabaseMySQLdovesonomemorizzatetutteleinformazionirelativeagliutentieaisingoliitem.Questo,daunlato,consenteagliutenti
digiocarenuovamenteemigliorareilpropriolivellodiabilitàe,dall’altro,rende
l’applicazioneadattabileaqualunquealtrocontestooargomento.Perrealizzare
un quiz adattivo sulla programmazione, per esempio, sarà necessario cambiare
ledomandeall’internodeldatabase.Questopresuppone,però,chegliitemsiano
statisottopostiadunprocessodicalibrazione.
Perguidarel’utentedurantel’interazione,èstatorealizzatountutorvirtuale
cheapparecomeunalampadinainbassoadestra(Figura2),l’utentepuòinqualunquemomentochiuderloseritenutoinvasivo.
Figura 2 – Alcune schermate di Quiz-Mania
Perrendereesplicitoillivellodiabilitàriconosciutoall’utentedalsistemadurantel’interazioneconilquiz-gioco,inbassoasinistraèvisualizzataunabatteriacherappresentagraficamenteillivelloraggiunto.Quandol’utenteraggiungereletacchedicoloreverde,significacheilsistemagliriconosceunlivellodiabilitàparialmenoallivelloBuono.Siachel’utentediaunarispostacorretta,siache
l’utentediaunarispostasbagliatailfeedbackèfornitosiautilizzandouncodice
colore che utilizzando espressioni diverse del tutor virtuale. In aggiunta, al ter-
ComputerAdaptiveTestperlavalutazionedell’apprendimentonell’e-learning9
minedeltestunfeedbackconclusivocomunicaall’utenteillivellodiabilitàraggiunto.
Testcongliutenti
Alfinedivalutarelasoluzionerealizzataèstatoeffettuatountestcongliutenti con l’obiettivo di misurarne la soddisfazione. QuizMania è stato utilizzato da
uncampionedi40utentiacuièstatochiestodirispondereadunquestionariodi
soddisfazione d’uso dopo aver utilizzato il gioco. Il questionario è composto da
20domandeperognunadellequalièprevistaunarispostasuunascalaLikerta
5punti.Sonostatepostedomandevolteamisurarelachiarezzadelleinterfacce
edellemodalitàd’uso(Figura3a).Itesthannodimostratochegliutentihanno
espressoungiudiziopositivoinmerito.Perquantoconcernel’aspettodicalibrazione,èstatochiestoagliutentidiesprimereilloroparereriguardoallaqualità
della classificazione delle domande presentate (Figura 3b): 22 utenti sono stati
moltod’accordoconlaclassificazioneeffettuatadalsistema,12sonostatiabbastanzad’accordoe6nonhannoespressoalcunparere.Infine,èstatochiestose
la valutazione finale delle conoscenze attribuita dal sistema fosse conforme a
quanto ciascun utente si aspettava. La maggior parte degli utenti ha ritenuto la
valutazione appropriata e pressoché corrispondente alle reali conoscenze possedute(Figura4).
Figura 3 – Chiarezza delle interfacce e delle modalità d’uso (a); Attendibilità della classificazione delle domande (b)
Conclusioni
Nel contesto dell’e-learning, il tema della valutazione è molto importante e
moltodiscusso.Dalpuntodivistatecnologico,perrendereitestarispostamul-
10
Rossano,Pesare,Roselli
tipla,comunementeusatineipercorsionline,piùinformativiunasoluzionepromettenteèl’usodeiCAT,ovverotestadattivichecostruisconoiltestdinamicamente adattando la difficoltà e il numero di quesiti all’abilità dimostrata
dall’utentedurantel’interazione.Questorendeitestarispostamultiplapiùaffidabilisoprattuttoquandorivoltiadun’ampiapopolazionenonfacilmenteclassificabile, come avviene nella fruizione di MOOC. Una delle problematiche poste
dall’usoditestadattivièlanecessitàdiavereunabancadiitemsignificativa,ovveroènecessariocheesistanoquesitiinformativiperidiversilivellidiabilitàdel
soggetto.Perquestoènecessariosottoporregliitemadunprocessodicalibrazione per una corretta stima dei parametri e tale processo presuppone il coinvolgimentodiuncongruonumerodisoggettiacuisottoporregliitem(Şahina&
Weissb,2015).
Figura 4 – Valutazione finale del gioco
IlcontributoillustraunprimoapproccioconilCATchehaportatoallaprogettazioneerealizzazionediunquiz-gioco.Persuperareilproblemadellanumerositàdelcampione,labancadegliitemècostruitasuargomentidiculturagenerale(storia,geografia,letteraturaescienze).Quiz-maniaèstatoanchetestatocon
uncampionediutentiperrilevareeventualiproblemidiinterazioneeavereuna
primamisuradell’attendibilitàdellavalutazioneeffettuatadaltest.Infuturo,per
avere una misura della reale efficacia del test, sarà indispensabile aumentare il
numero di utenti e realizzare un test sperimentale che misuri la differenza tra
l’uso di un test CAT e un test realizzato secondo la CTT. Lo studio, inoltre, potrebbe confrontare anche la valutazione del CAT con la valutazione fatta da un
docentedurantelaprovaorale.
Riferimenti bibliografici
ADMIRAAL, W., HUISMAN, B., & PILLI, O. (2015), ASSESSMENT IN MASSIVE OPEN ONLINE COURSES.
ELECTRONICJOURNALOFE-LEARNING,13(4),207-216.
ComputerAdaptiveTestperlavalutazionedell’apprendimentonell’e-learning11
BAKER F.B. (2001), THE BASICS OF ITEM RESPONSE THEORY, ERIC CLEARINGHOUSE ON ASSESSMENT
ANDEVALUATION,WASHINGTON,AVAILABLEATHTTP://ERICAE.NET/IRT/BAKER.
DE LUCA, A. M., & LUCISANO, P. (2014), ITEMANALISITRAMODELLOEREALTÀ.ITALIAN JOURNAL OF
EDUCATIONALRESEARCH,(7),85-96.
FARACI, P. (2008), L’ITEM RESPONSE THEORY NELLA COSTRUZIONE DEGLI STRUMENTI
PSICOMETRICI.ITEMS,LANEWSLETTERDELTESTINGPSICOLOGICO,10(10),1-8.
HAMBLETON, R. K., & SWAMINATHAN, H. (1985), ITEM RESPONSE THEORY: PRINCIPLES AND
APPLICATIONS(VOL.7).SPRINGERSCIENCE&BUSINESSMEDIA.
KENNEDY, J. (2014), CHARACTERISTICS OF MASSIVE OPEN ONLINE COURSES (MOOCS): A RESEARCH
REVIEW,2009-2012.JOURNALOFINTERACTIVEONLINELEARNING,13(1).
LIYANAGUNAWARDENA,T.R.,ADAMS,A.A.,&WILLIAMS,S.A.(2013),MOOCS:ASYSTEMATICSTUDY
OF THE PUBLISHED LITERATURE 2008-2012.THE INTERNATIONAL REVIEW OF RESEARCH IN OPEN
ANDDISTRIBUTEDLEARNING,14(3),202-227.
MUÑOZ-MERINO, P. J., RUIPÉREZ-VALIENTE, J. A., ALARIO-HOYOS, C., PÉREZ-SANAGUSTÍN, M., &
KLOOS, C. D. (2015), PRECISE EFFECTIVENESS STRATEGY FOR ANALYZING THE EFFECTIVENESS OF
STUDENTS WITH EDUCATIONAL RESOURCES AND ACTIVITIES IN MOOCS.COMPUTERS IN HUMAN
BEHAVIOR,47,108-118.
PESARE,E.,ROSELLI,T.,ROSSANO,V.,&DIBITONTO,P.(2015),DIGITALLYENHANCEDASSESSMENTIN
VIRTUALLEARNINGENVIRONMENTS.JOURNALOFVISUALLANGUAGES&COMPUTING,31,252-259.
SCHAFER, J. B., FRANKOWSKI, D., HERLOCKER, J., & SEN, S. (2007), COLLABORATIVE FILTERING
RECOMMENDERSYSTEMS.THEADAPTIVEWEB(PP.291-324).SPRINGERBERLINHEIDELBERG.
SIEMENS, G. (2012), LEARNING ANALYTICS : ENVISIONINGA RESEARCH DISCIPLINEANDA DOMAINOF
PRACTICE. 2ND INTERNATIONAL CONFERENCE ON LEARNING ANALYTICS & KNOWLEDGE, (MAY),
PP.4–8.AVAILABLEAT:HTTP://DL.ACM.ORG/CITATION.CFM?ID=2330605.
ŞAHINA, A., & WEISSB, D. J. (2015), EFFECTSOF CALIBRATION SAMPLE SIZEAND ITEM BANK SIZEON
ABILITY ESTIMATION IN COMPUTERIZED ADAPTIVE TESTING. EDUCATIONAL SCIENCES: THEORY &
PRACTICE,6,1585-1595.
VANDERLINDEN,W.J.,&GLAS,C.A.(EDS.).(2000),COMPUTERIZEDADAPTIVETESTING:THEORYAND
PRACTICE.DORDRECHT:KLUWERACADEMIC.
WAINER, H., DORANS, N. J., FLAUGHER, R., GREEN, B. F., & MISLEVY, R. J. (2000), COMPUTERIZED
ADAPTIVETESTING:APRIMER.ROUTLEDGE.
Ringraziamenti
Si ringrazia Maria Magliulo, che ha realizzato Quiz Mania nella sua tesi di
laurea triennale e tutti coloro che hanno partecipato ai test.