EMEA_Student Response Systems Whitepaper_IT.indd

Transcript

EMEA_Student Response Systems Whitepaper_IT.indd
Usare i Sistemi di Risposta per
Studenti per migliorare i risultati
scolastici
Karen L. Mahon, Ed.D.
Usare i Sistemi di Risposta per Studenti per
migliorare i risultati scolastici
Per me è stata come una rivelazione… per la prima volta in oltre 20 anni
di insegnamento mi sono resa conto… che più della metà della classe
“non capiva”… Poiché avevo già spiegato l’argomento il più chiaramente
possibile ho semplicemente chiesto agli studenti di discuterne tra di loro
per vedere chi di loro sarebbe riuscito a convincere gli altri interlocutori
della validità della propria risposta. Ne è scaturita un’animata conversazione. Dopo pochi minuti, ho chiesto di “rivotare” e oltre il 90% della
classe ha dato la risposta giusta… (Wood, 2004)
In una recente ricerca i Sistemi di Risposta per Studenti (SRS) vengono descritti come strumenti funzionali a quella che comunemente è definita “partecipazione attiva” o “risposta attiva
dello studente”. Un sistema di risposta per studenti è una tecnologia che “consente al docente di
porre una domanda o un problema alla classe; permette agli studenti di rispondere tramite un
dispositivo e immediatamente raccoglie e riassume al docente le risposte degli studenti“ (Beatty, 2004; Burnstein & Lederman,2003; English, 2003). Questi sistemi, in un modo o nell’altro,
hanno sempre fatto parte della didattica. Come sottolinea Caldwell (2007) “L’idea che sta alla
base degli SRS non è nuova – da almeno i tempi di Socrate i docenti hanno sempre utilizzato un
sistema di insegnamento basato su domande educative e interattive” (p. 11). Perfino il semplice
alzare le mani rappresenta un metodo di risposta per studenti.
Da sempre gli educatori riconoscono che i metodi che consentono di selezionare risposte simultaneamente favoriscono una maggiore partecipazione del singolo studente. Sebbene i primi
sistemi fossero un po’ più avanzati dell’alzata di mano, non si differenziavano di molto. Un
metodo molto comune era l’utilizzo di un cartoncino colorato. Questo sistema funzionava soprattutto per le domande a scelta multipla: gli studenti alzavano il cartoncino del colore corrispondente alla risposta scelta e l’insegnante poteva così vedere facilmente la serie di risposte.
I sistemi tecnologici che permettono di rispondere individualmente alle domande sono entrati in commercio negli anni ‘60. All’inizio, questo tipo di strumento veniva utilizzato per registrare le risposte del pubblico a film e programmi televisivi pilota. Una delle prime applicazioni di questa tecnologia nel campo della didattica è stata realizzata alla Rice University (Lane
& Atlas, 1996), dove gli studenti in una classe attrezzata con computer dovevano rispondere a
domande relative alla comprensione di alcune parti della lezione, calcolati i risultati venivano
poi mostrati alla classe.
Da allora la tecnologia si è evoluta, passando da hardware con cavi ingombranti a strumenti
wireless e portatili in combinazione con software, rendendo così più facile l’integrazione del
processo per gli utenti. Con l’avvento di sistemi più semplici, l’utilizzo di questi strumenti si è
diffuso in molteplici discipline quali scienze, matematica, business, scienze informatiche, didattica, ingegneria, inglese, professioni sanitarie, legge, scienze politiche, psicologia e altro ancora.
“Sfortunatamente, nella maggior parte dei casi l’uso della tecnologia nel campo della didattica
consiste in una mera implementazione di vecchi metodi, e pertanto la tecnologia non rappresenta quella panacea che credevamo che fosse”. (Mazur, 2009).
2
mimio.dymo.com
Cercheremo ora di ripercorrere la storia di questi strumenti, raccontandone le implementazioni
di successo.
Stato dell’arte e Ricerca
A metà 2011, negli Stati Uniti, in circa il 30% dei distretti scolastici è stata avviata una
considerevole implementazione degli SRS. Sia gli studenti che gli insegnanti si divertono ad
utilizzarli preferendoli alle lezioni tradizionali e non-interattive (Cutts, et al. , 2004; Draper et
al., 2002; d’Inverno et al., 2003; McDermott & Redish, 1999; Nicol & Boyle, 2003), ed è inoltre
stato provato che gli SRS migliorano il risultato scolastico degli studenti (Caldwell, 2006; Draper
& Brown, 2004; Knight & Wood, 2005). In più, la ricerca suggerisce che l’utilizzo giornaliero
dell’ SRS contribuisce ad aumentare le presenze in classe, in modo particolare quando la
partecipazione alle lezioni interattive procura crediti formativi (Burnstein & Lederman, 2001;
Cue, 1998; Hake,1998).
E’ importante ricordare, come Beatty e Gerace (2009) sottolineano, che
non bisogna confondere la tecnologia con la pedagogia quando si parla
dell’utilizzo degli SRS: “Come qualsiasi strumento, gli SRS potrebbero
essere utilizzati in molteplici modi per molteplici fini” (p.147). L’uso di
questo strumento però non garantisce i risultati positivi degli studenti
Infatti Beatty e Gerace tengono a specificare:
Noi sosteniamo che gli strumenti dovrebbero essere valutati secondo le loro affordance, mentre gli approcci e le metodologie in base al loro impatto sullo studente. In altre parole, non
chiedete quale sarà l’aumento del livello di apprendimento utilizzando gli SRS; chiedete quale
tipo di approccio pedagogico l’ SRS può supportare o migliorare e quali saranno gli impatti
sull’apprendimento (p.147).
L’SRS può essere utilizzato per alternare con domande una lezione
altrimenti tradizionale, interrogare gli studenti sulla comprensione
o mantenere viva l’attenzione. In questo modo però non si sfrutta il
potenziale del sistema. Per ottenere dei reali benefici da un SRS, un
educatore deve ripensare totalmente al proprio modello pedagogico e al
ruolo che il tempo classe ricopre all’interno di esso e utilizzare gli SRS
come parte integrante di un tutto (p. 3-4).
Noi concordiamo con questa tesi e cercheremo in questo contesto di illustrare alcune linee
guida sulle pratiche pedagogiche che sono state riconosciute particolarmente efficaci.
mimio.dymo.com
3
L’istruzione tra pari
L’istruzione tra pari (o collaborativa) di Eric Mazur (Peer Instruction, 2007) è una tecnica di
insegnamento che prevede l’inserimento di domande a scelta multipla, in quello che l’autore
definisce “frangente strategico”, durante le lezioni di fisica. Viene quindi richiesto agli studenti
di scegliere una risposta tramite l’alzata di mano, le flash cards o l’SRS. Se un certo numero di
studenti risponde a una domanda in modo non corretto, viene chiesto al gruppo di interrompere
la lezione, discutere fra di loro dell’argomento e poi rispondere nuovamente alla domanda.
Riferisce Mazur (1996): “La percentuale di studenti che sceglie la risposta corretta aumenta
sempre dopo la discussione” (p.14). E specifica (2009): “I dati ottenuti nella mia classe e nelle
classi dei colleghi in tutto il mondo, in molteplici ambienti accademici e discipline, mostrano
che gli aumenti del livello di apprendimento arrivano a triplicarsi con un approccio focalizzato
sullo studente e sull’insegnamento interattivo“ (p.51).
L’affermazione che sostiene che l’aumento di interazione dello studente e di feedback
incrementano il livello di comprensione degli studenti (Crouch & Mazur, 2001; Fagen et al.,
2002; Mazur, 1997) viene supportata dalle prove evidenti ottenute dall’utilizzo di SRS in corsi
di laurea di scienze di primo livello in molteplici discipline (e.g., Hestenes et al. 1992; Smith,
Wood, et al. 2009). Più esplicitamente questa affermazione non indica che l’utilizzo degli SRS sia
l’elemento determinante per il miglioramento dei risultati degli studenti benché alcuni credano
che la disponibilità di questi strumenti favorisca l’utilizzo del metodo dell’istruzione tra pari
(Burnstein & Lederman, 2001; Burnstein & Lederman, 2003).
Assessing-to-Learn (A2L)
In uno studio indipendente, l’Università del Massachusetts Physics Education Research Group
(UMPERG), nel 1993 ha sviluppato un metodo simile all’utilizzo degli SRS in classe. Questo
sistema, chiamato Assessing-to-Learn o A2L, (Valutare per apprendere) include esplicitamente
delle valutazioni formative. Dufresne et al (2000) sostengono che questa pratica “informa gli
insegnanti su quello che pensano gli studenti; gli studenti su ciò che pensano i loro compagni;
e infine il singolo su quello che lui stesso pensa (p. 11)”. Simile al metodo di Mazur, l’A2L di
Dufresne presenta cicli di domande dove gli studenti dopo aver letto le domande ne discutono
in piccoli gruppi, scelgono le risposte ed esaminano i risultati. Al contrario del sistema di Mazur,
che include una presentazione del docente alternata a domande, nell’A2L il ciclo di domande è
il nocciolo dell’attività di classe; le esposizioni dell’insegnante vengono solo aggiunte, quando
necessarie.
Deliberate Practice
Forse il più interessante studio condotto di recente che analizza l’utilizzo degli SRS è stato
realizzato nel 2011 alla University of British Columbia (Deslauriers et al.). In questa ricerca
sono stati messi a confronto due gruppi di studenti. Le condizioni di base del corso dalla prima
all’undicesima settimana prevedevano che sia il gruppo sperimentale che quello di controllo
ricevessero lezioni da un docente di comprovata esperienza della facoltà; le domande con gli
SRS venivano utilizzate come valutazioni sommative e i crediti formativi assegnati in base alle
risposte. Nella dodicesima settimana il gruppo di controllo ha continuato a seguire il corso base
4
mimio.dymo.com
mentre il gruppo sperimentale è stato assegnato a un collega che aveva conseguito il dottorato
di ricerca e utilizzava metodi di insegnamento basati su ricerche sull’apprendimento. Questi
metodi, conosciuti come deliberate practice (pratica intenzionale) richiedevano agli studenti
di svolgere esercizi di ragionamento cognitivo e di problem solving durante il tempo classe
mentre ricevevano frequenti feedback (p.862). Gli studenti effettuavano una pre-lettura fuori
dalla classe, spostando il “semplice transfer della conoscenza reale” al di fuori della classe, e
passavano il tempo classe lavorando sulle attività e i compiti assegnati con feedback dai compagni
e dall’insegnante. Le domande con gli SRS venivano usate come valutazioni formative di classe,
seguite da discussioni e problem solving.
I risultati dell’esperimento dell’ultima settimana non hanno mostrato mutamenti di
coinvolgimento o di frequenza nel gruppo di controllo. Al contrario nel gruppo sperimentale
il coinvolgimento degli studenti è quasi raddoppiato e la frequenza è aumentata del 20%.
Ancora più importante, il gruppo sperimentale ha raggiunto un livello di apprendimento due
volte maggiore rispetto al gruppo di controllo con uno scarto fra i due gruppi di 2.5 punti. E’
fondamentale notare che entrambe le sessioni hanno utilizzato gli SRS ma in maniera molto
differente.
Un suggerimento sull’utilizzo di questi metodi arriva da Perez et al. (2010) che ci consiglia di
fare attenzione a non mostrare alla classe i grafici con i risultati delle votazioni. Infatti Perez
et al. hanno riscontrato che “se gli studenti analizzano il grafico (con i risultati della prima
votazione) sono più inclini (30%) a passare da una risposta meno comune a una più comune.”
Il fenomeno è più accentuato nelle domande vero/falso (38%) rispetto alle domande a scelta
multipla (28%). Questa tendenza a scegliere la risposta più frequente si presenta anche quando
la risposta non è corretta. Questi risultati suggeriscono che conoscere a priori le risposte più
frequenti a una domanda può influenzare una seconda votazione dello studente.
Perché l’utilizzo degli SRS migliora i risultati
degli studenti?
La domanda più frequente sull’uso degli SRS non è tanto sapere se portano a un miglioramento
dei risultati dello studente, ma il perché. Sebbene le ricerche disponibili ad oggi sull’uso degli
SRS non siano abbastanza convincenti, ci sono due fattori importanti che da tempo sono stati
riconosciuti come fondamentali nella letteratura dell’apprendimento: aumentare le possibilità
di risposta per gli studenti e il ruolo dei feedback nell’istruzione.
Aumentare le possibilità di risposta
Barnett (2006) afferma che gli SRS sono “uno strumento che permette l’interattività“ (p.2). Diversi metodi che aumentano la frequenza di risposta attiva dello studente hanno dimostrato
miglioramenti nei risultati accademici (Narayan et al., 1990). Tra questi citiamo class-wide
peer tutoring (Cooke et al., 1983; Delquadri et al., 1986), computer-assisted instruction (Balajthy,1984; Stallard, 1982; Tudor & Bostow, 1991), self-directed learning (Kosiewicz et al, 1982),
use of response cards (Cooke et al., 1983; Heward et al., 1996; Munro & Stephenson, 2009),
choral responding (Heward et al., 1989; Sindelar et al., 1986), timed trials (Van Houten et al.,
mimio.dymo.com
5
1974; Van Houten & Thompson, 1976), and guided lecture notes (Kline, 1986; Lovitt et al.,
1985; Yang, 1988). In tutti i casi il metodo ha sempre lo stesso fine e cioè aumentare la risposta
attiva dello studente. E’ solo la tattica utilizzata che cambia.
Il ruolo dei feedback nell’istruzione
I dati prestazionali generati dalle risposte attive degli studenti offrono un’opportunità di
feedback sia per gli studenti che per i docenti. Che i feedback modifichino il comportamento
è un dato di fatto che è stato accettato per anni nella didattica e adesso è parte del giudizio
comune. La ricerca sull’apprendimento che attribuisce un ruolo importante ai feedback nel
cambiamento comportamentale risale a circa 40 anni fa e coinvolge una vasta gamma di settori
quali il consumo di energia (Bekker et al., 2010; Seaver & Patterson, 1976), le procedure di
controllo delle infezioni (Babcock et al.,1992), l’addestramento al volo (Rantz et al., 2009; Rantz
& Van Houten, 2011), le abilità sportive (Boyer et al., 2009; Brobst & Ward, 2002; Smith &
Ward, 2006), il comportamento degli educatori (Cossairt et al., 1973; Harris et al., 1975), e i
lavori accademici dello studente (Fink & Carnine, 1975; Martin et al.,2002; Reichow & Wolery,
2011; Trap et al., 1978; Van Houten et al., 1974). La quantità di dati forniti riguardo l’aumento
delle risposte attive degli studenti dà al docente una maggiore consapevolezza dei problemi
degli studenti (Johnson & McLeod, 2004; Roschelle et al., 2004a, 2004b; Knight & Wood, 2005)
e pertanto maggiori occasioni per modificare il metodo di insegnamento in base ai bisogni dei
propri allievi.
Benefici dell’high tech versus la
bassa tecnologia
E’ vero che non c’è nulla che dimostri che l’utilizzo di un SRS automatico sia migliore o comunque
più efficace di un metodo a bassa tecnologia (e.g., Lasry, 2008), proprio come è altrettanto vero
che esistono numerosi sistemi che permettono comunque un aumento di risposte attive degli
studenti e di possibilità di feedback associati. Infatti Judson e Sawada (2002) affermano che
gli strumenti moderni non sono molto diversi dai sistemi a bassa tecnologia, tranne che per
il display delle risposte degli studenti e la facilità di mantenere lo storico, e che, adesso come
allora, le domande a scelta multipla rimangono il format più comune di interazione per lo
studente. Quindi se le soluzioni high tech non sono più efficaci di quelle a bassa tecnologia,
perché spendere soldi in questi nuovi strumenti? La risposta è semplice in quanto l’uso degli
SRS high tech presenta comunque dei vantaggi che altrimenti non si avrebbero con i sistemi a
bassa tecnologia. Di seguito i 4 vantaggi più importanti:
Il vantaggio principale è che l’utilizzo degli SRS high tech permette la raccolta automatica dei
dati relativi alle risposte dello studente, salvandoli in un registro incorporato nel software. I dati
possono essere esaminati in un secondo momento dall’insegnante, permettendo di valutare la
prestazione di ogni singolo studente, identificare le eventuali aree di difficoltà e programmare
un piano di recupero. Non solo sarebbe impossibile una raccolta di dati automatica con un
sistema a bassa tecnologia, ma sarebbe troppo faticoso e dispendioso in termini di tempo
registrare le risposte manualmente con una soluzione low tech, come ad esempio con le flash
cards. Inoltre non si può più definire semplice un metodo di valutazione se i dati devono essere
raccolti manualmente.
6
mimio.dymo.com
Il secondo importante vantaggio è rappresentato dalla facilità di implementazione e la comodità
di raccolta dei dati che permette agli insegnanti di poter pianificare attività nella classe con
molteplici possibilità di risposta. Progettare queste attività può portare via tempo e, se il loro
utilizzo comporta una difficile gestione e raccolta dati, l’interesse verso queste attività tende a
scemare.
Il terzo vantaggio consiste nel fatto che gli SRS high-tech permettono a ciascun studente di
avere feedback immediati. Barnett (2006) afferma che “uno dei principali motivi di interesse
verso questo sistema è la possibilità di dare veloci feedback agli studenti.” Al contrario degli
strumenti a bassa tecnologia, nei quali gli studenti ricevono i feedback dagli insegnanti, con gli
SRS high tech ogni studente ha un immediato feedback dal sistema stesso. Una metodologia che
permette feedback automatici su base individuale rende il suo utilizzo molto più semplice per
gli insegnanti della classe.
Infine Barnett afferma che gli SRS high tech consentono un aumento del livello di partecipazione da parte di uno studente normalmente timido e reticente. Mentre un approccio a bassa
tecnologia richiede un’azione esplicita, ad es. rispondere oralmente o alzare la mano, l’utilizzo
di SRS high tech consente ad ogni studente di rispondere al sistema in modo anonimo senza
essere osservato direttamente dai propri compagni. L’insegnante, tuttavia, potrà individuare le
risposte di ogni singolo studente attraverso i dati memorizzati nel registro, ma lo studente non
dovrà più temere di sentirsi imbarazzato nel caso selezionasse una risposta sbagliata.
Conclusioni
I Sistemi di Risposta per Studenti (SRS) sono strumenti funzionali alla partecipazione attiva
e alla continua valutazione formativa degli studenti. Estremamente versatili, gli SRS possono
essere utilizzati simultaneamente con gruppi numerosi, con piccoli gruppi che lavorano in
collaborazione o con singoli allievi. Se utilizzati secondo un attento progetto pedagogico, gli
SRS possono fornire dei risultati immediatamente riscontrabili nelle prestazioni dello studente.
Di seguito sono state selezionate alcune best practices che aiuteranno a garantire un successo
assicurato nell’utilizzo degli SRS.
Queste linee guida si sono rivelate particolarmente utili quando si
utilizzano gli SRS durante la lezione:
1. Ricordate che gli SRS dovrebbero essere utilizzati principalmente per valutazioni
formative. Le maggiori possibilità di valutare il risultato ottenuto dagli studenti
permettono di correggere in tempo reale il metodo formativo.
2. Inserite solo quelle domande pertinenti agli obiettivi di apprendimento dello studente;
non utilizzate domande discutibili o irrilevanti.
3. Integrate con domande le lezioni così che la comprensione dello studente possa essere
valutata frequentemente e regolarmente. Lasciare tutte le domande alla fine della lezione
non permette di apportare eventuali correttivi in itinere.
mimio.dymo.com
7
4. Quando lavorate sull’acquisizione di nuove competenze, inserite un certo numero di
domande con esempi originali per essere sicuri che gli studenti stiano acquistando
sufficiente pratica e possibilità di generalizzare.
5. Fate attenzione a non suggerire una risposta attraverso indicazioni inappropriate, ad
esempio usando schemi o formulazioni delle domande dai quali si possa desumere la
risposta corretta.
6. Se inserite delle voci nelle quali lo studente deve identificare la risposta che NON
corrisponde, scrivete la parola “NON” in maiuscolo e in grassetto, in modo che sia più
chiaro possibile.
7. Assicuratevi che la risposta corretta sia chiaramente la migliore, ma prendete in
considerazione possibili risposte alternative. L’obiettivo non è prendersi gioco degli
studenti ma utilizzare le domande per valutare la consegna che gli allievi hanno ricevuto.
8. Utilizzate un font piuttosto grande per la domanda per essere sicuri che gli studenti
riescano a leggerla facilmente.
9. Accertatevi di avere rivisto e analizzato i dati alla fine della lezione. Esaminando i modelli
di quello che è risultato utile e quello meno utile, potrete sicuramente migliorare le
consegne per la volta successiva!
10. Se volete aumentare l’interesse per le vostre lezioni, usate gli SRS tutti i giorni.
11. Non esitate a eliminare o riformulare domande che non sono chiare.
Per saperne di piu’ sul sistema di valutazione
MimioVote, visitate il sito
mimio.dymo.com/Products/MimioVote-Assessment-System
8
mimio.dymo.com
Dottoressa Karon Mahon
La dottoressa Karen Mahon è laureata in psicologia educativa ed è un’esperta nel campo
dell’apprendimento. E’ consulente presso società tecnologiche per la didattica e sviluppa
progetti didattici e a contenuto digitale. In particolare si occupa della didattica che produce
risultati misurabili e significativi del livello di apprendimento degli studenti e ha dedicato la
sua carriera a supportare in questo senso i bambini e i loro insegnanti. Il blog della dottoressa
Mahon è www.KarenMahon.com e si trova su twitter all’indirizzo @KarenLMahon.
Referenze
1. Babcock, R.A., Sulzer-Azaroff, B., Sanderson, M., & Scibak, J. (1992). Increasing nurses’ use
of feedback to promote infection-control practices in a head-injury treatment center. Journal of
Applied Behavior Analysis, 25(3), 621-627.
2. Balajthy, E. (1984). Using student-constructed questions to encourage active reading, Journal of
Reading, 27(5), 408–411.
3. Barnett, J. (2006). Implementation of personal response units in very large lecture classes:
Student perceptions. Australasian Journal of Educational Technology, 22(4), 474-494.
4. Beatty, I.D. (2004). Transforming student learning with classroom communication systems.
Educause Center for Applied Research, Research Bulletin, 3, 1-13.
5. Beatty, I.D. & Gerace, W.J. (2009). Technology-enhanced formative assessment: A researchbased pedagogy for teaching science with classroom response technology. Journal of Science
Education Technology, 18, 146-162.
6. Bekker, M.J., Cumming, T.D., Osborne, N.K.P., Bruining, A.M., McClean, J.I., & Leland, L.S. (2010).
Encouraging electricity savings in a university residential hall through a combination of feedback,
visual prompts, and incentives. Journal of Applied Behavior Analysis, 43(2), 327-331.
7. Boyer, E., Miltenberger, R.G., Batsche, C., & Fogel, V. (2009). Video modeling by experts with
video feedback to enhance gymnastics skills. Journal of Applied Behavior Analysis, 42(4), 855-860.
8. Brobst, B. & Ward, P. (2002). Effects of public posting, goal setting, and oral feedback on the
skills of female soccer players. Journal of Applied Behavior Analysis, 35(3), 247-257.
9. Burnstein, R.A. & Lederman, L.M. (2001). Using wireless keypads in lecture classes. The Physics
Teacher, 39, 8-11.
10. Burnstein, R.A. & Lederman, L.M. (2003). Comparison of different commercial wireless keypad
systems. The Physics Teacher, 41, 272-275.
11. Caldwell J., Zelkowski J., Butler M. (2006). Using Personal Response Systems in the
Classroom. WVU Technology Symposium; April 11, 2006; Morgantown, WV.
mimio.dymo.com
9
12. Caldwell, J.E. (2007). Clickers in the large classroom: Current research and best-practice tips.
Life Sciences Education, 6(1), 9-20.
13. Cooke, N. L., Heron, T. E., & Heward, W. L. (1983). Peer tutoring: Implementing classwide
programs in the primary grades. Columbus, OH: Special Press.
14. Cossairt, A., Hall, R.V., & Hopkins, B.L. (1973). The effects of experimenter’s instructions,
feedback, and praise on teacher praise and student attending behavior. Journal of Applied
Behavior Analysis, 6(1), 89-100.
15. Crouch, C.H. & Mazur, E. (2001). Peer instruction: ten years of experience and results. American
Journal of Physics, 69(9), 970.
16. Cue, N. (1998). A Universal Learning Tool for Classrooms? Proceedings of the “First Quality in
Teaching and Learning Conference,” December 10–12, 1998; Hong Kong SAR, China.
17. Cutts, Q., Kennedy, G., Mitchell, C., & Draper, S. (2004). Maximizing dialogue in lectures using
group response systems. Presented at 7th IASTED International Conference on Computer and
Advanced Technology in Education, August 16-18, 2004, Hawaii [accessed 30 January, 2012].
www.dcs.gla.ac.uk/~quintin/papers/cate2004.pdf
18. d’Inverno, R., Davis, H., & White, S. (2003). Using a personal response system for promoting
student interaction. Teaching Mathematics and Its Applications, 22(4), 163-169.
19. Delquardi, J., Greenwood, C. R., Whorton, D., Carta, J. J., & Hall, R. V. (1986). Classwide peer
tutoring. Exceptional Children, 52, 535-542.
20. Deslauriers, L., Schelew, E., & Wieman, C. (2011). Improved learning in a large-enrollment
physics class. Science, 332, 862-864.
21. Draper, S.W., Cargill, J., & Cutts, Q. (2002). Electronically enhanced classroom Interaction.
Australian Journal of Education Technology, 18(1), 13-23.
22. Draper, S.W., & Brown, M.I. (2004). Increasing interactivity in lectures using an electronic voting
system. Journal of Computer Assisted Learning, 20(2), 81-94.
23. Dufresne, R.J., Gerace, W.J., Mestre, J.P. & Leonard, W.J. (2000). ASK-IT/A2L: assessing
student knowledge with instructional technology (Tech. Rep. dufresne-2000ask). University of
Massachusetts Amherst Scientific Reasoning Research Institute.
24. English, D. (2003). Audiences talk back: Response systems fill your meeting media with instant
data. AV Video Multimedia Producer, 25(12), 22-24.
25. Fagen, A.P., Crouch, C.H. & Mazur, E. (2002). Peer instruction: results from a range of
classrooms. The Physics Teacher 40(4), 206-207.
26. Fink, W. T., & Carnine, D. W. (1975). Control of arithmetic errors using informational feedback
and graphing. Journal of Applied Behavior Analysis, 8, 461.
10
mimio.dymo.com
27. Hake R. R. (1998). Interactive-engagement versus traditional methods: a six-thousand student
survey of mechanics test data for introductory physics courses. American Journal of Physics,
66(1), 64–74.
28. Harris, V. W., Bushell, D., Jr., Sherman, J. A., & Kane, J. F. (1975). Instructions, feedback, praise,
bonus payments, and teacher behavior. Journal of Applied Behavior Analysis, 8, 462.
29. Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. The Physics
Teacher, 30(3), 141-158.
30. Heward, W. L., Courson, F. H., & Narayan, J. S. (1989). Using choral responding to increase
active student response during group instruction. Teaching Exceptional Children, 21(3), 72-75.
31. Heward, W. L., Gardener, R., Cavanaugh, R. A., Courson, F. H., Grossi, T. A., & Barbetta, P. M.
(1996, Winter) Everyone participates in this class. Teaching Exceptional Children, 5-10.
32. Johnson, D., & McLeod, S. (2004). Get answers: Using student response systems to see
students’ thinking. Learning & Leading With Technology, 32(3), 2-8.
33. Judson, E. & Sawada, D. (2002). Learning from past and present: Electronic response systems
in college lecture halls. Journal of Computers in Mathematics and Science Teaching, 21(2),
167-182.
34. Kline, C. S. (1986). Effects of guided notes on academic achievement of learning disabled high
school students. Unpublished master’s thesis, The Ohio State University, Columbus.
35. Knight, J.K. & Wood, W.B. Teaching more by lecturing less. Cell Biology Education, 4, 298-310.
36. Kosiewicz, M.M., Hallahan, D.P., Lloyd, J., & Graves, A.W. (1982). Effects of self-instruction and
self-correction procedures on handwriting performance. Learning Disability Quarterly, 5, 72-75.
37. Lane, D., & Atlas, R. (1996). The networked classroom. Paper presented at the 1996 meeting of
Computers and Psychology, York, UK.
38. Lasry, N. (2008). Clickers or flashcards: Is there really a difference? The Physics Teacher, 46,
242-244.
39. Lovitt, T., Rudsit, J., Jenkins, J., Pious, C., & Benedetti, D. (1985). Two methods of adapting
science material for learning disabled and regular seventh graders. Learning
Disabilities Quarterly, 8, 275-285.
40. Martin, T. L., Pear, J. J., & Martin, G. L. (2002). Feedback and its effectiveness in a computeraided personalized system of instruction course. Journal of Applied Behavior Analysis, 35, 427430.
41. Mazur, E. (1996). Are science lectures a relic of the past? Physics World, 9, 13-14.
mimio.dymo.com
11
42. Mazur, E. (1997). Peer instruction: a user’s manual. Prentice Hall: Upper Saddle River.
43. Mazur, E. (2009). Farewell, lecture? Science, 323, 50-51.
44. McDermott, L.C., & Redish, E.F. (1999). Resource letter PER-1. Physics Education Research,
American Journal of Physics, 67(9), 755-767.
45. Munro, D.W. & Stephenson, J. (2009). The effects of response cards on student and teacher
behavior during vocabulary instruction. Journal of Applied Behavior Analysis, 42, 795-800.
46. Narayan, J.S., Heward, W.L., Gardner, R., & Courson, F.H. (1990). Using response cards to
increase student participation in an elementary classroom. Journal of Applied Behavior Analysis,
23(4), 483-490.
47. Nicol, D.J., & Boyle, J.T. (2003). Peer instruction versus class-wide discussion in large classes:
a comparison of two interaction methods in the wired classroom. Studies in Higher Education, 28
(4), 457-473.
48. Pear, J.J., Crone-Todd, D.E., Wirth, K., & Simister, H. (2001). Assessment of thinking levels in
students’ answers. Academic Exchange Quarterly, 5 (4), 94-98.
49. Perez, K.E., Strauss, E.A., Downey, N., Galbraith, A., Jeanne, R., & Cooper, S. (2010). Does
displaying the class results affect student discussion during peer instruction? CBE Life Sciences
Education, 9(2), 133-140.
50. Rantz W.G, Dickinson A.M, Sinclair G.A, Van Houten R. (2009). The effect of feedback on the
accuracy of checklist completion during instrument flight training. Journal of Applied Behavior
Analysis, 42, 497–509.
51. Rantz, W.G., & Van Houten, R. (2011). A feedback intervention to increase digital and paper
checklist performance in technically advanced aircraft simulation. Journal of Applied Behavior
Analysis, 44(1), 145-150.
52. Reichow, B. & Wolery, M. (2011). Comparison of progressive prompt delay with and without
instructive feedback. Journal of Applied Behavior Analysis, 44, 327-340.
53. Roschelle, J., Abrahamson, L. A., & Penuel, W. R. (2004a). Integrating classroom network
technology and learning theory to improve classroom science learning: A literature synthesis.
Paper presented at the Annual Meeting of the American Educational Research Association, San
Diego, CA.
54. Roschelle, J., Penuel, W. R., & Abrahamson, A. L. (2004b). Classroom response and
communication systems: Research review and theory. Paper presented at the Annual Meeting of
the American Educational Research Association, San Diego, CA.
55. Seaver, W.B., & Patterson, A.H. (1976). Decreasing fuel-oil consumption through feedback and
social commendation. Journal of Applied Behavior Analysis, 9(2), 147-152.
12
mimio.dymo.com
©2012 DYMO, a Newell Rubbermaid company
56. Sindelar, P. T., Bursuck, W. D., & Halle, J. W. (1986). The effects of two variations of teacher
questioning on student performance. Education and Treatment of Children, 9, 56-66.
57. Smith, M.K., Wood, W.B., Adams, W.K., Wieman, C., Knight, J.K., Guild, N., & Su, T.T. (2009).
Why peer discussion improves student performance on in-class concept questions. Science, 323,
122-124.
58. Smith, S. L., & Ward, P. (2006). Behavioral interventions to improve performance in collegiate
football. Journal of Applied Behavior Analysis, 39, 385–391.
59. Stallard, C. K. (1982). Computers and education for exceptional children: Emerging
applications. Exceptional Children, 49(2), 102-104.
60. Trap, J. J., Milner-Davis, P., Joseph, S., & Cooper, J. O. (1978). The effects of feedback and
consequences on transitional cursive letter formation. Journal of Applied Behavior Analysis, 11,
381-393.
61. Tudor, R.M. & Bostow, D.E. (1991). Computer-programmed instruction: The relation of required
interaction to practical application. Journal of Applied Behavior Analysis, 24(2), 361-368.
62. Van Houten, R., Morrison, E., Jarvis, R., & McDonald, M. (1974). The effects of explicit timing
and feedback on compositional response rate in elementary school children. Journal of Applied
Behavior Analysis, 7, 547-555.
63. Van Houten, R., & Thompson, C. (1976). The effects of explicit timing on math performance.
Journal of Applied Behavior Analysis, 9, 227-230.
64. Wood, W.B. (2004). Clickers: a teaching gimmick that works. Developmental Cell, 7(6), 796-798.
65. Yang, F. M. (1988). Effects of guided lecture notes on sixth graders’ scores on daily science
quizzes. Unpublished master’s thesis, The Ohio State University, Columbus.
mimio.dymo.com
13
mimio.dymo.com