Auteur : griemetic_admin

Premiers pas avec l’apprentissage machine: classification par recherche des plus proches voisins

Cette démo reprend un exemple tiré du livre de Lantz (2013), Machine Learning with R.  On utilise un dataset sur des biopsies en vue de détecter des cancers du sein. Pour ce faire, on fait appel à la fonction knn dans le package class. Cette fonction implémente la méthode de recherche des plus proches voisins (nearest neighbor). Accessoirement, cette démo utilise aussi la fonction CrossTable dans le package gmodels afin de visualiser la classification et voir si nous avons produit des faux négatifs et faux positifs.

D’abord, un peu de préparation. Il faudra d’abord installer class et gmodels si vous ne les avez pas déjà. On peut les installer via l’environnement RStudio, ou bien en exécutant ce code:

install.packages(c("gmodels", "class"))

On roule ensuite ce code:

library(class)
library(gmodels)

normalize <- function(x) {
 return ((x - min(x)) / (max(x) - min(x)))
}

wbcd <- read.csv("https://resources.oreilly.com/examples/9781784393908/raw/ac9fe41596dd42fc3877cfa8ed410dd346c43548/Machine%20Learning%20with%20R,%20Second%20Edition_Code/Chapter%2003/wisc_bc_data.csv")
rownames(wbcd) <- wbcd$id #on prend la colonne id comme noms de rangée
wbcd$id <- NULL #la colonne id peut être enlevée, elle ne servira plus
wbcd_n <- as.data.frame(lapply(wbcd[2:31], normalize))
wbcd_train <- wbcd_n[1:469, ] #données de training
wbcd_test <- wbcd_n[470:569, ] #données pour vérifier le modèle
wbcd_train_labels <- wbcd[1:469, 1] #diagnostics des données de training
wbcd_test_labels <- wbcd[470:569, 1] #diagnostics des données de test

Nous avons chargé les packages, puis créé une petite fonction pour normaliser les données (elle va servir plus tard). La fonction read.csv a ensuite permis de récupérer le jeu de données depuis le serveur de la maison d’édition OReilly. Après un peu de nettoyage, nous avons créé des sous-ensembles de données qui serviront à l’entrainement de l’algorithme knn et la validation. On remarque que le diagnostic n’a pas été donné à knn pour les données de test. C’est normal. Nous allons entrainer notre système de manière à ce qu’il tente de découvrir ces diagnostics par lui-même. Pour ce faire, knn utilise cette syntaxe: knn(train, test, cl, k)

Où:

  • train et la matrice utilisée pour entrainer le système (excluant le diagnostic),
  • test est la matrice de test (excluant aussi le diagnostic),
  • cl (pour class) est un vecteur indiquant le diagnostic (la « bonne réponse ») pour la matrice train
  • k est un entier donnant le nombre de « voisins » à considérer (nearest neighbourgs), ce qui correspond grosso-modo à la précision dans le découpage.

En gros, l’algorithme knn classifie les données de test  en se basant sur le diagnostic donné par ses « voisins » les plus proches (les points de données similaires dans train). Plus précisément:

  1. On crée un espace ayant un nombre de dimensions correspondant au nombre de variables dans train et test.
  2. On situe chaque ligne des matrice train et test dans cet espace (les coordonnées vont être les valeurs qu’on pris les variables pour cette ligne de la matrice).
  3. Pour chaque point de test, on prend ses voisins les plus proches.
  4. On regarde dans le vecteur cl quelles classifications sont proposées par les voisins sélectionnés.
  5. La classification du point est typiquement établie en fonction de la règle de majorité. Cependant, on peut modifier cet aspect, nous allons l’essayer plus loin.

Le code suivant va permettre de faire la classification avec knn, puis d’en visualiser les résultats avec CrossTable:

wbcd_test_pred <- knn(train = wbcd_train, test = wbcd_test, cl = wbcd_train_labels, k=12)
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)

Voici la sortie dans R, produite par la fonction CrossTable:

## 
##  
##    Cell Contents
## |-------------------------|
## |                       N |
## |           N / Row Total |
## |           N / Col Total |
## |         N / Table Total |
## |-------------------------|
## 
##  
## Total Observations in Table:  100 
## 
##  
##                  | wbcd_test_pred 
## wbcd_test_labels |         B |         M | Row Total | 
## -----------------|-----------|-----------|-----------|
##                B |        61 |         0 |        61 | 
##                  |     1.000 |     0.000 |     0.610 | 
##                  |     0.953 |     0.000 |           | 
##                  |     0.610 |     0.000 |           | 
## -----------------|-----------|-----------|-----------|
##                M |         3 |        36 |        39 | 
##                  |     0.077 |     0.923 |     0.390 | 
##                  |     0.047 |     1.000 |           | 
##                  |     0.030 |     0.360 |           | 
## -----------------|-----------|-----------|-----------|
##     Column Total |        64 |        36 |       100 | 
##                  |     0.640 |     0.360 |           | 
## -----------------|-----------|-----------|-----------|
## 
##

On retrouve une légende indiquant le contenu des cellules, puis un tableau qui croise les prédictions de la fonction knn avec les diagnostics réels. B étant pour bénin et M pour malin, on peut donc constater qu’on a 61 vrais négatifs (B,B), 0 faux positif (B,M), 3 faux négatifs (M,B) et 36 vrais positifs (M,M).

Amélioration de la classification

Dans un contexte biomédical, on peut sérieusement se demander si 3% de faux négatifs est acceptable – après tout ces personnes risquent de ne pas recevoir un traitement qui est requis. Essayons d’améliorer la classification. Pour ce faire, nous allons tester trois méthodes: d’abord normaliser les données et augmenter la valeur de k. Nous allons ensuite aller plus loin que l’exemple du livre de Lantz et manipuler le paramètre optionnel afin de changer le nombre de votes requis pour qu’un point de données soit classifié comme bénin ou malin.

Le code suivant va convertir toutes nos variables en leurs scores Z, puis produire une nouvelle classification:

wbcd_z <- as.data.frame(scale(wbcd[-1])) #conversion de tout en scores Z (sauf la col 1 qui est le diagnostic)
wbcd_train_z <- wbcd_z[1:469, ]
wbcd_test_z <- wbcd_z[470:569, ]

wbcd_test_pred <- knn(train = wbcd_train_z, test = wbcd_test_z, cl = wbcd_train_labels, k=12)
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)

Le résultat:

##                  | wbcd_test_pred 
## wbcd_test_labels |         B |         M | Row Total | 
## -----------------|-----------|-----------|-----------|
##                B |        60 |         1 |        61 | 
##                  |     0.984 |     0.016 |     0.610 | 
##                  |     0.952 |     0.027 |           | 
##                  |     0.600 |     0.010 |           | 
## -----------------|-----------|-----------|-----------|
##                M |         3 |        36 |        39 | 
##                  |     0.077 |     0.923 |     0.390 | 
##                  |     0.048 |     0.973 |           | 
##                  |     0.030 |     0.360 |           | 
## -----------------|-----------|-----------|-----------|
##     Column Total |        63 |        37 |       100 | 
##                  |     0.630 |     0.370 |           | 
## -----------------|-----------|-----------|-----------|
## 
## 

Vous aurez constaté que nous avons empiré la situation: nous avons encore 3 faux négatifs, mais aussi 1 faux positif. Cette solution n’a pas fonctionné pour cette exemple.

Essayons plutôt d’augmenter le nombre de voisins consultés en manipulant le paramètre k:

wbcd_test_pred <- knn(train = wbcd_train, test = wbcd_test, cl = wbcd_train_labels, k=20)
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)

La sortie de CrossTable m’indique que j’ai encore 3 faux négatifs. Et si vous vous amusez à augmenter encore k, par exemple à 30, j’obtiens 4 faux négatifs, ce qui n’améliore en rien la situation.

Combinons les deux stratégies en utilisant à la fois des données normalisée et une valeur supérieure de k:

wbcd_test_pred <- knn(train = wbcd_train_z, test = wbcd_test_z, cl = wbcd_train_labels, k=23)
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)

Si vous exécutez le code, vous constaterez que j’ai encore 3 faux négatifs. En somme, nous n’avons pas réussi à faire disparaitre ces faux négatifs en transformant les données, en manipulant k, ou en appliquant ces deux modifications deux à la fois.

Pour aller plus loin…

La dernière stratégie consiste à ajuster l’algorithme de manière à ce que la décision de classification ne se fasse plus à la majorité (50% + 1) mais demande un consensus plus fort entre les voisins. Le code suivant va consulter 20 voisins, mais requiert qu’au moins 17 d’entre eux soient d’accord, plutôt que 11 en temps normal. Le paramètre optionnel l  nous permet d’indiquer à knn quel seuil de décision utiliser.

wbcd_test_pred <- knn(train = wbcd_train, test = wbcd_test, cl = wbcd_train_labels, k=20, l=17)
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)

Roulement de tambour et…

##                  | wbcd_test_pred 
## wbcd_test_labels |         B |         M | Row Total | 
## -----------------|-----------|-----------|-----------|
##                B |        55 |         0 |        55 | 
##                  |     1.000 |     0.000 |     0.655 | 
##                  |     1.000 |     0.000 |           | 
##                  |     0.655 |     0.000 |           | 
## -----------------|-----------|-----------|-----------|
##                M |         0 |        29 |        29 | 
##                  |     0.000 |     1.000 |     0.345 | 
##                  |     0.000 |     1.000 |           | 
##                  |     0.000 |     0.345 |           | 
## -----------------|-----------|-----------|-----------|
##     Column Total |        55 |        29 |        84 | 
##                  |     0.655 |     0.345 |           | 
## -----------------|-----------|-----------|-----------|
## 
## 

En modifiant ainsi le seuil décisionnel, nous avons réussi à faire une classification parfaite pour les 100 cas de la matrice de test. Pas mal!

Le code complet

Note: je n’inclus pas l’installation des packages class et gmodels (voir en haut de ce billet de blog) car je préfère vous laisser gérer cette installation selon vos préférences.

library(class)
library(gmodels)
normalize <- function(x) {
 return ((x - min(x)) / (max(x) - min(x)))
}
wbcd <- read.csv("https://resources.oreilly.com/examples/9781784393908/raw/ac9fe41596dd42fc3877cfa8ed410dd346c43548/Machine%20Learning%20with%20R,%20Second%20Edition_Code/Chapter%2003/wisc_bc_data.csv")
rownames(wbcd) <- wbcd$id #on prend la colonne id comme noms de rangée
wbcd$id <- NULL #la colonne id peut être enlevée, elle ne servira plus
wbcd_n <- as.data.frame(lapply(wbcd[2:31], normalize))
wbcd_train <- wbcd_n[1:469, ] #données de training
wbcd_test <- wbcd_n[470:569, ] #données pour vérifier le modèle
wbcd_train_labels <- wbcd[1:469, 1] #diagnostics des données de training
wbcd_test_labels <- wbcd[470:569, 1] #diagnostics des données de test
wbcd_test_pred <- knn(train = wbcd_train, test = wbcd_test, cl = wbcd_train_labels, k=12)
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)
wbcd_z <- as.data.frame(scale(wbcd[-1])) #conversion de tout en scores Z (sauf la col 1 qui est le diagnostic)
wbcd_train_z <- wbcd_z[1:469, ]
wbcd_test_z <- wbcd_z[470:569, ]
wbcd_test_pred <- knn(train = wbcd_train_z, test = wbcd_test_z, cl = wbcd_train_labels, k=12) #1er essai de classification
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)
wbcd_test_pred <- knn(train = wbcd_train, test = wbcd_test, cl = wbcd_train_labels, k=20) #2e essai avec k=20
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)
wbcd_test_pred <- knn(train = wbcd_train_z, test = wbcd_test_z, cl = wbcd_train_labels, k=23) #3e essai avec Z
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)
wbcd_test_pred <- knn(train = wbcd_train, test = wbcd_test, cl = wbcd_train_labels, k=20, l=17) #4e essai avec l=17
CrossTable(x = wbcd_test_labels, y = wbcd_test_pred, prop.chisq=FALSE)

 

Soutenance de thèse de Dan Thanh Duong Thi

Modélisation, élaboration et évaluation des rapports à visée diagnostique des données du PIRLS 2011

Soutenance de thèse de Dan Thanh Duong Thi, sous la direction de recherche de Nathalie Loye (Département d’administration et fondements de l’éducation.)

Le 26 septembre à 13h30

Université de Montréal – Pavillon Marie-Victorin
D-427
90, avenue Vincent-d’Indy
Montréal (QC) Canada  H2V 2S9

Résumé

Cette étude s’inscrit dans l’approche diagnostique cognitive (ADC) dont la finalité est de fournir aux enseignants des rétroactions fines et détaillées sur les forces et les faiblesses cognitives des élèves à travers des rapports diagnostiques compréhensibles et interprétables. Elle a été menée dans le but de répondre aux grands besoins des enseignants de recevoir des informations diagnostiques à partir des tests à grande échelle et de combler le manque des recherches empiriques sur l’élaboration et l’évaluation des rapports diagnostiques. Plus précisément, notre étude vise à : (1) modéliser des données de 4762 élèves canadiens ayant pris le test PIRLS 2011 et (2) élaborer et évaluer des rapports diagnostiques destinés aux enseignants à partir des résultats des modélisations.

Afin de répondre au premier objectif, des habiletés sous-jacentes jugées nécessaires pour répondre aux 35 items du PIRLS 2011 ont été identifiées à partir du cadre de référence de l’élaboration du PIRLS 2011 et avec un panel d’experts comprenant trois membres. Deux matrices Q1 et Q2, représentant les liens entre les items et ces habiletés, ont été ensuite élaborées. Avec ces deux matrices Q, nous avons modélisé des données avec les modèles DINA et G-DINA permettant d’évaluer l’ajustement des modèles aux données et d’estimer la qualité diagnostique des items ainsi que les profils de maitrise des habiletés des élèves.

Quant au deuxième objectif de l’étude, un panel d’experts de cinq membres ont élaboré trois formats de rapports à partir d’un profil-type. L’évaluation des rapports a été effectuée auprès de 98 enseignants au primaire, des conseillers pédagogiques et des orthopédagogues à l’aide d’un questionnaire administré en ligne portant sur la préférence, l’évaluation de la qualité et de la compréhension des rapports.

Les résultats obtenus nous suggèrent un format de rapport de préférence des participants, ce qui s’explique par la familiarité du type de graphique présenté. Cette préférence est constante peu importe des informations contextuelles. Les participants ont une évaluation très positive de la qualité des rapports, ce qui ne varie pas selon les variables contextuelles. Par contre, une différence significative se trouve entre l’évaluation de la qualité et la préférence des rapports. Les participants qui évaluent leur format préféré ont des perceptions plus positives. Quant à la compréhension, des participants ont une très bonne compréhension de trois formats de rapports. Le groupe comprennent mieux les rapports sont ceux dont l’évaluation de la qualité est plus positive.

Les résultats de l’étude mettent en évidence la possibilité de recevoir des rétroactions plus fines et détaillées sur les forces et les faiblesses des élèves des épreuves à grande échelle à travers des rapports accessibles, fiables et compréhensibles. Notre étude est la première qui applique un cadre de référence de l’élaboration et de l’évaluation des rapports dans une approche diagnostique cognitive et contribue donc à favoriser le soutien de l’apprentissage en lecture au primaire.

Soutenance de thèse de Angel Manuel Arias de Los Santos

Building a validity argument for the listening component of the Test de connaissance de français in the context of Quebec immigration

Soutenance de thèse de Angel Manuel Arias de Los Santos, au Département d’administration et fondements de l’éducation. Sous la direction de recherche de Jean-Guy Blais et la codirection de Michel D. Laurier.

Jeudi 14 juin à 14h00

Université de Montréal – Pavillon Roger-Gaudry

S-116
2900, chemin de la Tour
Montréal (QC) Canada  H3T 1J6

Résumé

L’évaluation linguistique est une pratique omniprésente dans les contextes d’immigration, utilisée comme une méthode de collecte de données pour évaluer la capacité des immigrants à communiquer dans la langue du pays d’accueil afin de promouvoir l’intégration sociale et économique ainsi que la productivité au travail (McNamara & Shohamy, 2008). Contrairement aux tests d’anglais, peu d’attention est accordée à l’interprétation et aux usages des scores aux tests en français, ce qui incite – et demande – de la validation des scores pour justifier les usages des tests. Cette étude, qui fait appel aux avancées de la théorie de la validité des tests (Kane, 2006, 2013), construit un argumentaire de validité pour la composante de la compréhension orale du Test de connaissance du français (TCF) dans le contexte de l’immigration au Québec. La théorie de la validité des tests a évolué considérablement depuis le modèle tripartite traditionnel de contenu, de prédiction et de construit (Cronbach et Meehl, 1955), a été conceptualisée comme un construit unitaire (Messick, 1989) et, plus récemment, a été théorisée en termes d’argumentation (Kane, 2006, 2013), empruntant des concepts de modèles d’inférence (Toulmin [1958], 2003), qui englobent des inférences de notation, de généralisation, d’explication, d’extrapolation et de décision, ayant des rôles importants dans un argumentaire de validité.

 

Dans une approche de validité fondée sur l’argumentation, les affirmations relatives aux instruments de mesure sont composées de garanties qui doivent être étayées par des études empiriques, qui sont fondamentales pour les affirmations, mais qui appuient également les inférences qui autorisent chacune des affirmations de l’argumentaire. Plus précisément, cette étude a analysé des données empiriques pour appuyer les inférences de notation, de généralisation et d’explication, en proposant trois questions de recherche portant sur la représentativité du construit du TCF, le fonctionnement différentiel d’items et l’utilité de la technique de collecte de données. Les questions ont porté sur les sous-compétences de compréhension orale dont le TCF évalue, le fonctionnement différentiel des items (FDI) selon le genre, la langue maternelle, l’âge et l’emplacement géographique des candidats ainsi que le fonctionnement des items à choix multiples (MC) dans l’évaluation de la compréhension orale en langue seconde.

 

L’approche de la validité fondée sur l’argumentation s’avère utile pour regrouper des études empiriques dans un ensemble cohérent permettant d’étayer et de justifier l’interprétation et les utilisations du TCF dans un contexte d’immigration, qui peut à son tour servir à remédier les points faibles constatés, en fournissant un moyen d’atténuer les réfutations potentielles qui menacent la validité de l’argumentaire. Certaines mises en garde dans le cadre de validation sont également soulignées et concernent l’accessibilité des données pour aborder les inférences d’extrapolation et de décision dans des contextes d’immigration, mais comme Newton et Shaw (2014, p. 142) le soulignent: « l’approche de validité fondée sur l’argumentation sous-tend le fait que la validation n’est pas simplement une étude isolée, mais un programme: potentiellement un programme très intensif ». Et ce programme peut inclure des parties prenantes importantes comme les représentants gouvernementaux qui peuvent aider à compléter l’argumentaire de validité du TCF en matière d’immigration au Québec.

Recherche de bénévoles pour le congrès de l’International Test Commission

Chers étudiants,

Mon équipe et moi-même sommes à la recherche de bénévoles pour le congrès de l’International Test Commission qui se tiendra au Sheraton Center du 2 au 5 juillet 2018.

Ce congrès international d’envergure regroupe des chercheurs du monde entier autour de problématiques liées au testing dans divers domaines (éducation, psychologie, santé). Notez que la langue du congrès est l’anglais, et que vous devez pouvoir communiquer dans cette langue.

Pour plus d’informations, vous pouvez consulter notre site web à https://www.itc-conference.com/

Merci de nous faire part de votre intérêt en écrivant à l’adresse support@itc-conference.com

Cordiales salutations.

Nathalie Loye

10e colloque – Méthodes quantitatives en sciences humaines (MQSH)

Vendredi 8 juin 2018, Université de Sherbrooke

RAPPEL – INVITATION OFFICIELLE

Programme du Colloque MQSH 2018

Bonjour,

Nous vous rappelons qu’il est toujours possible de s’inscrire au 10e Colloque MQSH qui aura lieu le vendredi 8 juin 2018 à l’Université de Sherbrooke. Plusieurs chercheures et chercheurs provenant de l’Université du Québec à Trois-Rivières, l’Université du Québec à Montréal, l’Université de Montréal et l’Université d’Ottawa nous feront l’honneur de présenter leurs travaux de recherche sous l’angle de l’innovation. Vous trouverez le programme de la journée comportant l’horaire et le résumé des communications en pièce jointe.

La journée débutera dès 8h45 avec l’accueil des participants au local A1-128 du pavillon A1 de la Faculté d’éducation. Au terme de la journée, les participants intéressés pourront poursuivre leurs échanges dans le cadre d’un 5 à 7 prévu à l’extérieur du campus.

L’inscription au Colloque MQSH est gratuite. Il vous suffit d’écrire un courriel à l’adresse Sabruna.Dorceus@USherbrooke.ca pour confirmer votre présence en indiquant votre occupation (ex. professeur, étudiant au doctorat, statisticien, etc.) et votre institution d’appartenance.

Voici quelques informations pratiques pour votre séjour à Sherbrooke :

Comment se rendre à l’Université de Sherbrooke?

Pour connaître les accès routiers au campus principal de l’Université de Sherbrooke situé au 2500, boulevard de l’Université, Sherbrooke (Québec), J1K 2R1, cliquez ici.

Stationnement :

Vous pourrez vous stationner dans les parcs de stationnement jaunes au coût de 8$ pour la journée (payable aux horodateurs). Les parcs de stationnement jaunes les plus proches du pavillon A1 sont les suivants : P A-8, P J-2 et P K-1). Pour un plan du campus et des parcs de stationnement, cliquez ici.

Quoi faire et où dormir à Sherbrooke?

Pour des suggestions d’hébergements et d’activités diverses, vous pouvez visiter la page du site Destination Sherbrooke en cliquant ici.

Au plaisir de vous rencontrer,

Comité organisateur MQSH 2018

Yann Le Corff

Eric Yergeau

Sabruna Dorceus

Rasch Courses: Introduction to Rasch Analysis

This workshop provides an introduction to Rasch analysis. It will suit those working in the measurement of outcomes in the health sciences, of attitudinal data in the social sciences, or in educational testing. It will take the form of hands-on tuition in using the Rasch Unidimensional Measurement Models (RUMM2030) software package. At the end of the two-and-a-half days workshop students should understand and be able to analyse data, using RUMM2030, for:

  • Input of data into the RUMM2030 programme
  • Testing for local dependency and unidimensionality assumptions
  • Assessing scaling characteristics and fit to the Rasch model.
  • Examining the category probability patterns for polytomous items
  • Examining the targeting and reliability of the scale or test
  • Assessing Differential Item Functioning
  • Assessing Response Dependence

More info at http://medhealth.leeds.ac.uk/info/732/psychometric_laboratory/1489/rasch_courses

10e colloque – Méthodes quantitatives en sciences humaines (MQSH)

Vendredi 8 juin 2018, Université de Sherbrooke

Programme du Colloque MQSH 2018

INVITATION OFFICIELLE

Il nous fait plaisir de lancer officiellement l’invitation au 10e Colloque MQSH qui aura lieu le vendredi 8 juin 2018 à l’Université de Sherbrooke. Plusieurs chercheures et chercheurs provenant de l’Université du Québec à Trois-Rivières, l’Université du Québec à Montréal, l’Université de Montréal et l’Université d’Ottawa nous feront l’honneur de présenter leurs travaux de recherche sous l’angle de l’innovation. Vous trouverez le programme de la journée comportant l’horaire et le résumé des communications en pièce jointe.

La journée débutera dès 8h45 avec l’accueil des participants au local A1-128 du pavillon A1 de la Faculté d’éducation. Au terme de la journée, les participants intéressés pourront poursuivre leurs échanges dans le cadre d’un 5 à 7 prévu à l’extérieur du campus.

L’inscription au Colloque MQSH est gratuite. Il vous suffit d’écrire un courriel à l’adresse Sabruna.Dorceus@USherbrooke.ca pour confirmer votre présence en indiquant votre occupation (ex. professeur, étudiant au doctorat, statisticien, etc.) et votre institution d’appartenance.

Voici quelques informations pratiques pour votre séjour à Sherbrooke :

Comment se rendre à l’Université de Sherbrooke?

Pour connaître les accès routiers au campus principal de l’Université de Sherbrooke situé au 2500, boulevard de l’Université, Sherbrooke (Québec), J1K 2R1, cliquez ici.

Stationnement :

Vous pourrez vous stationner dans les parcs de stationnement jaunes au coût de 8$ pour la journée (payable aux horodateurs). Les parcs de stationnement jaunes les plus proches du pavillon A1 sont les suivants : P A-8, P J-2 et P K-1). Pour un plan du campus et des parcs de stationnement, cliquez ici.

Quoi faire et où dormir à Sherbrooke?

Pour des suggestions d’hébergements et d’activités diverses, vous pouvez visiter la page du site Destination Sherbrooke en cliquant ici.

Au plaisir de vous rencontrer,

 

Comité organisateur MQSH 2018

Yann Le Corff

Eric Yergeau

Sabruna Dorceus

Atelier du printemps de l’ARQ: L’observation

Université de Montréal

Vendredi 27 avril 2018

 

Horaire et thématiques des ateliers

 

9 h à 12 h
 

Atelier de base sur l’observation

 

Dominique Robert

Local: D-544

20 places

 

 

Défis et apports de la vidéo-ethnographie : de la collaboration à la co-création avec les acteurs

 

Jrène Rahm
et collaborateurs

Local : E-224

20 places

 

Shadowing/vidéo-filature

 

Frédérik Matte

Local : B-328

20 places

13 h 30 à 16 h 30
 

De l’observation aux pistes d’analyse: les usagers du journal de terrain

 

Marjorie Vidal
et Sophie Grossmann

Local : D-544

20 places

 

Observer la ville avec les enfants: la méthode des parcours commentés

 

Juan Torres

Local :  E-224

20 places

L’ajustement de la distance en contexte d’observation des pratiques

 

Yves Couturier

Local : B-253

20 places

Prix : inscription pour deux ateliers : (formulaire d’inscription en ligne)

150$ membres réguliers

125$ pour les membres étudiants et retraités

 

À noter que les activités sont réservées aux membres de l’ARQ.

Si vous n’êtes pas membre, il est toujours possible d’adhérer ou de renouveler votre adhésion.
(formulaire d’adhésion en ligne)

Adhésion : 100$ membre régulier ou 60$ étudiant et retraité

 

Dîner libre. Services de cafétéria disponibles sur les lieux.

 

Télécharger la programmation (lien vers la programmation)

Call for Proposals : Pacific-Rim Objective Measurement Symposium (PROMS)

July 25-27, 2018 

(Pre-conference workshops July 23-24, 2018) 

College English Center, Fudan University 

Shanghai, China 

Conference website: https://proms.promsociety.org/2018/ 

The application of the Rasch model has been increasing exponentially in the field of language testing and assessment, and across the human sciences, more generally. A review of the articles published in Language Testing and Language Assessment Quarterly, two highly-cited journals in the field in the past two decades, reveals that the Rasch model has become one of the dominant research methods, used to address a variety of research questions, most notably the validation of language assessment instruments and the detection of rater effects in performance assessment, such as writing and speaking. 

PROMS is the annual professional meeting symposium of the Pacific Rim Objective Measurement Society. The symposium consists of a conference and associated workshops for the sharing of knowledge and applications of the Rasch model with the international community. It provides a valuable opportunity for both novice and seasoned researchers to discuss important and emerging issues in applying the Rasch model, and to present empirical research featuring the application of the Rasch model in human sciences. 

PROMS 2018 will feature keynote speeches by: 

Tim McNamara, Redmond Barry Distinguished Professor 

School of Languages and Linguistics, University of Melbourne, Australia 

President, American Association for Applied Linguistics 

Yan Jin, Professor 

School of Foreign Languages, Shanghai Jiao Tong University, China 

Chair, the National College English Test Committee, China 

Trevor Bond, Professor 

College of Arts, Society and Education 

James Cook University, Australia 

PROMS invites presentations on the theory and practice of applying the Rasch model across the human sciences, including business, education, health and psychology. These could include research applying the Rasch model, advances in the practice of measurement, or reviews of modern measurement theory. Topics of submission may include, but are not limited to: 

Ÿ Development and validation of assessment instruments 

Ÿ Rater effects in performance assessment 

Ÿ Fairness of using assessment to make decisions 

Ÿ Assessing language skills such as listening, reading, writing, and speaking 

Ÿ Advances in the practice of measurement 

Ÿ Issues relating to modern measurement theory 

Ÿ Technical issues of the application of the Rasch model 

Ÿ Using the Rasch model collaboratively with other statistical procedures such as Generalizability theory 

 

Abstract Submission 

Important Dates Abstract Submission  before 1st April, 2018 
Abstract Acceptance  before 5th May, 2018 
Early-bird Registration  before 30th May, 2018 

Midi pédagogique du département de pédiatrie – 27 février 2018

Midi Pédagogique du département de pédiatrie: 

» La technologie au service du raisonnement clinique. L’ère du eye tracking est arrivé? «

Conférencier invité: Thomas Pennaforte, candidat au PhD en pédagogie

Date: 27 février 2018
Lieu:  8132
Heure: 12:00  à 13:00

Nous vous attendons en grand nombre

Véronique Phan