Cher Robert, je ne t'avais pas encore répondu, désolé !
Très bonne suggestion pour l'épaisseur des lignes, ce sera très simple.
Quant aux erreurs grammaticales, ce n'est pas impossible. Ça ne concerne plus complètement le PhonoGraphe, mais ça se rapproche de
GrammaChrome.
La vérification ortho/phonologique qu'on fait avec Wikicolor, on pourrait en faire une similaire au niveau grammatical avec GrammaChrome. Se posera toutefois un problème a priori : l'analyse morphosyntaxique de grammachrome est très classique, elle utilise un modèle de prédiction automatique des catégories grammaticales et des dépendances en fonction du contexte. C'est une techno, comme la reconnaissance de parole, qui a été développée pour travailler à partir de langue "correcte". Ces systèmes ne sont pas habitués à analyser des erreurs, ou de la parole pathologique etc. Tout est question de modèle, et donc de généralisations à partir d'un très gros corpus d'observations. On ne peut donc pas se contenter d'utiliser ces outils tels quels pour évaluer/diagnostiquer la langue de l'apprenant. Tiens, je fais justement ma thèse sur ce sujet, en diagnostic automatique de la prononciation ;)
Bon mais il existe des solutions, il faut juste réfléchir, et ne pas foncer tête biassée sur la technologie existante qui donne tellement l'illusion d'être intelligente. (je dis ça parce que c'est souvent le cas)
Je serais TRÈS intéressé pour discuter avec vous, chers collègues, des possibilités de vérifications grammaticales pour les applis ALeM. Grammachrome est depuis longtemps en attente de nouveautés (notamment des activités guidées type Grammortho, de Maurice Laurent). Le feedback grammatical pourrait être une suite intéressante.
Cher Alexandre,
Oh là là tu es tombé dessus !
Figure-toi que je me suis dit que tu trouverais certainement ce problème. (vérification phono et ortho indépendantes), mais j'ai pas trouvé de cas problématiques dans mes tests.
J'explique :
- Quand on clique sur la petite loupe pour faire la vérification, l'appli découpe la chaine de texte en mots, puis pour chaque mot, envoie une demande à Wikicolor en fournissant l'orthographe et la phonologie encodées.
- Si c'est écrit en bouches (pas d'orthographe), Wikicolor se contente de parcourir le dictionnaire et compare chaque transcriptions API avec la phono de l'utilisateur. Dès qu'il trouve, il s'arrête et renvoie une réponse positive pour la phonologie.
- Si il y a une orthographe et une phono, Wikicolor commence par regarder les mots du dictionnaire ; dès qu'il trouve le même mot que l'utilisateur, il compare la phono avec toutes les transcriptions possibles pour ce mot. Si il trouve une correspondance, la réponse est : ortho=1, phono=1, orthophono=1. Si il ne la trouve pas, il parcourt le dictionnaire pour comparer chaque transcriptions avec la phono de l'utilisateur; et si il en trouve une, la réponse est ortho=1, phono=1, orthophono=0.
- (Ça marche aussi juste avec un mot orthographique)
Donc, on a bien l'information "orthophono" qui indique si cette phono correspond bien à cette orthographe.
Mais le feedback visuel se contente de mettre une ligne type ortho si ortho=1, et ou une ligne type phono si phono=1.
Je me suis demandé ce qu'on voulait faire. Dans le cas de choix, l'orthographe existe et la phono existe, mais pas pour le même mot. Il faudrait un troisième type de feedback dans ce cas ? Comment on l'indique ?
Comment vous imagineriez la chose ?