1. Introduction

Cet article présente une nouvelle application interdisciplinaire de la Programmation par Ensembles de Réponses (ASP) pour formaliser et analyser une théorie clé de l'Acquisition d'une Langue Seconde (ALS) : la théorie du Traitement de l'Input (IP) de VanPatten. Le défi central abordé est la traduction d'une théorie qualitative, basée sur le langage naturel et décrivant les stratégies cognitives par défaut utilisées par les apprenants de langue, en un modèle précis et calculable. Cette formalisation permet le test automatisé des prédictions de la théorie, l'affinement de ses principes et le développement d'outils pratiques comme le système PIas pour assister les enseignants de langue.

2. Contexte & Cadre théorique

2.1. Programmation par Ensembles de Réponses (ASP)

L'ASP est un paradigme de programmation déclarative basé sur la sémantique des modèles stables (ensembles de réponses) de la programmation logique. Il excelle dans la représentation du raisonnement par défaut, des informations incomplètes et des domaines dynamiques — des caractéristiques centrales pour modéliser les processus cognitifs humains. Une règle en ASP a la forme : head :- body., où la tête est vraie si le corps est satisfait. Les règles par défaut peuvent être élégamment représentées en utilisant la négation par l'échec (not).

2.2. Théorie du Traitement de l'Input

Proposée par VanPatten, la théorie IP postule que les apprenants d'une langue seconde, en particulier les débutants, utilisent un ensemble d'heuristiques par défaut pour extraire le sens de l'input en raison de ressources de traitement limitées (mémoire de travail) et d'une connaissance grammaticale incomplète. Un principe clé est le Principe du Premier Nom : les apprenants ont tendance à attribuer le rôle d'agent/sujet au premier nom ou pronom qu'ils rencontrent dans une phrase. Cela conduit à des interprétations erronées systématiques, comme interpréter la phrase passive "Le chat a été mordu par le chien" comme "Le chat a mordu le chien".

3. Formalisation du Traitement de l'Input en ASP

3.1. Modélisation des stratégies par défaut

Les principes IP sont encodés sous forme de règles ASP. Par exemple, le Principe du Premier Nom peut être représenté comme une règle par défaut qui s'applique lorsque les indices grammaticaux (comme les marqueurs de voix passive) ne sont pas traités en raison de limitations de ressources :

% Par défaut : Attribuer le rôle d'agent au premier nom
assign_agent(PremierNom, Evenement) :-
    mot_phrase(PremierNom, Position1, Nom),
    mot_phrase(Verbe, Position2, LexVerbe),
    Position1 < Position2,
    evenement(Evenement, LexVerbe),
    not traite(indice_grammatical(passif, Verbe)),
    not annule_par_grammaire(Evenement).

La condition not traite(...) capture la limitation des ressources, rendant la règle non monotone.

3.2. Représentation des connaissances et ressources de l'apprenant

Le modèle intègre une représentation dynamique de l'état de l'apprenant :

  • Connaissance lexicale : Des faits comme connait_mot(apprenant, 'chien', nom, animal).
  • Connaissance grammaticale : Des règles internalisées (par ex., pour la voix passive).
  • Ressources de traitement : Modélisées comme des contraintes limitant le nombre de traits grammaticaux pouvant être traités simultanément dans une phrase donnée.

L'interaction entre les stratégies par défaut et les connaissances grammaticales acquises est modélisée via des priorités de règles ou des règles d'annulation.

4. Le système PIas : Application & Résultats

4.1. Architecture du système

PIas (Processing Input as a System) est un prototype qui prend en entrée une phrase anglaise et un profil d'apprenant (niveau de compétence approximatif, vocabulaire/grammaire connus). Il utilise le modèle ASP formalisé pour générer une ou plusieurs interprétations prédites (ensembles de réponses).

Description du diagramme de flux système : Le flux de travail commence avec les données de la Phrase d'Input et du Profil de l'Apprenant. Celles-ci alimentent la Base de Connaissances ASP, qui contient les règles IP formalisées, les faits lexicaux et les règles grammaticales. Un Solveur ASP (par ex., Clingo) calcule les modèles stables. Les Ensembles de Réponses résultants sont analysés en Interprétations Prédites, qui sont ensuite présentées dans un format lisible via une Interface Utilisateur pour les Enseignants, mettant en évidence les interprétations erronées probables.

4.2. Prédictions expérimentales & Validation

L'article démontre la sortie du système pour des exemples classiques. Pour la phrase passive "Le chat a été mordu par le chien" et un profil débutant :

  • Interprétation Prédite 1 (Par défaut) : Agent=CHAT, Action=MORDRE, Patient=CHIEN. (Interprétation active incorrecte).
  • Condition pour une interprétation correcte : Le modèle prédit la lecture passive correcte seulement si le profil de l'apprenant inclut une connaissance traitée de la morphologie de la voix passive (traite(indice_grammatical(passif, 'mordu'))), annulant ainsi la règle par défaut.

Ces prédictions computationnelles correspondent aux observations empiriques de la recherche en ALS, validant la validité apparente du modèle. La formalisation a également révélé des ambiguïtés potentielles dans la théorie en langage naturel, suggérant des affinements.

5. Analyse technique & Cadre de modélisation

5.1. Formalisme logique central

Le cœur du modèle peut être abstrait à l'aide de contraintes logiques. Soit $L$ l'état de connaissance de l'apprenant, $S$ la phrase d'input, et $R$ les ressources de traitement disponibles. Une interprétation $I$ est un ensemble de rôles sémantiques et de relations. La théorie IP $T$ définit une fonction de mappage $F_T$ contrainte par des règles par défaut $D$ :

$I = F_T(S, L, R) \quad \text{sous réserve de} \quad \sum_{g \in G(S)} \text{cout}(g) \leq R$

où $G(S)$ est l'ensemble des traits grammaticaux dans $S$, et $\text{cout}(g)$ est la charge cognitive pour traiter $g$. Les règles par défaut $D$ s'appliquent si $g \notin \text{traite}(L, R, S)$.

5.2. Exemple de cadre d'analyse

Analyse de cas : Le Principe du Premier Nom dans différentes structures syntaxiques.

Input : "Le livre a été donné à Marie par Jean." (Passif complexe avec verbe ditransitif).
Profil de l'apprenant : Débutant ; connaît les mots 'livre', 'donner', 'Marie', 'Jean' ; ne traite pas la morphologie passive ni la construction datif.
Exécution du modèle ASP :
1. Récupération lexicale : LIVRE, DONNER, MARIE, JEAN.
2. Le traitement grammatical échoue pour le passif ('a été donné') et l'objet indirect ('à Marie').
3. Le Principe du Premier Nom par défaut s'applique : LIVRE se voit attribuer le rôle d'agent.
4. Stratégie par défaut d'ordre linéaire : la séquence est interprétée comme Agent-Action-Bénéficiaire-? (le rôle de JEAN est ambigu).
Sortie Prédite : Plusieurs ensembles de réponses peuvent apparaître, par ex., {agent(LIVRE), action(DONNER), beneficiaire(MARIE), autre_participant(JEAN)} conduisant à une interprétation confuse comme "Le livre a donné quelque chose à Marie (et Jean était impliqué)." Cela identifie une zone spécifique de confusion pour les apprenants que les enseignants peuvent cibler.

6. Analyse critique & Perspectives futures

Perspective de l'analyste : Idée centrale, logique, forces & faiblesses, pistes d'action

Idée centrale : Ce travail ne se contente pas d'appliquer un outil d'IA à la linguistique ; il constitue un test de résistance rigoureux pour une théorie fondamentale de l'ALS. En forçant les règles vagues et descriptives du Traitement de l'Input dans la syntaxe inflexible de l'ASP, Inclezan expose les hypothèses cachées et les limites prédictives de la théorie. La valeur réelle réside dans l'utilisation du calcul non seulement pour automatiser, mais pour critiquer et affiner les modèles scientifiques générés par l'humain — une méthodologie qui fait écho aux travaux de Balduccini et Girotto sur les théories qualitatives dans d'autres domaines.

Logique : La logique de l'article est convaincante : (1) La théorie IP est qualitative et basée sur des règles par défaut → (2) L'ASP est un formalisme conçu pour les règles par défaut et le raisonnement non monotone → (3) Par conséquent, l'ASP est un outil approprié pour la formalisation → (4) La formalisation permet la prédiction, ce qui conduit à (a) l'affinement de la théorie et (b) l'application pratique (PIas). Ce pipeline est un modèle pour les sciences sociales computationnelles.

Forces & Faiblesses : La force principale est l'adéquation élégante entre le problème et l'outil. L'utilisation de la négation par l'échec de l'ASP pour modéliser "l'échec du traitement dû à des ressources limitées" est inspirée. Le développement de PIas va au-delà de la théorie pure vers une utilité tangible. Cependant, les faiblesses sont significatives. Le modèle est fortement simplifié, réduisant la nature chaotique et probabiliste de la cognition humaine à des règles déterministes. Il manque une architecture cognitive robuste pour la mémoire ou l'attention, contrairement à des cadres de modélisation cognitive plus complets comme ACT-R. La validation est principalement logique ("validité apparente") plutôt qu'empirique, manquant de tests à grande échelle sur des données réelles d'apprenants. Comparée aux approches modernes basées sur les données en TAL éducatif (par ex., l'utilisation de BERT pour prédire les erreurs des apprenants), cette approche symbolique est précise mais peut manquer d'évolutivité et d'adaptabilité.

Pistes d'action : Pour les chercheurs, la prochaine étape immédiate est la validation empirique et l'extension du modèle. Les prédictions du modèle ASP doivent être testées sur de grands corpus annotés d'apprenants (par ex., issus de tâches partagées comme celles de la communauté NLP4CALL). Le modèle devrait être étendu avec de l'ASP probabiliste ou des techniques neuro-symboliques hybrides pour gérer l'incertitude et la gradation dans les connaissances des apprenants, à l'instar des avancées observées dans d'autres domaines combinant logique et apprentissage automatique. Pour les praticiens, le prototype PIas devrait être développé en un assistant de planification de cours en temps réel, intégré à des plateformes comme Duolingo ou des logiciels de gestion de classe, pour signaler automatiquement les phrases susceptibles de causer des interprétations erronées pour un niveau de classe donné. La vision ultime devrait être une voie à double sens : utiliser les données d'interaction des apprenants provenant de telles applications pour affiner et paramétrer continuellement le modèle computationnel sous-jacent de l'acquisition.

Applications futures & Directions de recherche

  • Matériels d'apprentissage personnalisés : Génération dynamique d'exercices ciblant les schémas d'interprétation erronée prédits pour un apprenant spécifique.
  • Analyse automatisée de dissertations et de réponses : Étendre le modèle pour interpréter le langage produit par l'apprenant, pas seulement la compréhension, afin de diagnostiquer les causes profondes des erreurs.
  • Intégration avec des modèles cognitifs : Combiner le système basé sur des règles ASP avec des architectures cognitives computationnelles (par ex., ACT-R) pour un modèle plus plausible psychologiquement de la mémoire et du traitement.
  • Modélisation translinguistique : Appliquer le cadre pour modéliser les stratégies IP pour les apprenants de langues avec des ordres de mots différents (par ex., SOV comme le japonais), testant l'universalité des principes.
  • Extensions probabilistes : Passer de la programmation par ensembles de réponses catégorielle à probabiliste (par ex., P-log) pour modéliser la probabilité des différentes interprétations.

7. Références

  1. Gelfond, M., & Lifschitz, V. (1991). Classical negation in logic programs and disjunctive databases. New Generation Computing, 9(3/4), 365-386.
  2. Niemelä, I. (1999). Logic programs with stable model semantics as a constraint programming paradigm. Annals of Mathematics and Artificial Intelligence, 25(3-4), 241-273.
  3. Balduccini, M., & Girotto, S. (2010). Formalization of psychological knowledge in Answer Set Programming and its application. Theory and Practice of Logic Programming, 10(4-6), 725-740.
  4. VanPatten, B. (2004). Input Processing in Second Language Acquisition. In B. VanPatten (Ed.), Processing Instruction: Theory, Research, and Commentary (pp. 5-31). Lawrence Erlbaum Associates.
  5. Anderson, J. R., Bothell, D., Byrne, M. D., Douglass, S., Lebiere, C., & Qin, Y. (2004). An integrated theory of the mind. Psychological Review, 111(4), 1036–1060. (Architecture ACT-R)
  6. Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of NAACL-HLT 2019. (Référence pour le contraste avec le TAL basé sur les données)