1. مقدمه

این مقاله یک کاربرد میان‌رشته‌ای نوین از برنامه‌نویسی مجموعه پاسخ (ASP) را برای صوری‌سازی و تحلیل یک نظریه کلیدی در فراگیری زبان دوم (SLA) ارائه می‌دهد: نظریه پردازش ورودی (IP) ون‌پتن. چالش اصلی مورد بررسی، ترجمه یک نظریه کیفی مبتنی بر زبان طبیعی که راهبردهای شناختی پیش‌فرض مورد استفاده زبان‌آموزان را توصیف می‌کند، به یک مدل دقیق و قابل محاسبه است. این صوری‌سازی، آزمایش خودکار پیش‌بینی‌های نظریه، اصلاح اصول آن و توسعه ابزارهای عملی مانند سیستم PIas برای کمک به مدرسان زبان را ممکن می‌سازد.

2. پیشینه و چارچوب نظری

2.1. برنامه‌نویسی مجموعه پاسخ (ASP)

ASP یک پارادایم برنامه‌نویسی اعلانی مبتنی بر معناشناسی مدل پایدار (مجموعه پاسخ) در برنامه‌نویسی منطقی است. این پارادایم در بازنمایی استدلال پیش‌فرض، اطلاعات ناقص و حوزه‌های پویا — ویژگی‌های محوری در مدل‌سازی فرآیندهای شناختی انسان — برتری دارد. یک قاعده در ASP به این شکل است: head :- body.، که در آن head در صورت برآورده شدن body درست است. راهبردهای پیش‌فرض را می‌توان به زیبایی با استفاده از نفی به عنوان شکست (not) بازنمایی کرد.

2.2. نظریه پردازش ورودی

نظریه IP که توسط ون‌پتن ارائه شده، مدعی است که زبان‌آموزان دوم، به ویژه مبتدیان، به دلیل منابع پردازشی محدود (حافظه فعال) و دانش دستوری ناقص، از مجموعه‌ای از راهبردهای اکتشافی پیش‌فرض برای استخراج معنا از ورودی استفاده می‌کنند. یک اصل کلیدی، اصل اسم اول است: زبان‌آموزان تمایل دارند نقش فاعل/کننده را به اولین اسم یا ضمیری که در جمله با آن مواجه می‌شوند نسبت دهند. این امر منجر به سوءتفسیرهای نظام‌مند می‌شود، مانند تفسیر جمله مجهول "The cat was bitten by the dog" به صورت "The cat bit the dog" (گربه سگ را گاز گرفت).

3. صوری‌سازی پردازش ورودی در ASP

3.1. مدل‌سازی راهبردهای پیش‌فرض

اصول IP به عنوان قواعد ASP کدگذاری می‌شوند. برای مثال، اصل اسم اول را می‌توان به عنوان یک قاعده پیش‌فرض نشان داد که زمانی اعمال می‌شود که نشانه‌های دستوری (مانند نشانگرهای صدای مجهول) به دلیل محدودیت منابع پردازش نشده‌اند:

% پیش‌فرض: نسبت دادن نقش کننده به اولین اسم
assign_agent(FirstNoun, Event) :-
    sentence_word(FirstNoun, Position1, Noun),
    sentence_word(Verb, Position2, VerbLex),
    Position1 < Position2,
    event(Event, VerbLex),
    not processed(grammatical_cue(passive, Verb)),
    not overridden_by_grammar(Event).

شرط not processed(...) محدودیت منابع را ثبت می‌کند و قاعده را غیریکنواخت می‌سازد.

3.2. بازنمایی دانش و منابع زبان‌آموز

این مدل، بازنمایی پویایی از وضعیت زبان‌آموز را دربرمی‌گیرد:

  • دانش واژگانی: واقعیت‌هایی مانند knows_word(learner, 'dog', noun, animal).
  • دانش دستوری: قواعد درونی‌شده (مثلاً برای صدای مجهول).
  • منابع پردازشی: به عنوان محدودیت‌هایی مدل‌سازی می‌شوند که تعداد ویژگی‌های دستوری قابل پردازش همزمان در یک جمله معین را محدود می‌کنند.

تعامل بین راهبردهای پیش‌فرض و دانش دستوری اکتساب‌شده از طریق اولویت‌های قاعده یا قواعد لغو مدل‌سازی می‌شود.

4. سیستم PIas: کاربرد و نتایج

4.1. معماری سیستم

PIas (پردازش ورودی به عنوان یک سیستم) یک نمونه اولیه است که یک جمله انگلیسی و یک پروفایل زبان‌آموز (سطح مهارت تقریبی، واژگان/دستور شناخته شده) را به عنوان ورودی می‌گیرد. این سیستم از مدل صوری‌شده ASP برای تولید یک یا چند تفسیر پیش‌بینی‌شده (مجموعه‌های پاسخ) استفاده می‌کند.

توضیح نمودار جریان سیستم: گردش کار با داده‌های جمله ورودی و پروفایل زبان‌آموز آغاز می‌شود. این داده‌ها به پایگاه دانش ASP وارد می‌شوند که شامل قواعد صوری‌شده IP، واقعیت‌های واژگانی و قواعد دستوری است. یک حل‌کننده ASP (مانند Clingo) مدل‌های پایدار را محاسبه می‌کند. مجموعه‌های پاسخ حاصل به تفسیرهای پیش‌بینی‌شده تجزیه می‌شوند که سپس از طریق یک رابط کاربری برای مدرسان در قالبی خوانا ارائه می‌شوند و سوءتفسیرهای محتمل را برجسته می‌کنند.

4.2. پیش‌بینی‌های تجربی و اعتبارسنجی

مقاله خروجی سیستم را برای مثال‌های کلاسیک نشان می‌دهد. برای جمله مجهول "The cat was bitten by the dog" و یک پروفایل مبتدی:

  • تفسیر پیش‌بینی‌شده 1 (پیش‌فرض): کننده=گربه، عمل=گاز گرفتن، پذیرنده=سگ. (تفسیر نادرست معلوم).
  • شرط تفسیر صحیح: مدل تنها در صورتی تفسیر صحیح مجهول را پیش‌بینی می‌کند که پروفایل زبان‌آموز شامل دانش پردازش‌شده از ریخت‌شناسی صدای مجهول باشد (processed(grammatical_cue(passive, 'bitten'))) و قاعده پیش‌فرض را لغو کند.

این پیش‌بینی‌های محاسباتی با مشاهدات تجربی از پژوهش‌های SLA همسو هستند و اعتبار ظاهری مدل را تأیید می‌کنند. صوری‌سازی همچنین ابهامات بالقوه در نظریه زبان طبیعی را آشکار کرد و اصلاحاتی را پیشنهاد داد.

5. تحلیل فنی و چارچوب

5.1. صوری‌سازی منطقی هسته

هسته مدل را می‌توان با استفاده از محدودیت‌های منطقی انتزاع کرد. فرض کنید $L$ وضعیت دانش زبان‌آموز، $S$ جمله ورودی و $R$ منابع پردازشی در دسترس باشد. یک تفسیر $I$ مجموعه‌ای از نقش‌های معنایی و روابط است. نظریه IP، $T$ یک تابع نگاشت $F_T$ را تعریف می‌کند که توسط راهبردهای پیش‌فرض $D$ محدود شده است:

$I = F_T(S, L, R) \quad \text{subject to} \quad \sum_{g \in G(S)} \text{cost}(g) \leq R$

که در آن $G(S)$ مجموعه ویژگی‌های دستوری در $S$ است و $\text{cost}(g)$ بار شناختی پردازش $g$ است. راهبردهای پیش‌فرض $D$ اگر $g \notin \text{processed}(L, R, S)$ باشد اعمال می‌شوند.

5.2. مثال چارچوب تحلیل

تحلیل موردی: اصل اسم اول در ساختارهای نحوی مختلف.

ورودی: "The book was given to Mary by John." (مجهول پیچیده با فعل دو مفعولی).
پروفایل زبان‌آموز: مبتدی؛ کلمات 'book', 'give', 'Mary', 'John' را می‌شناسد؛ ریخت‌شناسی مجهول یا ساخت مفعول غیرمستقیم را پردازش نمی‌کند.
اجرای مدل ASP:
1. بازیابی واژگانی: BOOK, GIVE, MARY, JOHN.
2. پردازش دستوری برای مجهول ('was given') و مفعول غیرمستقیم ('to Mary') ناموفق است.
3. اصل پیش‌فرض اسم اول فعال می‌شود: نقش کننده به BOOK نسبت داده می‌شود.
4. راهبرد پیش‌فرض ترتیب خطی: توالی به صورت کننده-عمل-گیرنده-؟ تفسیر می‌شود (نقش JOHN مبهم است).
خروجی پیش‌بینی‌شده: ممکن است چندین مجموعه پاسخ ایجاد شود، مثلاً {agent(BOOK), action(GIVE), recipient(MARY), other_participant(JOHN)} که منجر به تفسیر سردرگم‌کننده‌ای مانند "کتاب چیزی به مری داد (و جان هم درگیر بود)" می‌شود. این امر ناحیه خاصی از سردرگمی را برای زبان‌آموزان مشخص می‌کند که مدرسان می‌توانند بر آن تمرکز کنند.

6. تحلیل انتقادی و جهت‌های آینده

دیدگاه تحلیلگر: بینش هسته، جریان منطقی، نقاط قوت و ضعف، بینش‌های عملی

بینش هسته: این کار صرفاً درباره اعمال یک ابزار هوش مصنوعی جالب به زبان‌شناسی نیست؛ بلکه یک آزمون استرس دقیق برای یک نظریه بنیادی SLA است. با وادار کردن قواعد مبهم و توصیفی پردازش ورودی به نحو بی‌امان ASP، این کار فرضیات پنهان و مرزهای پیش‌بینی نظریه را آشکار می‌کند. ارزش واقعی در استفاده از محاسبات نه صرفاً برای خودکارسازی، بلکه برای نقد و اصلاح مدل‌های علمی تولیدشده توسط انسان است — روش‌شناسی که کار بالدوچینی و جیروتو در مورد نظریه‌های کیفی در سایر حوزه‌ها را تداعی می‌کند.

جریان منطقی: منطق مقاله قانع‌کننده است: (1) نظریه IP کیفی و مبتنی بر پیش‌فرض‌ها است → (2) ASP یک صوری‌سازی طراحی‌شده برای پیش‌فرض‌ها و استدلال غیریکنواخت است → (3) بنابراین، ASP ابزار مناسبی برای صوری‌سازی است → (4) صوری‌سازی امکان پیش‌بینی را فراهم می‌کند که منجر به (الف) اصلاح نظریه و (ب) کاربرد عملی (PIas) می‌شود. این خط لوله، یک الگو برای علوم اجتماعی محاسباتی است.

نقاط قوت و ضعف: نقطه قوت اصلی، تناسب ظریف بین مسئله و ابزار است. استفاده از نفی-به-عنوان-شکست ASP برای مدل‌سازی "شکست در پردازش به دلیل محدودیت منابع" الهام‌بخش است. توسعه PIas از نظریه محض فراتر رفته و به سودمندی ملموس حرکت می‌کند. با این حال، نقاط ضعف قابل توجه هستند. مدل به شدت ساده‌سازی شده و ماهیت آشفته و احتمالاتی شناخت انسان را به قواعد قطعی تقلیل می‌دهد. این مدل فاقد یک معماری شناختی قوی برای حافظه یا توجه است، برخلاف چارچوب‌های جامع‌تر مدل‌سازی شناختی مانند ACT-R. اعتبارسنجی عمدتاً منطقی ("اعتبار ظاهری") است تا تجربی و فاقد آزمایش در مقیاس بزرگ بر روی داده‌های واقعی زبان‌آموزان است. در مقایسه با رویکردهای مدرن مبتنی بر داده در پردازش زبان طبیعی آموزشی (مانند استفاده از BERT برای پیش‌بینی خطاهای زبان‌آموز)، این رویکرد نمادین دقیق است اما ممکن است فاقد مقیاس‌پذیری و انطباق‌پذیری باشد.

بینش‌های عملی: برای پژوهشگران، گام بعدی فوری، اعتبارسنجی تجربی و گسترش مدل است. پیش‌بینی‌های مدل ASP باید در برابر پیکره‌های بزرگ حاشیه‌نویسی‌شده زبان‌آموزان (مانند وظایف مشترک جامعه NLP4CALL) آزمایش شوند. مدل باید با ASP احتمالاتی یا تکنیک‌های ترکیبی عصب‌نمادین گسترش یابد تا عدم قطعیت و تدریجی بودن دانش زبان‌آموز را مدیریت کند، مشابه پیشرفت‌های مشاهده‌شده در سایر حوزه‌های ترکیبی منطق و یادگیری ماشین. برای دست‌اندرکاران، نمونه اولیه PIas باید به یک دستیار برنامه‌ریزی درس بلادرنگ توسعه یابد و در پلتفرم‌هایی مانند Duolingo یا نرم‌افزار مدیریت کلاس ادغام شود تا به طور خودکار جملاتی را که احتمالاً برای یک سطح کلاس معین باعث سوءتفسیر می‌شوند، علامت‌گذاری کند. دیدگاه نهایی باید یک خیابان دوطرفه باشد: استفاده از داده‌های تعامل زبان‌آموز از چنین کاربردهایی برای اصلاح و پارامترسازی مداوم مدل محاسباتی زیربنایی اکتساب.

کاربردهای آینده و جهت‌های پژوهشی

  • مواد یادگیری شخصی‌سازی‌شده: تولید پویای تمرین‌هایی که الگوهای سوءتفسر پیش‌بینی‌شده یک زبان‌آموز خاص را هدف قرار می‌دهند.
  • تحلیل خودکار انشاء و پاسخ: گسترش مدل برای تفسیر زبان تولیدشده توسط زبان‌آموز، نه فقط درک مطلب، به منظور تشخیص علل ریشه‌ای خطاها.
  • ادغام با مدل‌های شناختی: ترکیب سیستم قاعده‌بنیاد ASP با معماری‌های شناختی محاسباتی (مانند ACT-R) برای یک مدل روان‌شناختی‌تر از حافظه و پردازش.
  • مدل‌سازی بین‌زبانی: اعمال چارچوب برای مدل‌سازی راهبردهای IP برای زبان‌آموزان زبان‌هایی با ترتیب کلمات متفاوت (مانند SOV مانند ژاپنی)، برای آزمایش جهان‌شمولی اصول.
  • گسترش‌های احتمالاتی: حرکت از برنامه‌نویسی مجموعه پاسخ قطعی به احتمالاتی (مانند P-log) برای مدل‌سازی احتمال تفسیرهای مختلف.

7. منابع

  1. Gelfond, M., & Lifschitz, V. (1991). Classical negation in logic programs and disjunctive databases. New Generation Computing, 9(3/4), 365-386.
  2. Niemelä, I. (1999). Logic programs with stable model semantics as a constraint programming paradigm. Annals of Mathematics and Artificial Intelligence, 25(3-4), 241-273.
  3. Balduccini, M., & Girotto, S. (2010). Formalization of psychological knowledge in Answer Set Programming and its application. Theory and Practice of Logic Programming, 10(4-6), 725-740.
  4. VanPatten, B. (2004). Input Processing in Second Language Acquisition. In B. VanPatten (Ed.), Processing Instruction: Theory, Research, and Commentary (pp. 5-31). Lawrence Erlbaum Associates.
  5. Anderson, J. R., Bothell, D., Byrne, M. D., Douglass, S., Lebiere, C., & Qin, Y. (2004). An integrated theory of the mind. Psychological Review, 111(4), 1036–1060. (ACT-R architecture)
  6. Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of NAACL-HLT 2019. (Reference for data-driven NLP contrast)