العنوان بلغة أخرى: |
Using Generalizability Theory in Estimating Reliability of a Mathematical Competence Assessment Test of Fourth Year Primary School Students |
---|---|
المصدر: | المجلة الأردنية في العلوم التربوية |
الناشر: | جامعة اليرموك - عمادة البحث العلمي |
المؤلف الرئيسي: | طباع، فاروق (مؤلف) |
المؤلف الرئيسي (الإنجليزية): | Tebaa, Farouq |
المجلد/العدد: | مج16, ع1 |
محكمة: | نعم |
الدولة: |
الأردن |
التاريخ الميلادي: |
2020
|
الصفحات: | 1 - 18 |
ISSN: |
1814-9480 |
رقم MD: | 1059844 |
نوع المحتوى: | بحوث ومقالات |
اللغة: | العربية |
قواعد المعلومات: | EduSearch |
مواضيع: | |
كلمات المؤلف المفتاحية: |
نظرية التعميم | الثبات | اختبار تقييم الكفاءة | مصادر التباين الخطأ | المهمات المعقدة | Generalizability Theory | Reliability | Competence Assessment Test | Sources of Error Variance | Complex Tasks
|
رابط المحتوى: |
الناشر لهذه المادة لم يسمح بإتاحتها. |
المستخلص: |
استخدمت الدراسة الحالية نظرية إمكانية التعميم في تقدير ثبات اختبار تقييم كفاءة الطلاب في الرياضيات، وأثناء الدراسة، طبق اختبار يشتمل تسع مهمات معقدة موزعة على ثلاث صيغ: أ) ثلاث مهمات محكمة البناء، ب) ثلاث مهمات غير محكمة البناء، ج) ثلاث مهمات ذات معلومات مشوشة، كأساس لتقييم كفاءة الأعداد والحساب، على عينة مكونة من (331) طالباً في السنة الرابعة ابتدائي. وقد شارك في عملية تقييم أداء الطلاب ثلاثة مقدرين مدربين باستخدام شبكات تصحيح تحليلية، وتم تحليل البيانات بواسطة تصميم ثنائي البعد متقاطع كلياً "طالب × مهمة × مقدر" باستخدام حزمة "EduG". أظهرت نتائج الدراسة وجود مصادر خطأ كبيرة راجعة إلى أثر تفاعل الطالب مع المهمة والتأثير الرئيسي للمهمة. ومن أجل ضمان مستويات ثبات مقبولة يجب زيادة عدد المهمات وليس عدد المقدرين. كما ينبغي العناية أثناء استخدام المهمات المعقدة في قياسات تقييم الكفاءة. The current study used Generalizability Theory to estimate the reliability of a mathematical competence assessment test. During the study, the test was composed of nine different complex task formats: a) three well-defined tasks, b) three ill -defined tasks and c) three tasks with parasite data. These tasks were administered to a sample of (331) fourth year primary school students. Three trained raters participated in the scoring process by means of analytic scoring rubrics. Data collected were analyzed in terms of a fully crossed two-faceted design "person × task × rater" using "EduG" package. Research results showed substantial sources of error due to person-task interaction effect and task main effect. To ensure acceptable levels of reliability, the number of tasks should be increased but not the number of raters. As such, special caution should be put on the use of complex tasks in competence assessment measures. |
---|---|
ISSN: |
1814-9480 |