وبلاگ

توضیح وبلاگ من

پژوهش های کارشناسی ارشد درباره : بهبود هوشمندانه انتخاب سوال بر پایه سطح دانش آزمون دهنده در ...

 
تاریخ: 04-08-00
نویسنده: فاطمه کرمانی

روش­های جستجو
در مدل­های غیر خطی، مانند مدل­های IRT ، به طور معمول روش­های برآورد MLمستلزم یک فرایند جستجو برای یافتن اندازه­هایی است درست­نمایی داده ­ها را به حداکثر می­رساند. در روش­ها برآورد ML از تغییرات نسبی لگاریتم درست­نمایی داده ­ها در اندازه­ های مختلف احتمال برای یک پارامتر استفاده می­ شود. فرایند جستجو در مورد مجموعه ­ای معادله­های برآورد سوال به کار می­رود. معادله­های برآورد سوال­ها مجموعه ­ای از شرایط عددی را تعریف می­ کنند که هر گاه برآوردهای ML به دست آمدند، تحقق می­یابند. در این بخش، روش جستجوی معروف نیوتن – رافسون توضیح داده خواهد شد، این روش در بخش­های قبل شرح داده شده بود، لذا این قسمت ادامه مبحث قبلی می­باشد.
دانلود پایان نامه - مقاله - پروژه
تغییرات درست­نمایی داده ­ها
تغییرات در لگاریتم درست­نمایی داده ­ها تحت اندازه­ های مختلف احتمال در مورد پارامتر سوال، فرایند جستجوی برآورد را هدایت می­ کند. شکل ‏۳‑۹، لگاریتم درست­نمایی داده ­های ART را با اندازه­ های مختلف دشواری برای ۸ سوال را نمایش می­دهد. (با بهره گرفتن از معادله‏۳‑۱۸و با ثابت نگه داشتن سایر پارامترهای سوال). منحنی درست­نمایی داده ­ها، یک منحنی به شکل U وارونه است.
کیفیت برآورد دشواری یک سوال خاص به شکل منحنی بستگی دارد. دو نکته شایان ذکر است. نخست، ارتفاع منحنی در اندازه بیشینه درست­نمایی به حداکثر می­رسد. در شکل ‏۳‑۹، وقتی که برآورد ML برابر ۵۵/۰- است ارتفاع منحنی به اوج خود می­رسد. توجه کنید فقط یک قله به وجود می ­آید که معنای آن این است که برای تابع هیچ بیشینه دیگری وجود ندارد. دوم، تغییرات درست­نمایی داده ­ها در نزدیکی نقطه بیشینه درست­نمایی کندتر می­ شود. برای مثال، چنانکه در شکل ‏۳‑۹ نشان داده شده است، لگاریتم درست­نمایی داده ­ها بین اندازه­ های ۴/۰- و ۵/۰- که به قله منحنی نزدیکند در مقایسه با اندازه­ های بین ۵/۰ و ۶/۰ کندتر تغییر می­ کند. این اطلاعات تشخیصی را می­توان با محاسبه مقدار تغییرات لحظه­ای در لگاریتم درست­نمایی در نقاط مختلف صورت­بندی کرد. تانژانت منحنی مقدار تغییرات لحظه­ای را بازنمایی می­ کند. اندازه تغییر لحظه­ای مشخص می­ کند که سطح دشواری یک سوال خاص برابر، کمتر یا بیشتر از اندازه ML است.
شکل ‏۳‑۹: درست­نمایی داده ­ها تحت اندازه­ های مخنلف پارامتر یک سوال.
معادله­های برآورد
معادله­های برآورد، مجموعه شرایطی را بیان می­ کند که در صورت برآوردهای ML تحقق می­یابد. چون نقطه بیشینه درست­نمایی زمانی به دست می ­آید که میزان تغییر لحظه­ای برابر با صفر باشد، و این شرایطی را که وسیله برآوردهای ML تحقق می­یابند، تعریف می­ کند. معادله­های برآورد فرمول­های اندازه تغییرات لحظه­ای برابر صفر در نظر گرفته می شوند.
معادله­های برآورد ML را به عنوان مقداری از پارامتر سوال تعریف می­ کنند که مجموع احتمال­های سوال را برای افراد با تعداد افرادی که به سوال پاسخ درست داده­اند برابر می­سازند. در مدل­های ۲PL و ۳PL، به این مجموع­ها بر حسب ضریب تشخیص سوال وزن داده می­ شود.
روش جستجوی نیوتن – رافسون
روش نیوتن – رافسون یک فرایند جستجوی تکرار شونده است که در آن برآوردهای پارامتر به صورت متوالی بهبود می­یابد. فرایند جستجو تحت برآورد نیوتن – رافسون نیازمند آن است که:
شرایطی که در صورت حاصل شدن بهترین برآورد تحقق می­یابند تعریف شوند،
برآوردهای بهبود یافته برای پارامترهای سوال به دست می ­آید،
برای تعیین اینکه چه وقت باید فرایند جستجو را متوقف ساخت، ملاکی تعریف شود.
شرایط تحقق یافته
روش نیوتن – رافسون مستلزم آن است که تابع درست­نمایی هر دو مشتق اول و دوم را داشته باشند. مشتق اول شرایطی را تعریف می­ کند که در صورت به دست آوردن برآوردهای ML حاصل می­شوند. (یعنی معادله­های برآورد). برآورد ML زمانی به دست می ­آید که مقدار معادله برآورد برابر صفر باشد.
بهبود برآوردهای پارامتر
روش نیوتن – رافسون با برخی اندازه­ های اولیه برای برآوردهای دشواری سوال شروع می­ شود (گاهی از ۰۰/۰ شروع می شود). سپس برآورد پارامتر بهبود یافته با کم کردن یک مقدار h، از برآورد کنونی پارامتر به دست می ­آید. اندازه ثابت h به عنوان خارج قسمت اندازه معادله برآورد (مشتق نوبت­ها منهای ۱) بر مشتق دوم محاسبه می­ شود. مشتق اول، جهت حرکت (مثبت یا منفی) از برآورد فعلی برای جستجوی برآورد محتمل­تر را تعیین می­ کند. مشتق دوم، چگونگی سرعت تغییر معادله برآورد را تعیین می­ کند و در نتیجه درباره اینکه برآورد قبلی با چه شدتی باید اصلاح شود اطلاعاتی فراهم می­سازد. اگر شیب ­ها در برآورد فعلی به آرامی تغییر کنند، نقطه بیشینه درست­نمایی نزدیک است و لذا، یک تغییر کوچک لازم است. اندازه بهبود یافته برآورد دشواری سوال به صورت زیر است:

 

معادله‏۳‑۱۹ Bبهبودیافته= Bکنونی – h

متوقف کردن جستجو : ملاک هم­گرایی.
هرگاه تفاوت میان برآوردهای پارامتر سوال در دو مرحله متوالی بسیار کوچک باشد، فرایند جستجو متوقف می­ شود. هم­گرایی مشخص می­ کند که مقدار پارامتر آن­قدر کوچک است که بهبودهای بعدی بی معنا خواهد بود. این ملاک ممکن است برای هر سوال یا برای خلاصه تابع یک مجموعه اعمال شود.
خطاهای استاندارد برای برآوردهای پارامتر سوال
خطاهای استاندارد پارامترهای سوال نشان می­ دهند که درست­نمایی داده ­ها در اطراف مقدار پارامتر با چه سرعتی تغییر می­ کند. هر اندازه که سرعت تغییر درست­نمایی بیشتر باشد، خطای استاندارد کمتر خواهد بود.
فرمول­های خطاهای استاندارد از مشتق جزئی دوم بدست می­آیند. آهنگ تغییر در برآورد ML (یعنی قله لگاریتم درست­نمایی) خطای استاندارد را تعیین می­ کند. نشان دادن خطای استاندارد برای مدل راش نسبتا آسان است. ریشه دوم معکوس احتمال مجموع پاسخ­های درست افراد به هر سوال ضرب در احتمال پاسخ­های غلط آنان به سوال­ها یعنی PisQis خطای استاندارد یعنی σβ را به صورت معادله‏۳‑۲۰بدست می­دهد.

 

معادله‏۳‑۲۰  

سه روش برآورد بیشینه درست­نمایی برای سطوح صفت نامعلوم
در کاربردهای رایج IRT، پارامترهای سوال و سطوح صفت هر دو نامعلوم­اند و باید از داده ­های واحد برآورد شوند. برآورد پارامترهای سوال با سطوح صفت نامعلوم مانند انجام دادن یک رگرسیون لوجستیک با اندازه های نامعلوم متغیر پیش­بین است. بیشینه درست­نمایی مشترک (JML)، بیشینه درست­نمایی کناری (MML)، بیشینه درست­نمایی شرطی (CML) سه روش رایج برای برآورد در مورد سطوح صفت نامعلوم هستند.
هالند (۱۹۹۰)، مبانی نظری نمونه گیری سه روش ML را با هم مقایسه کرد. او دو تفسیر کلی در مورد احتمال­های الگوی پاسخ­دهی را مطرح کرده است که از لحاظ کیفی با هم تفاوت دارند. در تفسیر احتمال ضمنی آزمودنی[۳۲]، افراد مشاهده شده ثابت فرض می­شوند. در هر دو روش JML و CML، تفسیرهای ضمنی آزمودنی در مفهوم­سازی احتمال های الگوی پاسخ­دهی به کار می­رود. در تفسیر نمونه گیری تصادفی از احتمال، افراد مشاهده­شده به عنوان یک نمونه تصادفی از جامعه در نظر گرفته می­شوند. احتمال، مشاهده نمونه به فرآوانی نسبی سطوح صفت آن­ها در جامعه بستگی دارد. به عبارت ­دیگر، احتمال مشاهده الگوهای پاسخ­دهی در نمونه، هم­زمان به توزیع سطح صفت و پیش ­بینی مدل IRT از پارامترهای سوال وابسته است. بنابراین، تفسیر احتمال مستلزم آن است که یک توزیع مشخص از سطح صفت معلوم فرض شود. MML با تفسیر نمونه گیری تصادفی وجه اشتراک خوبی دارد، اما در عین حال با تفسیرهای ضعیف مانند تعویض پذیری آزمودنی­های دارای سطح صفت معادل نیز تطبیق می­ کند [۱۳].
بیشینه درست­نمایی هم­زمان (JML)
در برآورد JML، سطوح صفت نامعلوم با بهره گرفتن از برآوردهای موقتی سطح صفت به عنوان اندازه­ های ­­معلوم بررسی می شوند. برآوردهای موقتی سطح صفت نیز با بهره گرفتن از پارامترهای سوال که به طور متوالی برآورد می­شوند بهبود می­یابند، و این امر به نوبه خود به بهبود پی­درپی پارمترهای سوال منجر می­ شود.
درست­نمایی الگوی پاسخ­دهی
درست­نمایی الگوی پاسخ­دهی، درست مانند آنچه که در معادله‏۳‑۱۶ برای پارامترهای مشخص فرد نشان داده شد مدل سازی می­ شود، با این تفاوت که در این­جا برای محاسبه احتمال­های پاسخ­دهی فرد برآوردهای موقتی سطح صفت، همانند معادله‏۳‑۱۷از حاصل­ضرب داده ­های مربوط به افراد محاسبه می­ شود. اما، چون احتمال­های الگوی پاسخ­دهی به سطوح صفت برآورد شده بستگی دارد، باید درست­نمایی را به گونه­ متفاوتی تفسیر کرد. این برآوردهای صفت، در یک تکرار نامشخص از روش JML به بهترین وجه حاصل می­شوند. در روش JML، برآورد پارامترهای سوال به طور متوالی به کیفیت برآوردهای پارامتر فرد بستگی خواهد داشت.
روش JML یک روش از سرگیری است که به طور معمول برآوردهای متوالی پارامترهای سوال و فرد را شامل می شود. این روش توالی به طور گسترده مورد استفاده قرار می­گیرد و به وضوح نشان می­دهد که برآوردهای موقتی چگونه جایگزین پارامترهای معلوم می­شوند. نخستین تکرار این روش دو مرحله­ ای شامل تعیین اندازه­ های آغازین برای پارامترهای سوال است ( مانند یک مقدار مشترک مانند صفر)، به گونه ­ای که برآوردهای ML پارامترهای فرد به دست می­آیند. سپس، پارامترهای سوال با بهره گرفتن از برآوردهای اولیه پارامتر شخص بدست می­آیند. در دومین تکرار، پارامترهای شخص با بهره گرفتن از برآوردهای بهبود یافته پارامتر سوال برآورد می­شوند. سپس، بار دیگر پارمترهای سوال با بهره گرفتن از برآوردهای بهبود یافته پارامتر شخص برآورد می­شوند و همین­طور الی آخر. تکرارها تا زمانی ادامه می­یابد که تغییرات پارامترهای سوال بین تکرارهای متوالی بسیار کوچک باشند. برای تفاوت بین پارامترهای سوال در تکرارهای متوالی از یک ملاک همگرایی استفاده می­ شود.
JML تا اندازه­ای در سطح بسیار گسترده، به ویژه در برنامه ­های اولیه IRT مورد استفاده قرار گرفته است. از جمله مزایای JML، نخست، این الگوریتم به آسانی قابل برنامه­ ریزی است. دوم، JML برای بسیاری از مدل­های IRT می­توان به کار برد. سوم، JML از نظر محاسباتی بسیار کارآمد است. JML چند نقطه ضعف نیز دارد. نخست، برآوردهای پارامتر سوال ویژگی مطلوب را ندارند. مثلا پارامترهای سوال با سوگیری همراهند، همچنین در مورد آزمون­هایی که طول ثابت دارند، ناهمسان است. افزایش تعداد افراد گروه نمونه در مورد بیشتر مدل­های IRT به بهبود برآورد منجر نمی شود، چون با این کار پارامترهای بیشتری برآورد می شوند. دوم، مفهوم خطاهای استاندارد JML تردیدآمیز است، چون برآوردهای پارامتر سوال، همراه با سوگیری و ناهمسانند و برآوردهای مطلوبی برای استفاده در محاسبه خطاهای استاندارد نیستند. سوم، درست نمایی­های JML کاربرد تردیدآمیزی در مورد فرضیه ­های مربوط به مدل­های IRT مانند برازش تطبیقی مدل های IRT دارند. چهارم، برای سوال­ها یا افرادی که نمره ­های کامل می­گیرند(همه قبول یا همه رد) برآوردی بدست نمی­آید.
بیشینه درست­نمایی حاشیه­ای (MML)
در برآورد MML، سطوح صفت نامعلوم با بیان احتمال­های الگوی پاسخ به عنوان اندازه­ های مورد انتظار از توزیع یک جامعه بررسی می­شوند. در MML، داده ­های مشاهده شده به عنوان یک نمونه تصادفی از یک جامعه تلقی می­شوند. الگوریتم انتظار / بیشینه­سازی[۳۳] (EM) توسط باک و ایتکن برای برآورد انداره­های مورد انتظار تدوین شد. ایگوریتم EM برای MML، مانند JML یک روش تکرار شونده است. اما در MML، تکرارها به طور متوالی فراوانی­های مورد انتظار پاسخ­های درست و سطح صفت را بهبود می­بخشند.
درست­نمایی الگوی پاسخ


فرم در حال بارگذاری ...

« دانلود منابع تحقیقاتی برای نگارش مقاله مدل سازی گره و محاسبه مصرف توان پردازشی شبکه ...دانلود منابع پایان نامه درباره نقش جذب دانش در نوآوری و انعطاف پذیری سازمان صدا و ... »
 
مداحی های محرم