ترجمه تخصصی مقالات انگلیسی

ترجمه تخصصی مقالات رشته های فنی مهندسی، علوم انسانی، علوم پایه، پزشکی، حقوق

ترجمه تخصصی مقالات انگلیسی

ترجمه تخصصی مقالات رشته های فنی مهندسی، علوم انسانی، علوم پایه، پزشکی، حقوق

در این وبلاگ، مطالب و مقالات علمی برای رشته های مختلف دانشگاهی، منتشر خواهد شد

 

 

مثال3.6. در شکل های 29.6 و 30.6 نمودار همبستگی و نمودار پراکندگی برای 100 تاخیر در صف از یک سیستم صف بندی M/M/1 را با بکارگیری ضریب ρ = 0.8 نشان می دهیم. توجه کنید که ρj  ها برای مقدارهای کوچک j کوچک هستند و نقاط در نمودار پراکندگی میل دارند که در خطی با شیب مثبت قرار گیرند. این واقعیت ها با این نظر ما سازگار است که می گوید تاخیرها در یک صف ارتباط مثبت دارند.

چند آزمون آماری ناپارامتری (یعنی هیچ فرضی در مورد توزیع Xi ها وجود ندارد) هست که می توان برای آزمایش این که آیا X1, X2, . . . , Xn مستقل هستند یا نه استفاده کرد. بارتلز (1982) یک نسخه رتبه بندی نسبت وون نیومان را به عنوان یک آمار آزمایشی برای مستقل بودن پبشنهاد کرد و مقدارهای ضروری لازم برای انجام آزمایش را ارائه کرد. با این حال یک عیب احتمالی این است که آزمون فرض می کند که هیچ ارتباطی در داده ها وجود ندارد، که در آن ارتباط به معنی این است که برای i j داریم Xi = Xj. این الزام به طور کلی برای داده های گسسته برآورده نخواهد شد و ممکن است برای داده های پیوسته نیز اگر با دقت جند رقم اعشار ثبت شده باشند، برآورده نشود. (زمان های بین ورود در جدول 7.6 را ببینید). بارتلز بیان می کند این مقدارهای ضروری هنوز هم ممکن است در صورتی که تعداد ارتباط ها کوچک باشد، دقت معقولی داشته باشند.

سفارش ترجمه تخصصی حسابداری و اقتصاد

چند نسخه از اجرای آزمون ها وجود دارد [برای نمونه بخش 1.4.7 و مقاله گیبونز (1985) را ببینید] که می توان از آنها برای ارزیابی مستقل بودن Xi ها استفاده کرد.

 

شکل30.6. نمودار پراکندگی برای داده های صف بندی همبسته

آنها باید نسبت به آزمون رتبه بندی وون نیومان دشواری کمتری با ارتباط ها داشته باشند، چون اجرای آزمون ها تنها نیازمند این است که برای i = 1, 2, . . . , n – 1 داشته باشیم Xi Xi+1 . از سوی دیگر بارتلز نشان به طور تجربی نشان داد که آزمون رتبه بندی وون نیومان به طور قابل توجهی قوی تر از یکی از اجراهای آزمون ها در برابر انواع خاصی از جایگزین های Xi هایی است که مستقل هستند.

4.6. فعالیت 1: فرض خانواده های توزیع ها

اولین گام در انتخاب یک تزیوع ورودی مشخص تصمیم گیری این است که چه خانواده عمومی (مانند نمایی، عادی یا پواسون) بدون نگرانی از مقدارهای خاص پارامتر برای این خانواه ها، بر مبنای شکل آنها مناسب به نظر می رسد. این بخش برخی روش های عمومی را تشریح می کند که می توان از آنها برای فرض خانواده های توزیع هایی استفاده کرد که ممکن است نماینده یک متغیر تصادفی ورودی شبیه سازی باشد.

در برخی موقعیت ها، می توان از دانش قبلی در مورد نقش یک متغیر تصادفی خاص در سیستم برای انتخاب توزیع مدل سازی یا حداقل غیرمحتمل شمردن برخی .... استفاده کرد.

 

پرش به صفحه 330

از آنجا که نسبت لکزیس τ156=2.79  است، به نظر نمی رسد توزیع های دو جمله­ای و پواسون مدل های محتمل باشند. به علاوه به نظر می رسد مقدار بزرگ مثبت چولگی (عدم تقارن) v156=1.687  توزیع گسسته همسانی که متقارن باشد را نامحتمل می شمرد. بنابراین مدل های گسسته احتمالی (در نظر گرفته شده در این کتاب) توزیع های دوجمله­ای هندسی و منفی هستند که اولی یک مورد خاص از دومی است در زمانی که s = 1 . با این حال بر مبنای هیستوگرام کاهش یکنواخت در شکل 34.6 (و تابع های جرمی در شکل 21.6)، فرض می کنیم که داده های تقاضا از یک توزیع هندسی هستند.

5.6. فعالیت 2: ارزیابی پارامترها

پس از آنکه یک یا چند خانواده توزیع ها در فعالیت 1 فرض گرفته شد، باید به نوعی مقدارهای پارامترهای آنها را مشخص کنیم تا توزیع ها را برای استفاده احتمالی در شبیه سازی به طور کامل مشخص کرده باشیم. داده های IID ما X1, X2, . . . , Xn برا کمک در فرض توزیع ها استفاده شد و این داده ها را می تواند برای ارزیابی پارامترهای آنها نیز استفاده کرد. وقتی در این روش داده ها به طور مستقیم برای مشخص کردن مقدار عددی برای یک پارامتر نامشخص استفاده می شود، می گوییم که آن پارامتر را از داده ها تخمین می زنیم.

تخمین زننده یک تابع عددی از داده هاست. روش های زیادی برای مشخص کردن شکل یک تخمین زننده برای یک پارامتر مشخص یک توزیع خاص وجود دارد، و روش های جایگزین زیادی برای ارزیابی کیفیت یک تخمین زننده وجود دارد. به سه دلیل ما تنها یک نوع، یعنی تخمین زننده های بیشترین احتمال (MLEs) را به طور مشخص بررسی می کنیم: MLE ها چند ویژگی مطلوب دارند که روش های جایگزین تخمین مانند تخمین زننده های حداقل مربعات، تخمین زننده های بدون یکجانبه گرایی، و روش لحظات از آن بهره نمی برند؛ (2) مشخص شد استفاده از MLE ها در توجیه آزمون زیبندگی توان دوم کای (بخش 2.6.6) اهمیت دارد؛ و (3) ایده اصلی ارزیابی بیشترین احتمال یک جاذبه حسی قوی دارد.

مبنای تخمین زننده های بیشترین احتمال اغلب به راحتی در مورد گسسته درک می شود. فرض کنید که یک توزیع گسسته برای داده هایی فرض کرده­ایم که یک پارامتر معلوم θ دارند. فرض کنید pθ(x) نشان دهنده تابع جرمی احتمال برای این توزیع باشد، طوری که پارامتر θ بخشی از علامتگذاری باشد. با فرض این که قبلاً داده های IID X1, X2, . . . , Xn را مشاهده کرده­ایم، تابع احتمال L(θ) را به صورت زیر تعریف می کنیم:

 

حال چون داده ها مستقل هستند  L(θ)که تنها تابع جرمی احتمال مشترک است، اگر θ مقدار پارامتر مشخص باشد، احتمال به دست آوردن داده های مشاهده شده را می دهد. سپس MLE مقدار نامشخص θ که آن را با θ  نشان می دهیم، برابر مقدار θ تعریف می شود که L(θ) را بیشینه می کند؛ یعنی برای همه مقدارهای ممکن θ داریم، L(θ ) L(θ) . بنابراین θ  به بهترین شکل داده هایی که جمع آوری کرده­ایم را توضیح می دهد. در مورد پیوسته، MLE ها یک توضیح مستقیم کاملاً ساده ندارند، چراکه احتمال این که یک متغیر پیوسته تصادفی برابر هر عدد ثابتی باشد، همیشه برابر صفر است [مسئله 26.6 و مقاله بریمان 1973 را برای توجیه شهودی از MLE ها در مورد پیوسته ببینید]. با این حال MLE ها برای مورد پیوسته مانند مورد گسسته تعریف می شود. اگر fθ(x) نشان دهنده تابع تراکم مفروض باشد (دوباره فرض می کنیم که تنها یک پارمتر نامعلوم θ وجود دارد)، تابع احتمال به صورت زیر داده می شود

 

تخمین زننده بیشترین احتمال (MLE) θ  مربوط به θ برابر مقداری تعریف می شود که L(θ) را در همه مقدارهای مجاز θ بیشینه می کند. دو نمونه زیر نشان می دهد چگونه MLE برای توزیع های مفروض قبلی در مثال های 4.6 و 5.6 محاسبه می شوند.

مثال 6.6. برای توزیع نمایی، برای x 0 داریم θ = β (β > 0) و fβ(x) = (1yβ)e-xyβ . تابع احتمال چنین است

 

و ما مقدار β را جستجو می کنیم که L(β) را روی β > 0 بیشینه می کند. این کار در صورتی که به جای کار کردن مستقیم با L(β)، با این الگوریتم کار کنیم، براحتی انجام می شود. تابع لگاریتمی احتمال را به صورت زیر تعریف می کنیم

 

از آنجا که تابع الگوریتم به شدت افزایشی است، بیشینه سازی L(β) معادل بیشینه سازی l(β) است که بسیار ساده تر است؛ یعنی تنها و تنها اگر β  تابع l(β) را بیشینه کند، L(β) را نیز بیشینه می کند. حساب دیفرانسیل استاندارد را می توان برای بیشینه سازی l(β) با برابر تعیین مشتق آن با صفر و حل آن برای β استفاده کرد. یعنی

 

که اگر . تنها اگر β=i=1nXi/n=Xn ، آنگاه برابر صفر است. برای اطمینان از این که β = X(n) یک بیشینه کننده l(β) است (بر خلاف یک کمینه کننده یا یک نقطه عطف)، یک شرط کافی (اما غیر لازم) این است که d2l/dβ2 ارزیابی شده در β = X(n) منفی باشد. اما

 

که به سادگی دیده می شود وقتی β = X(n) باشد، منفی است چراکه Xi ها مثبت هستند. بنابراین تخمین زننده بیشترین احتمال β برابر = X(n) β  است. توجه کنید که MLE در اینجا کاملاً طبیعی است، چراکه β میانگین توزیع مفروض است و MLE میانگین ساده است. برای داده های مثال 4.6 داریم β=X219=0.399 .

مثال 7.6. فرض شد داده های گسسته مثال 5.6 از یک توزیع هندسی می آیند. در اینجا برای x = 0, 1, . . . . داریم θ = p (0 , p , 1) و pp(x) = p(1 2 p)x . تابع احتمال چنین است

 

که دوباره متمایل به تبدیل لگاریتمی است تا تابع زیر را به دست آورد

 

با مشتق گرفتن از l(p) داریم

 

که تنها و تنها اگر p = 1/[X (n) + 1] باشد، برابر صفر است. برای اطمینان از این که این یک بیشینه کننده است، توجه کنید که برای هر مقدار معتبر p

 

بنابراین MLE مربوط به p برابر  = 1/[X (n) + 1] p  است که به طور شهودی خوشایند است (مسئله 9.6). برای داده های اندازه-تقاضای مثال 5.6 داریم  p  = 0.346.

دو مثال بالا دو ابزار عملی مهم برای مشتق گیری MLE ها را نشان می دهد، یعنی کابرد تابع احتمال لگاریتمی و تعیین مشتق آن (با توجه به پارامتر ارزیابی شده) برابر صفر جهت یافتن MLE. در حالی که این ابزارها اغلب در یافتن MLE ها سودمند هستند، خواننده باید در برابر این فرض که یافتن یک MLE همیشه مسئله آسان برابر قراردادن یک مشتق با صفر و حل ساده آن برای θ  است، محتاط باشد. برای برخی توزیع ها، نه تابع احتمال-لگاریتم و نه مشتف گیری سودمند نیستند؛ احتمالاً معروف ترین نمونه توزیع یکنواخت است. برای توزیع های دیگر، هر دو ابزار سودمند هستند، اما حل dl/dθ = 0 با جبر ساده انجام نمی شود و باید از روش های عددی استفاده کرد. توزیع های گاما، ویبول و بتا نمونه های (چند پارامتری) این توزیع عمومی هستند. ما خواننده را برای نمونه های بیشتر از روش های استفاده شده برای یافتن MLE ها برای انواع توزیع ها، به مقاله بریمان (1984) ارجاع می دهیم.

گفته­ایم که MLEs چند ویژگی آماری مطلوب دارند که برخی از انها به صورت زیر است [مقاله بریمان (1973) و کندال و استورات (1979) را ببینید]:

  1. برای بیشتر توزیع های معمول، MLE منحصربفرد است، یعنی L(θ ) برای هر مقدار θ بیش از L(θ) است.
  2. اگرچه MLEs نباید بدون یکسوگرای باشند، در کل توزیع مجانبی θ  (وقتی n ) میانگین برابر صفر دارد (ویژگی 4 را ببینید).
  3. MLEs تغییرناپذیر هستند، اگر برای یک تابع  h داشته باشیم ϕ = h(θ)، آنگاه MLE مربوط به ϕ برابر h(θ ) است. (عدم یکسوگرایی نامتغیر نیست.) برای نمونه واریانس متغیر تصادفی expo(β) برابر β2 است، پس MLE این واریانس [X (n)]2 است.
  4. MLEs به طور مجانبی توزیع عادی دارند؛ یعنی n(θ- θ) D N(0. δ(θ))  که در آن d(θ) = -n/E(d2l/dθ2) (با توجه به Xi چنین انتظار می رود با این فرض که Xi توزیع مفروض را دارد) و D  نشان دهنده همگرایی در توزیع است. به علاوه اگر θ  هر تخمین زننده­ای باشد که n(θ- θ) D N(0. σ2)  ، آنگاه (θ) ρ2 δ . (بنابراین MLEs بهریتن نرمال مجانبی نامیده می شوند) .
  5. MLEs قویاً پایدار هستند، یعنی limn→∞θ  = θ.

اثبات این ویژگی و ویژگی های دیگر گاهی نیازمند فرض های ترتیب ملایم است؛ مقاله کندال و استورات (1979) را ببینید.

ویژگی 4 مورد توجه ویژه است، چون به ما امکان می دهد تا یک فاصله اطمینان تقریبی برای θ ایجاد کنیم. اگر δ(θ)  را مانند ویژگی 4 بالا تعریف کنیم، می توان نشان داد که وقتی n داریم

سفارش ترجمه تخصصی حسابداری و اقتصاد

 

بنابراین برای n بزرگ یک فاصله اطمینان تقریباً 100(1 - α) درصدی برای θ چنین است

 

مثال8.6. یک فاصله اطمینان 90 درصدی برای پارامتر p توزیع هندسی بسازید، و آن را برای داده های مثال 5.6 تخصصی کنید. به راحتی می توان نشان داد که

 

طوری که δθ=p21-p  و برای n بزرگ، یک فاصله اطمینان 90 درصدی برای p با فرمول زیر به دست می آید

 

برای داده های مثال 5.6، داریم 0.346  0.037.

این راه بررسی این را نشان می دهد که یک معیار خروجی شبیه سازی عملکرد چقدر به یک پارامتر ورودی خاص حساس است. شبیه سازی را می تواند برای θ مجموعه در نقطه انتهایی چپ، (θ ) مرکز، و نقطه انتهایی راست فاصله اطمینان در 3.6 اجرا کرد. اگر به نظر برسد معیار عملکرد به مقدارهای θ در این محدوده حساس باشد، می توان مطمئن بود که یک ارزیابی مناسب از θ برای هدف خود داریم. از سوی دیگر اگر به نظر برسد شبیه سازی به θ حساس است، می توانیم به دنبال ارزیابی بهتری از θ باشیم. این معمولاً شامل جمع آوری داده های بیشتر است.

شکل کلی مسئله بالا را می توان به صورت زیر بیان کرد. یک معیار عملکرد مدل شبیه سازی به انتخاب توزیع های احتمال ورودی و پارامترهای مربوطه آنها بستگی دارد. وقتی توزیع ها را برای استفاده جهت مدل شبیه سازی انتخاب می کنیم، عموماً با قطعیت کامل نمی دانیم که آیا این ها توزیع های درستی برای استفاده هستند یا نه و این نبود آگاهی کامل موجب چیزی می شود که ما آن را ابهام مدل می نامیم. همچنین با فرض این که توزیع های ورودی مشخص انتخاب شده باشد، معمولاً با قطعیت نمی دانیم چه پارامتری را باید برای این توزیع ها استفاده کنیم، و می توانیم این را ابهام پارامتر بنامیم. (پارامترها معمولاً از داده های مشاهده شده با مشخص شده بر اساس نظر کارشناسانه تخمین زده می شود.) عبارت ابهام ورودی-مدل برای ارجاع به ای دو مسئله استفاده می شود. به طور ایده­آل می خواهیم روشی برای ساخت یک فاصله اطمینان برای یک معیار عملکرد شبیه سزای داشته باشیم که متغیر نمونه برداری مدل شبیه سازی و ابهام مدل-ورودی را به حساب می آورد. هندرسون (2003) می گوید این مدل باید بر اساس رویه های آماری برای متخصص شبیه سازی قابل درک، قابل پیاده سازی نسبتاً آسان و به لحاظ محاسباتی کارآمد باشد.

تعدادی روش پیشنهاد شده برای مورد توجه قراردادن مسئله ابهام مدل-ورودی شامل موارد زیر وجود دارد:

  • میانگین گیری مدل بایسیان
  • رویکردهای روش دلتا
  • خودراه اندازی به کمک متا مدل؛ مقاله های چنگ (2006) و افرون و تیبشیرانی (1993) را برای بحث در مورد نمونه برداری دوباره راه اندازی ببینید.
  • خودراه اندازی ناپارامتری
  • روش سریع بر پایه یک مدل تاثیرات تصادفی؛ متاسفانه بیشتر این روش ها به طور معقولی پیچیده هستند و فرضیاتی دارند که ممکن است در عمل همیشه برآورده نشود. برای نمونه میانگین گیری مدل بایسیان رویکردهای روش دلتا فرض می کنند که خانواده توزیع ها (نه مقدار پارامترها) که منبع تصادفی بودن سیستم را نمایش می دهند در ادامه مشخص می شود، که نامحتمل است در بیشتر کاربردهای دنیای واقعی برقرار باشد.

تا کنون به طور مشخص با توزیع ها تنها با یک پارامتر نامشخص برخورد می کنیم. اگر یک توزیع چند پارامتر دارد، می توانیم MLEs این پارامترها را به یک روش طبیعی تعریف کنیم. برای نمونه توزیع گاما دو پارامتر (a و b) دارد و تابع احتمال تعریف می شود تا چنین باشد

 

6.6. فعالیت 3: تعیین میزان نمایش دهنده بودن توزیع های متناسب

 پس از تعیین یک یا چند توزیع احتمال که ممکن است داده های مشاهده شدن در فعالیت های 1 و 2 را بگنجاند، باید این توزیع ها را از نزدیک بررسی کنیم تا ببینیم چقدر توزیع درست متضمن برای داده های ما را نمایش می دهند. اگر چند ....

 

 

پرش از صفحه 334 به 344

 

شکل42.6. نمودار QQ برای توزیع نمایی و داده های فاصله-زمان

مثال 14.6. نمودار PP برای توزیع هندسی متناسب و داده های تقاضا-اندازه در شکل 44.6 داده شده است. وقتی دوباره دریابیم نمودار PP به طور معقولی خطی است که نشان دهنده عدم اختلاف میان توزیع های هندسی و درست است.

2.6.6. آزمون های میزان انطباق

آزمون میزان انطباق یک آزمون فرضی آماری است که برای ارزیابی رسمی این استفاده می شود که مشاهدات X1, X2, . . . , Xn یک نمونه مستقل از یک توزیع مشخص با تابع توزیع F  هستند. یعنی یک آزمون میزان انطباق را می توان برای آزمون فرضیه های تهی زیر استفاده کرد:

H0: Xi ها متغیرهای تصادفی IID با تابع توزیع F  هستند

قبل از ادامه بحق آزمون های خاص میزان انطباق، حس میک نیم باید در مورد ساختار و ویژگی های رسمی این آزمون ها اظهار نظر کنیم. ابتدا شکست در رد کردن H0 را نباید به عنوان «درست دانستن H0 » تعبیر کنیم.

 

شکل43.6. نمودار PP برای توزیع نمای و داده های بین فاصله-زمان

این آزمون ها اغلب برای نمونه های در اندازه کوچک تا متوسط n خیلی قدرتمند نیستند؛ یعنی در برابر اختلاف های ظریف میان داده ها و توزیع متناسب حساس نیستند. بلکه آنها را باید یک روش سیستمی برای شناسایی تفاوت های فاحش دانست. از سوی دیگر اگر n خیلی بزرگ باشد، آنگاه این آزمون ها همیشه H0 را رد خواهند کرد. از آنجا که H0 به لحاظ مجازی هیچگاه دقیقاً درست نیست، حتی یک دقیقه انحراف از توزیع مفروض برای n بزرگ شناسایی خواهد شد. این یک ویژگی ناخوشایند این آزمون هاست، چراکه معمولاً برای داشتن یک توزیع که تقریباً درست است، کافی است.

آزمون های توان دوم کای

قدیمی ترین فرضیه میزان انطباق آزمون توان دوم کای است که حداقل به مقاله ک. پیرسون (1900) بر می گردد. همانطور که خواهیم دید، ممکن است آزمون توان دوم کای یک مقایسه رسمی تر از یک هیستوگرام با تراکم متناسب یا تابع جرمی دانسته شود (مقایسه تناوب در بخش 1.6.6 را ببینید).

برای محاسبه آمار آزمون توان دوم کای در مورد پیوسته یا گسسته، باید ابتدا کل گستره توزیع متناسب را به k فاصله کنار هم [a0, a1), [a1, a2), . . . , [ak21, ak) تقسیم کنیم که در آن باید a0 = باشد که در آن صورت اولین فاصله (, a1) یا ak = + یا هر دو است. سپس ثبت می کنیم (می شماریم؟) برای j = 1, 2, . . . , k دارین

N = تعداد Xi ها در فاصله J ام [aj-1, aj)

(توجه کنید که j=1kNj=n ). بعد نسبت مورد انتظار pj مربوط به Xi های را محاسبه می کنیم که اگر از توزیع متناسب نمونه برداری کنیم، در فاصله j ام قرار خواهد گرفت. در مورد پیوسته

 

که در آن f  تراکم توزیع متناسب است. برای داده های گسسته

 

که در آن p  تابع جرمی توزیع متناسب است. در نهایت آمار آزمایشی

 

 

شکل44.6. نمودار PP برای توزیع هندسی و داده های اندازه-تقاضا

از آنجا که npj تعداد مورد انتظار n Xi هایی است که اگر H0 برقرار باشد، در فاصله j ام قرار می گیرند (احتمال 17.6 را ببینید)، انتظار خواهیم داشت اگر تناسب خوب بود، x2 کوچک باشد. بنابراین اگر x2 بیش از حد بزرگ باشد، H0 را رد می کنیم. شکل دقیق آزمون به این بستگی دارد که آیا پارامتری از توزیع متناسب داده های خود را ارزیابی کرده­ایم یا نه.

اول فرض کنید که همه پارامترهای توزیع متناسب معلوم هستند؛ یعنی توزیع متناسب را بدون استفاده از داده ها به هر روشی مشخص کردیم. [ممکن است به نظر برسد این مورد پارامترهای مشخص کاربرد عملی کمی دارد، اما حداقل دو کاربرد برای ان در شبیه سازی وجود دارد: (1) در آزمون فرآیند پواسون (ادامه همین بخش)، آزمایش می کنیم که ببینیم آیا تعداد ورود ها را می توان متغیر تصادفی IID Θ(0, T) دانست یا نه که در آن T ثابت مستقل از داده است؛ و (2) در آزمودن عملی تولید کننده های عدد تصادفی (بخش 1.4.7)، برای توزیع Θ(0, 1) آزمایش می کنیم]. آنگاه اگر H0 برقرار باشد، x2 در توزیع (وقتی n → ∞) به یک توزیع توان دوم کای با k - 1 df همگرا می شود که همانند توزیع gamma[(k - 1)/2, 2] است. بنابراین برای n بزرگ، اگر X2>Xk-1.1-α2 ، با رد کردن H0 یک آزمون با سطح تقریبی به دست می آید (شکل 45.6)، که در آن Xk-1.1-α2  نقطه حیاتی بالایی 1 – α برای یک توزیع توان دوم کای با k - 1 df است. (مقدارها برای Xk-1.1-α2  را می توان در جدول T.2 در پایان کتاب دید). توجه کنید که آزمون توان دوم کای تنها معتبر است، یعنی به طور مجانبی با میل کردن n → ∞، از سطح α است.

 

شکل45.6. آزمون دوان دوم کای وقتی همه پارامترها معلوم هستند

 

شکل46.6. آزمون دوان دوم کای وقتی m پارامتر با تخمین زننده های بیشترین احتمال خود ته=خمین زده شده باشند.

دوم، فرض کنید که برای مشخص کردن توزیع متناسب، باید m پارامتر (m 1) از داده را ارزیابی کنیم. شرنوف و لمان نشان دادند وقتی MLEs استفاده می شوند، اگر H0 درصت باشد، آنگاه با n → ∞ ، تابع توزیع x2 به یک تابع توزیع همگرا می شود که بین تابع های توزیع توان دوم کای با k - 1  و k - m - 1 df قرار دارد. (شکل 46.6 را ببینید که در آن Fk-1  و Fk-m-1 نشان دهنده تابع های توزیع توزیع های توان دوم کای با به ترتیب k - 1  و k - m - 1 df هستند و تابع توزیع نقطه چین تابعی است که تابع توزیع x2 با میل کردن n به بینهایت به آن همگرا می شود.) اگر فرض کنیم X1-α2  نقطه حیاتی بالایی 1 – α توزیع مجانبی X2 باشد، آنگاه

 

همانطور که در شکل 46.6 نشان داده می شود، متاسفانه مقدار X1-α2  در کل معلوم نخواهد بود. مشخص است که باید اگر X2>Xk-1.1-α2  باشد، H0 را رد کنیم و اگر X2<Xk-m-1.1-α2  آنگاه H0 را رد نکنیم. وقتی مورد زیر را داریم وضعیت مبهمی وجود دارد

 

اغلب توصیه می شود که تنها اگر X2>Xk-1.1-α2  باشد، H0 را رد کنیم، چراکه این محافظه کارانه است؛ یعنی احتمال واقعی α رویداد یک خطای نوع 1 [رد کردن H0 وقتی درست باشد (بخش 5.4 را ببینید)] حداقل به کوچکی احتمال اظهار شده α است (شکل 46.6). با این حال این گزینه شامل افت توان آزمون (احتمال رد کردن یک H0 اشتباه) است. معمولاً m بیش از 2 نخواهد بود و اگر k نسبتاً بزرگ باشد، تفاوت میان Xk-1.1-α2  و Xk-m-1.1-α2  خیلی بزرگ نخواهد بود. بنابراین اگر (و تنها اگر) Xk-1.1-α2  باشد می توان  H0 را رد کرد مانند موردی که همه پارامترها معلوم هستند. منطقه رد کردن برای X2 در شکل 46.6 نشان داده می شود.

مشکل ترین جنبه انجام یک آزمون توان دوم کای انتخاب تعداد و اندازه فاصله هاست. این یک مسئله دشوار است و هیچ دستورالعمل مشخصی نمی توان ارائه کرد که تولید نتایج خوب بر حسب اعتبار (سطح واقعی آزمون نزدیک به سطح مطلوب α) و توان بالا برای همه توزیع ها و همه اندازه های نمونه را تضمین می کند. با این حال دستورالعمل های کمی وجود دارد که دنبال می شود. ابتدا اگر فاصله ها طوری انتخاب شود که p1 = p2 = . . . = pk ، یک ابهام در انتخاب فاصله حذف می شود که این یک روش هم احتمال نامیده می شود. در مورد پیوسته، این انجام آن برای برخی توزیع ها ناجور خواهد بود، چراکه تابع توزیع توزیع متناسب باید تبدیل (یا وارون) شود (مثال 15.6 زیر را ببینید). به علاوه برای توزیع های گسسته، عموماً خواهیم توانست pj ها را تقریباً برابر بگیریم (مثال 16.6).

حال در مورد نحوه انتخاب فاصله ها برای اطمینان از اعتبار آزمون بحث می کنیم. فرض کنید α=min1≤j≤knpj ، و y(5) تعداد npj های کمتر از 5 باشد. یارنولد (1970) بر اساس بررسی های گسترده نظری و عملی (برای موردی که همه پارامترها معلوم هستند) اظهار می دارد که آزمون توان دوم کای تقریباً معتبر خواهد بود اگر k 3  و a 5y(5)/k باشد. برای فاصله های هم احتمال، این شرایط در صورتی برآورده خواهد شد که برای همه j ها k 3 و npj 5 باشد.

حال به قدرت آزمون توان دوم کای توجه می کنیم. در صورتی به یک آزمون بدون یکجانبه گرایی گفته می شود که احتمال رد کرد H0 وقتی نادرست باشد، بیش از زمانی باشد که درست است. به عبارت دیگر توان بیش از احتمال یک خطای نوع 1 است. آزمون بدون این احتمالاً حتماً نامطلوب خواهد بود. می توان نشان داد که آزمون توان دوم کای همیشه برای روش هم احتمال بدون یکسوگرایی است. اگر npj برابر نباشند (و خیلی کوچک باشند)، به دست آوردن یک آزمون معتبر که یکسوگرایی بالایی داشته باشد، محتمل است.

در کل قاعده­ای برای انتخاب فواصل به شکلی که توان بالا برای همه توزیع های جایگزین به دست آید، وجود ندارد. کلنبرگ، اوسترهوف و اشریور (1985) برای یک توزیع تهی خاص، اندازه ثابت نمونه n و روش هم احتمال به طور عملی نشان دادند که توان یک تابع افزایشی از تعداد فاصله های k برای برخی توزیع های جایگزین و یک تابع کاهش از k برای دیگر توزیع های جایگزین است. جالب است که آنها در موارد خاصی دریافتند که توان وقتی بیشتر است که npj ها در انتهاها کوچک تر باشد (مسئله 18.6).

در نبود یک دستورالعمل مشخص برای انتخاب فاصله ها، روش هم احتمال و npj 5 را برای همه j در موارد پیوسته توصیه می کنیم. در مورد گسسته، برابر قرار دادن تقریبی npj ها با حداقل 5 را پیشنهاد می کنیم. نبود دستورالعمل مشخص برای انتخاب فاصله عیب اصلی آزمون توان دوم کای است. در برخی موقعیت ها، بسته به نوه مشخص شدن فاصله ها که در مثال 17.6 تشریح می شود، می توان از مجموعه داده یکسان به نتیجه گیری های کاملاً متفاوتی رسید. با این حال آزمون توان دوم کای کاربرد گسترده دارد، چون قابل بکارگیری در هر توزیع فرضی است؛ و هماطور که در ادامه خواهیم دید، دیگر آزمون های میزان انطباق چنین کاربرد گسترده­ای ندارند.

جدول12.6. یک آزمون میزان انطباق توان دوم کای برای داده های زمان-فاصله رسیدن

مثال 15.6. حال از آزمون توان دوم کای برای مقایسه n = 219 زمان بین رسیدن در جدول 7.6 با توزیع نمایی متناسب دارای تابع توزیع F (x) = 1 - e2x/0.399 برای x 0 استفاده میکنیم. اگر مثلاً k = 20فاصله با pj = 1/k = 0.05 برای j = 1, 2, . . . , 20 را تشکیل دهیم، آنگاه npj = (219)(0.05) = 10.950، طوری که دستورالعمل هایی که فواصل باید با pj های برابر و npj 5 انتخاب شوند، را برآورده می سازد. در این مورد براحتی می توان aj ها را یافت، چون می توان F  را تبدیل کرد. ما a0 = 0  و a20 = را تعیین می کنیم و برای j = 1, 2, . . . , 19 می خواهیم aj شرط F (aj) = j/20 را برآورده کند؛ این معادل تعیین aj = 20.399 ln (1 - j/20) برای j = 1, 2, . . . , 19 است، چون aj = F-1 ( j/20). (برای توزیع های پیوسته مانند نرمال، بتا و گاما، وارون تابع توزیع یک شکل بسته ساده ندارد. در این موارد می توان F-1 را با روش های عددی ارزیابی کرد؛ مرجع داده شده در جدول 11.6 را ببینید). محاسبات برای آزمون در جدول 12.6 آمده و مقدار آمار آزمون X2 = 22.188 است. با ارجاع به جدول T.2، می بینیم که X2 از X19,0.90 2 = 27.204 بیشتر نیست. پس H0 را در سطح α = 0.10 رد نخواهیم کرد. (توجه کنید که H0 را برای مقدارهای بزرگتر مشخص مانند 0.25 رد نخواهیم کرد). بنابراین این آزمون دلیلی برای این نتیجه گیری نمی دهد که داده های ما تناسب ضغیفی با توزیع expo(0.399) دارد.

مثال 16.6. به عنوان نمایش آزمون توان دوم کای در مورد گسسته، بررسی می کنیم توزیع متناسب geom(0.346) چقدر با داده های تقاضا-اندازه جدول 9.6 تطابق دارد. همانگونه که همیشه برای توزیع های گسسته برقرار است، نمی توانیم pj ها را دقیقاً برابر کنیم، اما با گروه بندی نقاط مجاور با هم که تابع جرم p (x) روی آن تعریف می شود (در اینجا اعداد صحیح نامنفی)، می توانیم فواصلی تعریف کنیم که pj ها را یکسان می کند. یک راه برای انجام این کار توجه به این است که حالت توزیع متناسب 0 است؛ بنابراین p (0) = 0.346 بزرگ ترنی مقدار یک تابع جرمی است. مقدارهای بزرگ تر برای این حالت انتخاب فواصل ما را محدود می کند و با سه فاصله داده شده در جدول 13.6 به پایان می رسیم که در آن محاسبات برای آزمون توان دوم کای نیز ارائه می شود. به طور خاص، X2 = 1.930 که کمتر از مقدار حیاتی X2,0.902  = 4.605 است. H0 را در سطح α = 0.10 رد نخواهیم کرد و دلیلی نداریم که باور کنیم داده های تقاضا-اندازه به خوبی با توزیع geom(0.346) متناسب نباشد.

جدول 13.6. آزمون میزان انطباق توان دوم کای برای داده های تقاضا-اندازه

 

 

مثال 17.6. توزیع لنجستیک-لگاریتمی را با 856 زمان های بارگیری کشتی شکل 3.6 متناسب می کنیم و سپس MLEs مربوط به  = 8.841 a  و  = 0.822 β  به ترتیب برای پارامترهای شکل و مقیاس را به دست می آوریم. حال یک آزمون توان دوم کای در سطح α = 0.1 با استفاده از فاصله های هم احتمال k معادل 10، 20 و 40 اجرا می کنیم که نتایج آن در جدول 14.6 آمده است. (توجه کنید که هر سه انتخاب برای k توصیه این که npj 5 را برآورده می کنند). می بینیم که توزیع لجستیک-لگاریتمی برای فاصله های 20 رد می شود، اما برای فاصله های 10 و 40 رد نمی شود.

آزمون های کولموگروف-اسمیرنوف

همانطور که دیدیم، آزمون های دوان دوم کای را می توان یک مقایسه رسمی تر هیستوگرام داده با تابع تراکم یا تابع جرمی توزیع متناسب دانست. همچنین یک دشواری واقعی در استفاده از آزمون توان دوم کای در مورد پیوسته شناسایی کردیم، دشواری تصمیم گیری در مورد نحوه مشخص کردن فاصله ها. از سوی دیگر آزمون های کولموگروف-اسمیرنوف (K-S) برای میزان انطباق یک تابع توزیع عملی را با تابع توزیع F  توزیع مفروض مقایسه می کند. همانطور که خواهیم دید، آزمون های K-S نیاز به گروه بندی داده ها به هر روشی نیست، پس اطلاعاتی گم نمی شود؛ این امر مسئله دشوار مشخص سازی فاصله را حذف می کند. مزیت دیگر آزمون های K-S این است که آنها (دقیقاً) برای هر اندازه نمونه n (در موردی که همه پارامترها معلوم باشند) معتبر هستند، در حالی که آزمون های توان دوم کای تنها در حالت نامتقارن معتبر هستند. در نهایت آزمون های K-S قدرتمندتر از آزمون های توان دوم کای در هر بسیاری از توزیع های جایگزین هستند؛ برای نمونه مقاله استفن (1974) را ببینید.

جدول14.6. آزمون های میزان انطباق توان دوم کای برای داده های بارگیری کشتی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">
تجدید کد امنیتی