000 04137namaa22004091i 4500
003 OSt
005 20250811103255.0
008 250701s2024 ua a|||frm||| 000 0 eng d
040 _aEG-GICUC
_beng
_cEG-GICUC
_dEG-GICUC
_erda
041 0 _aeng
_beng
_bara
049 _aDeposit
082 0 4 _a519.5
092 _a519.5
_221
097 _aPh.D
099 _aCai01.18.03.M.Sc.2024.Ah.E
100 0 _aAhlam Mohamed Saad Hussein,
_epreparation.
245 1 0 _aEstimation based on the principle of maximum entropy /
_cby Ahlam Mohamed Saad Hussein ; Supervised Prof. Mahmoud Riad Mahmoud.
246 1 5 _aالتـقــديـر الـمـبـني عـلى مـبـدأ تـعــظـــيــم الإنــتـــروبـي
264 0 _c2024.
300 _a84 Leaves :
_billustrations ;
_c30 cm. +
_eCD.
336 _atext
_2rda content
337 _aUnmediated
_2rdamedia
338 _avolume
_2rdacarrier
502 _aThesis (Ph.D)-Cairo University, 2024.
504 _aBibliography: pages 77-84.
520 3 _aIn (1957) Jaynes maximized the entropy using the exact amount of information provided by the data and introduced the approach of the principle of maximum entropy (POME) to estimate the distribution parameters using the information available in the data. Kumaraswamy (1980) introduced the double pounded probability density function which was originally used to model hydrological phenomena. This distribution share several properties with the beta distribution and it has the extra advantages that is possesses a closed form distribution function, but it remained unknown to most statisticians until it was developed by Jones (2009) as a beta-type distribution with some tractability advantages in particular as it has fairly simple quantile function and it has explicit formula for L-Moment. This thesis proposes using the principle of maximum entropy approach to estimate the parameters of the Kumaraswamy distribution subject to moment constraints. The new estimators for the Kumaraswamy parameters are compared with maximum likelihood and Bayesian estimation methods. A simulation study is performed to investigate the performance of the estimators in terms of their mean square errors and their efficiency
520 3 _aقدم Shannon تعريف الانتروبي لأول مرة عام (1948) كمقياس عددي للمعلومات المتاحة بالتوزيع الإحتمالي. وفي عام 1957 قدم Jaynes مبدأ تعظيم الإنتروبي principle of maximum entropy (POME) واستخدمه في اختيار التوزيع المناسب في ظل المعلومات المتاحة التي يتم صياغتها في صورة قيود constraints. تم البحث في الأدبيات الإحصائية عن استخدام دالة الإنتروبي العظمى (POME) لتقدير المعالم المجهولة للتوزيعات المختلفة في ظل توافر بعض المعلومات الأولية. ومدى إمكانية استخدام مبدأ تعظيم الإنتروبي (POME) في تقدير المعالم المجهولة لبعض التوزيعات الإحصائية مثل تقدير المعالم المجهولة لتوزيع Kumaraswamy. وعمل مقارنة عددية باستخدام بيانات مولدة وأسلوب المحاكاة مع بعض طرق التقدير الأخرى مثل طريقة الإمكان الأكبر(ML) وطريقة بييز في التقدير، ذلك للوقوف على بعض خصائص نتائج الدراسة النظرية.
530 _aIssues also as CD.
546 _aText in English and abstract in Arabic & English.
650 0 _aMathematical Statistics
653 1 _aPrinciple of maximum entropy
_a Maximum Likelihood
_aBayes
_a Kumaraswamy distribution
700 0 _aMahmoud Riad Mahmoud
_ethesis advisor.
900 _b01-01-2024
_cMahmoud Riad Mahmoud
_UCairo University
_FFaculty of Graduate Studies for Statistical Research
_DDepartment of Mathematical Statistics
905 _aShimaa
_eEman Ghareb
942 _2ddc
_cTH
_e21
_n0
999 _c172859