| 000 | 09123namaa22004451i 4500 | ||
|---|---|---|---|
| 003 | OSt | ||
| 005 | 20251015120134.0 | ||
| 008 | 251007s2025 |||a|||fr|m|| 000 0 eng d | ||
| 040 | 
_aEG-GICUC _beng _cEG-GICUC _dEG-GICUC _erda  | 
||
| 041 | 0 | 
_aeng _beng _bara  | 
|
| 049 | _aDeposit | ||
| 082 | 0 | 4 | _a006.3 | 
| 092 | 
_a006.3 _221  | 
||
| 097 | _aPh.D | ||
| 099 | _aCai01.20.10.Ph.D.2025.Da.E | ||
| 100 | 0 | 
_aDalia Ezzat Abo-elyazeed Ali, _epreparation.  | 
|
| 245 | 1 | 0 | 
_aExplainable artificial intelligence for sustainable development applications / _cby Dalia Ezzat Abo-elyazeed Ali ; Supervision of Prof. Reda Abdel-Wahab El-khoribi, Prof. Mona Mohamed Mohamed Soliman, Dr. Eman Ahmed Sayed Ahmed.  | 
| 246 | 1 | 5 | _aالذكاء الاصطناعي القابل للتفسير لتطبيقات التنمية المستدامة | 
| 264 | 0 | _c2025. | |
| 300 | 
_a108 Leaves :  _billustrations ; _c30 cm. + _eCD.  | 
||
| 336 | 
_atext _2rda content  | 
||
| 337 | 
_aUnmediated _2rdamedia  | 
||
| 338 | 
_avolume _2rdacarrier  | 
||
| 502 | _aThesis (Ph.D)-Cairo University, 2025. | ||
| 504 | _aBibliography: pages 93-108. | ||
| 520 | 3 | _aArtificial intelligence (AI), particularly deep learning (DL) models, has recently led to enormous advancements in several sectors. However, following this development, the literature started to highlight some limitations that prevent DL models from being used in real applications. These limitations are due to the fact that DL models are black box models that neither provide an explanation for their results nor express confidence in their results. DL models are also often referred to as overconfidence models, as they give very high accuracy even in their incorrect predictions. From this point of view, a new field called explainable artificial intelligence (XAI) has emerged to make black box DL models understandable and trustworthy. Under the guise of XAI, methods have already emerged that can be used to explain the results obtained from DL models. Moreover, other methods have emerged that can be used to make these models capable of revealing the level of uncertainty in their results. Although XAI methods have achieved a large part of the desired purpose, they need to be improved in order to obtain the best results. This thesis seeks to improve XAI methods in order to maximize the performance of DL models, hence mitigating the drawbacks that prevent DL models from being used in real-world applications. This thesis also aims to gain from these improvements conducted on both XAI methods and DL models in significant applications that support sustainable development goals, particularly those that have a direct impact on people, such as those related to food, energy, and water. This thesis proposes an improved approach called AHA-XDNN for the water sector. The proposed approach is based on three pillars to predict water quality (WQ) with high accuracy and confidence, namely, deep neural networks (DNN), artificial hummingbird algorithm (AHA), and XAI. The proposed approach involves five phases: data preprocessing, optimization, training, evaluation, and results explanation phases. In the first phase, problems such as unwanted noise and imbalance are addressed. In the second phase, AHA is applied to optimize the DNN model’s hyper-parameters. In the third phase, the DNN model is trained on the dataset processed in the first phase. In the fourth and fifth phases, the performance of the optimized DNN model is evaluated using four measurements, and the results are explained and interpreted using an XAI method called SHapley Additive Explanations (SHAP). The proposed approach achieved an accuracy, average precision, average recall, average f1-score of 91%, 91%, 91.5%, and 91% on the test set, respectively. By comparing the proposed approach with existing models based on artificial neural network (ANN), the proposed approach was able to outperform its counterparts in terms of average recall, and average f1-score. | |
| 520 | 3 | _aلقد أدى الذكاء الاصطناعي وخاصة نماذج التعلم العميق إلى تقدم هائل في العديد من القطاعات في الآونة الأخيرة. ومع ذلك، بعد هذا التطور الهائل، بدأت الأدبيات في تسليط الضوء على بعض القيود التي تمنع استخدام نماذج التعلم العميق في التطبيقات الحقيقية. ترجع هذه القيود إلى أن نماذج التعلم العميق هي نماذج صندوق أسود لا تقدم تفسيرًا لنتائجها ولا تعبر عن مقدار الثقة في نتائجها. لذلك غالبًا ما يُشار إلى نماذج التعلم العميق أيضًا باسم نماذج الثقة المفرطة، لأنها تعطي دقة عالية جدًا حتى في تنبؤاتها غير الصحيحة. انطلاقا من تلك الرؤية، ظهر مجال جديد يسمى الذكاء الاصطناعي القابل للتفسير لجعل نتائج نماذج التعلم العميق مفهومة وجديرة بالثقة. تحت غطاء الذكاء الاصطناعي القابل للتفسير، ظهرت بالفعل طرق يمكن استخدامها لشرح النتائج التي تم الحصول عليها من نماذج التعلم العميق. علاوة على ذلك، ظهرت طرق أخرى يمكن استخدامها لجعل هذه النماذج قادرة على الكشف عن مستوى عدم اليقين في نتائجها. على الرغم من أن طرق الذكاء الاصطناعي القابل للتفسير حققت جزءًا كبيرًا من الغرض المطلوب، إلا أنها تحتاج إلى التحسين من أجل الحصول على أفضل النتائج. تسعى هذه الأطروحة إلى تحسين أساليب الذكاء الاصطناعي القابل للتفسير من أجل تعظيم أداء نماذج التعلم العميق، وبالتالي التخفيف من العيوب التي تمنع استخدام تلك نماذج في التطبيقات الواقعية. تهدف هذه الأطروحة أيضًا إلى الاستفادة من هذه التحسينات التي أجريت على كل من أساليب الذكاء الاصطناعي القابل للتفسير ونماذج التعلم العميق في التطبيقات المهمة التي تدعم أهداف التنمية المستدامة، وخاصة تلك التي لها تأثير مباشر على الناس مثل التطبيقات المتعلقة بالغذاء والطاقة والمياه. في هذه الأطروحة، تم إجراء تحسين لطريقة الذكاء الاصطناعي القابل للتفسير المعروفة باسم MCD)) والتي تسمح لنماذج التعلم العميق بالتعبير عن عدم اليقين باستخدام خوارزمية تحسين تُعرف باسم (HHO) وقد تم استخدام هذا التحسين في قطاع الطاقة من خلال تقديم نهج يسمى (Solar-OBNet) هذا النهج قادر على اكتشاف بعض العيوب التي تُصيب الألواح الشمسية لضمان إنتاج كمية وفيرة من الطاقة. يتم استخدام قياسين لتقدير عدم اليقين في نتائج تلك النهج المقترح، وهما (predictive entropy and standard deviation)، يمكن لتلك النهج المقترح التعبير عن الثقة في التنبؤات الصحيحة من خلال إظهار قيم منخفضة لتلك القياسات المشار لها. يمكن للنهج المقترح أيضًا إعطاء تحذير من عدم اليقين في حالة التنبؤات الخاطئة من خلال إظهار قيم عالية للقياسات المشار لها سابقا. تم التحقق من فعالية النهج المقترح من خلال تفسير نتائجه باستخدام طريقة تسمى (Grad-CAM). و لقد حقق النهج المقترح دقة عالية متفوقا على الطرق الأخرى المقارنة. | |
| 530 | _aIssues also as CD. | ||
| 546 | _aText in English and abstract in Arabic & English. | ||
| 650 | 0 | _aArtificial intelligence | |
| 650 | 0 | _aالذكاء الأصطناعي | |
| 653 | 1 | 
_aExplainable Artificial Intelligence _aInterpretable Deep Learning _aBayesian Deep Learning, _aOptimization Algorithm, _a Sustainable Development Goals, _aWEF Nexus Approach _a Sustainable Clean Energy  | 
|
| 700 | 0 | 
_aReda Abdel-Wahab El-khoribi _ethesis advisor.  | 
|
| 700 | 0 | 
_aMona Mohamed Mohamed Soliman _ethesis advisor.  | 
|
| 700 | 0 | 
_aEman Ahmed Sayed Ahmed _ethesis advisor.  | 
|
| 900 | 
_b01-01-2025 _cReda Abdel-Wahab El-khoribi _cMona Mohamed Mohamed Soliman _cEman Ahmed Sayed Ahmed _UCairo University _FFaculty of Computers and Artificial Intelligence _DDepartment of Information Technology  | 
||
| 905 | 
_aShimaa _eEman Ghareb  | 
||
| 942 | 
_2ddc _cTH _e21 _n0  | 
||
| 999 | _c174614 | ||