000 09123namaa22004451i 4500
003 OSt
005 20251015120134.0
008 251007s2025 |||a|||fr|m|| 000 0 eng d
040 _aEG-GICUC
_beng
_cEG-GICUC
_dEG-GICUC
_erda
041 0 _aeng
_beng
_bara
049 _aDeposit
082 0 4 _a006.3
092 _a006.3
_221
097 _aPh.D
099 _aCai01.20.10.Ph.D.2025.Da.E
100 0 _aDalia Ezzat Abo-elyazeed Ali,
_epreparation.
245 1 0 _aExplainable artificial intelligence for sustainable development applications /
_cby Dalia Ezzat Abo-elyazeed Ali ; Supervision of Prof. Reda Abdel-Wahab El-khoribi, Prof. Mona Mohamed Mohamed Soliman, Dr. Eman Ahmed Sayed Ahmed.
246 1 5 _aالذكاء الاصطناعي القابل للتفسير لتطبيقات التنمية المستدامة
264 0 _c2025.
300 _a108 Leaves :
_billustrations ;
_c30 cm. +
_eCD.
336 _atext
_2rda content
337 _aUnmediated
_2rdamedia
338 _avolume
_2rdacarrier
502 _aThesis (Ph.D)-Cairo University, 2025.
504 _aBibliography: pages 93-108.
520 3 _aArtificial intelligence (AI), particularly deep learning (DL) models, has recently led to enormous advancements in several sectors. However, following this development, the literature started to highlight some limitations that prevent DL models from being used in real applications. These limitations are due to the fact that DL models are black box models that neither provide an explanation for their results nor express confidence in their results. DL models are also often referred to as overconfidence models, as they give very high accuracy even in their incorrect predictions. From this point of view, a new field called explainable artificial intelligence (XAI) has emerged to make black box DL models understandable and trustworthy. Under the guise of XAI, methods have already emerged that can be used to explain the results obtained from DL models. Moreover, other methods have emerged that can be used to make these models capable of revealing the level of uncertainty in their results. Although XAI methods have achieved a large part of the desired purpose, they need to be improved in order to obtain the best results. This thesis seeks to improve XAI methods in order to maximize the performance of DL models, hence mitigating the drawbacks that prevent DL models from being used in real-world applications. This thesis also aims to gain from these improvements conducted on both XAI methods and DL models in significant applications that support sustainable development goals, particularly those that have a direct impact on people, such as those related to food, energy, and water. This thesis proposes an improved approach called AHA-XDNN for the water sector. The proposed approach is based on three pillars to predict water quality (WQ) with high accuracy and confidence, namely, deep neural networks (DNN), artificial hummingbird algorithm (AHA), and XAI. The proposed approach involves five phases: data preprocessing, optimization, training, evaluation, and results explanation phases. In the first phase, problems such as unwanted noise and imbalance are addressed. In the second phase, AHA is applied to optimize the DNN model’s hyper-parameters. In the third phase, the DNN model is trained on the dataset processed in the first phase. In the fourth and fifth phases, the performance of the optimized DNN model is evaluated using four measurements, and the results are explained and interpreted using an XAI method called SHapley Additive Explanations (SHAP). The proposed approach achieved an accuracy, average precision, average recall, average f1-score of 91%, 91%, 91.5%, and 91% on the test set, respectively. By comparing the proposed approach with existing models based on artificial neural network (ANN), the proposed approach was able to outperform its counterparts in terms of average recall, and average f1-score.
520 3 _aلقد أدى الذكاء الاصطناعي وخاصة نماذج التعلم العميق إلى تقدم هائل في العديد من القطاعات في الآونة الأخيرة. ومع ذلك، بعد هذا التطور الهائل، بدأت الأدبيات في تسليط الضوء على بعض القيود التي تمنع استخدام نماذج التعلم العميق في التطبيقات الحقيقية. ترجع هذه القيود إلى أن نماذج التعلم العميق هي نماذج صندوق أسود لا تقدم تفسيرًا لنتائجها ولا تعبر عن مقدار الثقة في نتائجها. لذلك غالبًا ما يُشار إلى نماذج التعلم العميق أيضًا باسم نماذج الثقة المفرطة، لأنها تعطي دقة عالية جدًا حتى في تنبؤاتها غير الصحيحة. انطلاقا من تلك الرؤية، ظهر مجال جديد يسمى الذكاء الاصطناعي القابل للتفسير لجعل نتائج نماذج التعلم العميق مفهومة وجديرة بالثقة. تحت غطاء الذكاء الاصطناعي القابل للتفسير، ظهرت بالفعل طرق يمكن استخدامها لشرح النتائج التي تم الحصول عليها من نماذج التعلم العميق. علاوة على ذلك، ظهرت طرق أخرى يمكن استخدامها لجعل هذه النماذج قادرة على الكشف عن مستوى عدم اليقين في نتائجها. على الرغم من أن طرق الذكاء الاصطناعي القابل للتفسير حققت جزءًا كبيرًا من الغرض المطلوب، إلا أنها تحتاج إلى التحسين من أجل الحصول على أفضل النتائج. تسعى هذه الأطروحة إلى تحسين أساليب الذكاء الاصطناعي القابل للتفسير من أجل تعظيم أداء نماذج التعلم العميق، وبالتالي التخفيف من العيوب التي تمنع استخدام تلك نماذج في التطبيقات الواقعية. تهدف هذه الأطروحة أيضًا إلى الاستفادة من هذه التحسينات التي أجريت على كل من أساليب الذكاء الاصطناعي القابل للتفسير ونماذج التعلم العميق في التطبيقات المهمة التي تدعم أهداف التنمية المستدامة، وخاصة تلك التي لها تأثير مباشر على الناس مثل التطبيقات المتعلقة بالغذاء والطاقة والمياه. في هذه الأطروحة، تم إجراء تحسين لطريقة الذكاء الاصطناعي القابل للتفسير المعروفة باسم MCD)) والتي تسمح لنماذج التعلم العميق بالتعبير عن عدم اليقين باستخدام خوارزمية تحسين تُعرف باسم (HHO) وقد تم استخدام هذا التحسين في قطاع الطاقة من خلال تقديم نهج يسمى (Solar-OBNet) هذا النهج قادر على اكتشاف بعض العيوب التي تُصيب الألواح الشمسية لضمان إنتاج كمية وفيرة من الطاقة. يتم استخدام قياسين لتقدير عدم اليقين في نتائج تلك النهج المقترح، وهما (predictive entropy and standard deviation)، يمكن لتلك النهج المقترح التعبير عن الثقة في التنبؤات الصحيحة من خلال إظهار قيم منخفضة لتلك القياسات المشار لها. يمكن للنهج المقترح أيضًا إعطاء تحذير من عدم اليقين في حالة التنبؤات الخاطئة من خلال إظهار قيم عالية للقياسات المشار لها سابقا. تم التحقق من فعالية النهج المقترح من خلال تفسير نتائجه باستخدام طريقة تسمى (Grad-CAM). و لقد حقق النهج المقترح دقة عالية متفوقا على الطرق الأخرى المقارنة.
530 _aIssues also as CD.
546 _aText in English and abstract in Arabic & English.
650 0 _aArtificial intelligence
650 0 _aالذكاء الأصطناعي
653 1 _aExplainable Artificial Intelligence
_aInterpretable Deep Learning
_aBayesian Deep Learning,
_aOptimization Algorithm,
_a Sustainable Development Goals,
_aWEF Nexus Approach
_a Sustainable Clean Energy
700 0 _aReda Abdel-Wahab El-khoribi
_ethesis advisor.
700 0 _aMona Mohamed Mohamed Soliman
_ethesis advisor.
700 0 _aEman Ahmed Sayed Ahmed
_ethesis advisor.
900 _b01-01-2025
_cReda Abdel-Wahab El-khoribi
_cMona Mohamed Mohamed Soliman
_cEman Ahmed Sayed Ahmed
_UCairo University
_FFaculty of Computers and Artificial Intelligence
_DDepartment of Information Technology
905 _aShimaa
_eEman Ghareb
942 _2ddc
_cTH
_e21
_n0
999 _c174614