Explainable artificial intelligence for sustainable development applications /
Dalia Ezzat Abo-elyazeed Ali, 
Explainable artificial intelligence for sustainable development applications / الذكاء الاصطناعي القابل للتفسير لتطبيقات التنمية المستدامة by Dalia Ezzat Abo-elyazeed Ali ; Supervision of Prof. Reda Abdel-Wahab El-khoribi, Prof. Mona Mohamed Mohamed Soliman, Dr. Eman Ahmed Sayed Ahmed. - 108 Leaves : illustrations ; 30 cm. + CD.
Thesis (Ph.D)-Cairo University, 2025.
Bibliography: pages 93-108.
Artificial intelligence (AI), particularly deep learning (DL) models, has recently led to enormous advancements in several sectors. However, following this development, the literature started to highlight some limitations that prevent DL models from being used in real applications. These limitations are due to the fact that DL models are black box models that neither provide an explanation for their results nor express confidence in their results. DL models are also often referred to as overconfidence models, as they give very high accuracy even in their incorrect predictions. From this point of view, a new field called explainable artificial intelligence (XAI) has emerged to make black box DL models understandable and trustworthy. Under the guise of XAI, methods have already emerged that can be used to explain the results obtained from DL models. Moreover, other methods have emerged that can be used to make these models capable of revealing the level of uncertainty in their results. Although XAI methods have achieved a large part of the desired purpose, they need to be improved in order to obtain the best results. This thesis seeks to improve XAI methods in order to maximize the performance of DL models, hence mitigating the drawbacks that prevent DL models from being used in real-world applications. This thesis also aims to gain from these improvements conducted on both XAI methods and DL models in significant applications that support sustainable development goals, particularly those that have a direct impact on people, such as those related to food, energy, and water.
This thesis proposes an improved approach called AHA-XDNN for the water sector. The proposed approach is based on three pillars to predict water quality (WQ) with high accuracy and confidence, namely, deep neural networks (DNN), artificial hummingbird algorithm (AHA), and XAI. The proposed approach involves five phases: data preprocessing, optimization, training, evaluation, and results explanation phases. In the first phase, problems such as unwanted noise and imbalance are addressed. In the second phase, AHA is applied to optimize the DNN model’s hyper-parameters. In the third phase, the DNN model is trained on the dataset processed in the first phase. In the fourth and fifth phases, the performance of the optimized DNN model is evaluated using four measurements, and the results are explained and interpreted using an XAI method called SHapley Additive Explanations (SHAP). The proposed approach achieved an accuracy, average precision, average recall, average f1-score of 91%, 91%, 91.5%, and 91% on the test set, respectively. By comparing the proposed approach with existing models based on artificial neural network (ANN), the proposed approach was able to outperform its counterparts in terms of average recall, and average f1-score. لقد أدى الذكاء الاصطناعي وخاصة نماذج التعلم العميق إلى تقدم هائل في العديد من القطاعات في الآونة الأخيرة. ومع ذلك، بعد هذا التطور الهائل، بدأت الأدبيات في تسليط الضوء على بعض القيود التي تمنع استخدام نماذج التعلم العميق في التطبيقات الحقيقية. ترجع هذه القيود إلى أن نماذج التعلم العميق هي نماذج صندوق أسود لا تقدم تفسيرًا لنتائجها ولا تعبر عن مقدار الثقة في نتائجها. لذلك غالبًا ما يُشار إلى نماذج التعلم العميق أيضًا باسم نماذج الثقة المفرطة، لأنها تعطي دقة عالية جدًا حتى في تنبؤاتها غير الصحيحة. انطلاقا من تلك الرؤية، ظهر مجال جديد يسمى الذكاء الاصطناعي القابل للتفسير لجعل نتائج نماذج التعلم العميق مفهومة وجديرة بالثقة. تحت غطاء الذكاء الاصطناعي القابل للتفسير، ظهرت بالفعل طرق يمكن استخدامها لشرح النتائج التي تم الحصول عليها من نماذج التعلم العميق. علاوة على ذلك، ظهرت طرق أخرى يمكن استخدامها لجعل هذه النماذج قادرة على الكشف عن مستوى عدم اليقين في نتائجها. على الرغم من أن طرق الذكاء الاصطناعي القابل للتفسير حققت جزءًا كبيرًا من الغرض المطلوب، إلا أنها تحتاج إلى التحسين من أجل الحصول على أفضل النتائج. تسعى هذه الأطروحة إلى تحسين أساليب الذكاء الاصطناعي القابل للتفسير من أجل تعظيم أداء نماذج التعلم العميق، وبالتالي التخفيف من العيوب التي تمنع استخدام تلك نماذج في التطبيقات الواقعية. تهدف هذه الأطروحة أيضًا إلى الاستفادة من هذه التحسينات التي أجريت على كل من أساليب الذكاء الاصطناعي القابل للتفسير ونماذج التعلم العميق في التطبيقات المهمة التي تدعم أهداف التنمية المستدامة، وخاصة تلك التي لها تأثير مباشر على الناس مثل التطبيقات المتعلقة بالغذاء والطاقة والمياه.
في هذه الأطروحة، تم إجراء تحسين لطريقة الذكاء الاصطناعي القابل للتفسير المعروفة باسم MCD)) والتي تسمح لنماذج التعلم العميق بالتعبير عن عدم اليقين باستخدام خوارزمية تحسين تُعرف باسم (HHO) وقد تم استخدام هذا التحسين في قطاع الطاقة من خلال تقديم نهج يسمى (Solar-OBNet) هذا النهج قادر على اكتشاف بعض العيوب التي تُصيب الألواح الشمسية لضمان إنتاج كمية وفيرة من الطاقة. يتم استخدام قياسين لتقدير عدم اليقين في نتائج تلك النهج المقترح، وهما (predictive entropy and standard deviation)، يمكن لتلك النهج المقترح التعبير عن الثقة في التنبؤات الصحيحة من خلال إظهار قيم منخفضة لتلك القياسات المشار لها. يمكن للنهج المقترح أيضًا إعطاء تحذير من عدم اليقين في حالة التنبؤات الخاطئة من خلال إظهار قيم عالية للقياسات المشار لها سابقا. تم التحقق من فعالية النهج المقترح من خلال تفسير نتائجه باستخدام طريقة تسمى (Grad-CAM). و لقد حقق النهج المقترح دقة عالية متفوقا على الطرق الأخرى المقارنة.
Text in English and abstract in Arabic & English.
Artificial intelligence
الذكاء الأصطناعي
Explainable Artificial Intelligence Interpretable Deep Learning Bayesian Deep Learning, Optimization Algorithm, Sustainable Development Goals, WEF Nexus Approach Sustainable Clean Energy
006.3
                        Explainable artificial intelligence for sustainable development applications / الذكاء الاصطناعي القابل للتفسير لتطبيقات التنمية المستدامة by Dalia Ezzat Abo-elyazeed Ali ; Supervision of Prof. Reda Abdel-Wahab El-khoribi, Prof. Mona Mohamed Mohamed Soliman, Dr. Eman Ahmed Sayed Ahmed. - 108 Leaves : illustrations ; 30 cm. + CD.
Thesis (Ph.D)-Cairo University, 2025.
Bibliography: pages 93-108.
Artificial intelligence (AI), particularly deep learning (DL) models, has recently led to enormous advancements in several sectors. However, following this development, the literature started to highlight some limitations that prevent DL models from being used in real applications. These limitations are due to the fact that DL models are black box models that neither provide an explanation for their results nor express confidence in their results. DL models are also often referred to as overconfidence models, as they give very high accuracy even in their incorrect predictions. From this point of view, a new field called explainable artificial intelligence (XAI) has emerged to make black box DL models understandable and trustworthy. Under the guise of XAI, methods have already emerged that can be used to explain the results obtained from DL models. Moreover, other methods have emerged that can be used to make these models capable of revealing the level of uncertainty in their results. Although XAI methods have achieved a large part of the desired purpose, they need to be improved in order to obtain the best results. This thesis seeks to improve XAI methods in order to maximize the performance of DL models, hence mitigating the drawbacks that prevent DL models from being used in real-world applications. This thesis also aims to gain from these improvements conducted on both XAI methods and DL models in significant applications that support sustainable development goals, particularly those that have a direct impact on people, such as those related to food, energy, and water.
This thesis proposes an improved approach called AHA-XDNN for the water sector. The proposed approach is based on three pillars to predict water quality (WQ) with high accuracy and confidence, namely, deep neural networks (DNN), artificial hummingbird algorithm (AHA), and XAI. The proposed approach involves five phases: data preprocessing, optimization, training, evaluation, and results explanation phases. In the first phase, problems such as unwanted noise and imbalance are addressed. In the second phase, AHA is applied to optimize the DNN model’s hyper-parameters. In the third phase, the DNN model is trained on the dataset processed in the first phase. In the fourth and fifth phases, the performance of the optimized DNN model is evaluated using four measurements, and the results are explained and interpreted using an XAI method called SHapley Additive Explanations (SHAP). The proposed approach achieved an accuracy, average precision, average recall, average f1-score of 91%, 91%, 91.5%, and 91% on the test set, respectively. By comparing the proposed approach with existing models based on artificial neural network (ANN), the proposed approach was able to outperform its counterparts in terms of average recall, and average f1-score. لقد أدى الذكاء الاصطناعي وخاصة نماذج التعلم العميق إلى تقدم هائل في العديد من القطاعات في الآونة الأخيرة. ومع ذلك، بعد هذا التطور الهائل، بدأت الأدبيات في تسليط الضوء على بعض القيود التي تمنع استخدام نماذج التعلم العميق في التطبيقات الحقيقية. ترجع هذه القيود إلى أن نماذج التعلم العميق هي نماذج صندوق أسود لا تقدم تفسيرًا لنتائجها ولا تعبر عن مقدار الثقة في نتائجها. لذلك غالبًا ما يُشار إلى نماذج التعلم العميق أيضًا باسم نماذج الثقة المفرطة، لأنها تعطي دقة عالية جدًا حتى في تنبؤاتها غير الصحيحة. انطلاقا من تلك الرؤية، ظهر مجال جديد يسمى الذكاء الاصطناعي القابل للتفسير لجعل نتائج نماذج التعلم العميق مفهومة وجديرة بالثقة. تحت غطاء الذكاء الاصطناعي القابل للتفسير، ظهرت بالفعل طرق يمكن استخدامها لشرح النتائج التي تم الحصول عليها من نماذج التعلم العميق. علاوة على ذلك، ظهرت طرق أخرى يمكن استخدامها لجعل هذه النماذج قادرة على الكشف عن مستوى عدم اليقين في نتائجها. على الرغم من أن طرق الذكاء الاصطناعي القابل للتفسير حققت جزءًا كبيرًا من الغرض المطلوب، إلا أنها تحتاج إلى التحسين من أجل الحصول على أفضل النتائج. تسعى هذه الأطروحة إلى تحسين أساليب الذكاء الاصطناعي القابل للتفسير من أجل تعظيم أداء نماذج التعلم العميق، وبالتالي التخفيف من العيوب التي تمنع استخدام تلك نماذج في التطبيقات الواقعية. تهدف هذه الأطروحة أيضًا إلى الاستفادة من هذه التحسينات التي أجريت على كل من أساليب الذكاء الاصطناعي القابل للتفسير ونماذج التعلم العميق في التطبيقات المهمة التي تدعم أهداف التنمية المستدامة، وخاصة تلك التي لها تأثير مباشر على الناس مثل التطبيقات المتعلقة بالغذاء والطاقة والمياه.
في هذه الأطروحة، تم إجراء تحسين لطريقة الذكاء الاصطناعي القابل للتفسير المعروفة باسم MCD)) والتي تسمح لنماذج التعلم العميق بالتعبير عن عدم اليقين باستخدام خوارزمية تحسين تُعرف باسم (HHO) وقد تم استخدام هذا التحسين في قطاع الطاقة من خلال تقديم نهج يسمى (Solar-OBNet) هذا النهج قادر على اكتشاف بعض العيوب التي تُصيب الألواح الشمسية لضمان إنتاج كمية وفيرة من الطاقة. يتم استخدام قياسين لتقدير عدم اليقين في نتائج تلك النهج المقترح، وهما (predictive entropy and standard deviation)، يمكن لتلك النهج المقترح التعبير عن الثقة في التنبؤات الصحيحة من خلال إظهار قيم منخفضة لتلك القياسات المشار لها. يمكن للنهج المقترح أيضًا إعطاء تحذير من عدم اليقين في حالة التنبؤات الخاطئة من خلال إظهار قيم عالية للقياسات المشار لها سابقا. تم التحقق من فعالية النهج المقترح من خلال تفسير نتائجه باستخدام طريقة تسمى (Grad-CAM). و لقد حقق النهج المقترح دقة عالية متفوقا على الطرق الأخرى المقارنة.
Text in English and abstract in Arabic & English.
Artificial intelligence
الذكاء الأصطناعي
Explainable Artificial Intelligence Interpretable Deep Learning Bayesian Deep Learning, Optimization Algorithm, Sustainable Development Goals, WEF Nexus Approach Sustainable Clean Energy
006.3