| 000 | 12842namaa22004451i 4500 | ||
|---|---|---|---|
| 003 | OSt | ||
| 005 | 20250924103939.0 | ||
| 008 | 250826s2024 ua a|||frm||| 000 0 eng d | ||
| 040 | 
_aEG-GICUC _beng _cEG-GICUC _dEG-GICUC _erda  | 
||
| 041 | 0 | 
_aeng _beng _bara  | 
|
| 049 | _aDeposit | ||
| 082 | 0 | 4 | _a006.3 | 
| 092 | 
_a006.3 _221  | 
||
| 097 | _aPh.D | ||
| 099 | _aCai01.20.01.Ph.D.2024.HE.I | ||
| 100 | 0 | 
_aHeba Allah Sherif Mohamed Sobhy Abdelhay, _epreparation.  | 
|
| 245 | 1 | 0 | 
_aImproving IoT networks performance using AI / _cby Heba Allah Sherif Mohamed Sobhy Abdelhay ; Supervision Prof. Dr. Mohamed Gamal Eldin Darwish, Prof. Dr. Amira Mohamed Kotb, Dr. Eman Ahmed Sayed.  | 
| 246 | 1 | 5 | _aتحسين أداء شبكات انترنت الأشياء باستخدام الذكاء الاصطناعي | 
| 264 | 0 | _c2024. | |
| 300 | 
_a92 Leaves :  _billustrations ; _c30 cm. + _eCD.  | 
||
| 336 | 
_atext _2rda content  | 
||
| 337 | 
_aUnmediated _2rdamedia  | 
||
| 338 | 
_avolume _2rdacarrier  | 
||
| 502 | _aThesis (Ph.D)-Cairo University, 2024. | ||
| 504 | _aBibliography: pages 79-91. | ||
| 520 | 3 | _aWith the continuous drastic growth in internet-connected devices and the rapid development of Internet of Things (IoT) systems, everything around us is becoming smart. Most of these devices need to communicate wirelessly. However, the rapid expansion of IoT devices and their diverse Quality of Service (QoS) requirements will be too much for the current wireless communications infrastructure to handle. Mobile operators are looking for an effective way to satisfy the various requirements of QoS. Subsequently, beyond 5G (B5G) and 6G technologies have evolved as the Next Generation Wireless Networks (NGWNs). NGWNs have two main components; Network Slicing (NS) and Open Radio Access Networks (O-RAN). Network slicing is needed by Mobile Network Operators (MNOs) to handle diverse applications with various demands of QoS. It divides the physical resources into numerous logical slices following user needs. O-RAN has been proposed to adopt an open environment for network vendors and to supply the MNOs with intelligent control over their networks. In the last few years, some issues in NS and O-RAN have been proposed to be solved by Deep Learning (DL) algorithms. However, the use of DL algorithms consumes lots of energy and power resources and generates enormous carbon emissions that negatively impact climate change and the environment. It is important to benefit from DL techniques but, we should mitigate their harmful effects by doing more optimization for the architectures to reduce the computation time complexity. This thesis addressed two important issues which are; the accurate prediction of a network slice for each user traffic and the dynamic radio resource management (RRM) of O-RAN slicing. We aim to solve these issues with more accuracy, more optimization, and a lesser carbon footprint. Firstly, we addressed the issue of predicting a suitable network slice for each user traffic. We suggest a prediction model using a One-Dimensional Convolutional Neural Network (1D CNN) architecture. In this model, we select the important features using the Shapely value. Then, we use the Stratified K-Fold technique for cross-validation and Borderline-SMOTE for oversampling. Finally, we optimize the classification architecture using 1D CNN. Concerning the state-of-the-art techniques, our model achieved better accuracy, lower training time, and lower carbon emissions. Secondly, we addressed the issue of dynamic RRM in O-RAN slicing using Deep Reinforcement Learning (DRL). The primary obstacles preventing the DRL algorithms deployment in commercial networks are exploration instability and lateness in convergence. Therefore, we tackle to solve the DRL lateness issue using Transfer Learning (TL). We develop a DRL expert agent application implemented using a Proximal Policy Optimization (PPO) algorithm with a new latency-based reward function and a top-k filtration mechanism for actions. Then, we develop a learner agent application that uses a policy TL approach for accelerating the DRL agent convergence in live networks. We consider two learner agent scenarios in which the traffic pattern and slices of the commercial network are slightly different from that of the trained network. Our proposed latency-based model achieved the dynamic allocation of radio resources in fewer learning steps with lower energy consumption, power, and carbon emissions compared to two of the state-of-the-art works. Lastly, we discovered shortages in the latency-based model for achieving the optimal allocation of resources in some cases mainly because the designed reward function relies only on latency. Therefore, we introduce in the third model a well-designed reward function incorporating two important QoS metrics; latency and reliability rate. Then, we use a variable threshold action filtration mechanism. Finally, a different policy TL approach is proposed to accelerate the DRL performance in commercial networks. We also use the PPO algorithm to implement our DRL agents. Two scenarios are considered where there is a mean change in the traffic capacity and slices in the live network from the trained network. In comparison with the state-of-the-art and our latency-based model, this model achieves significant improvements in exploration stability, convergence speed, QoS achievements, power and energy consumption, and emitted carbon footprint. | |
| 520 | 3 | _aمع النمو المستمر والجذري في الأجهزة المتصلة بالإنترنت والتطور السريع لأنظمة إنترنت الأشياء (IoT)، أصبح كل شيء من حولنا ذكيًا. تحتاج معظم هذه الأجهزة إلى الاتصال لاسلكيًا. ومع ذلك، فإن التوسع السريع لأجهزة إنترنت الأشياء ومتطلبات جودة الخدمة المتنوعة الخاصة بها ستكون أكثر مما تستطيع البنية التحتية الحالية للاتصالات اللاسلكية التعامل معه. يبحث مشغلو الهاتف المحمول عن طريقة فعالة لتلبية المتطلبات المختلفة لجودة الخدمة. نتيجة لذلك، تطورت تقنيات ما بعد (B5G) 5G و 6Gلتصبح شبكات الجيل التالي اللاسلكية .(NGWNs) تتكون شبكات الجيل التالي من مكونين رئيسيين؛ تقسيم الشبكة (NS) وشبكات الوصول اللاسلكي المفتوحة (O-RAN). يحتاج مشغلو شبكات الهاتف المحمول (MNOs) إلى تقسيم الشبكة للتعامل مع التطبيقات المتنوعة ذات المتطلبات المختلفة لجودة الخدمة. فهو يقسم الموارد المادية إلى شرائح افتراضية عديدة وفقًا لاحتياجات المستخدم. وقد تم اقتراح O-RAN لتبني بيئة مفتوحة لموردي الشبكات وتزويد مشغلي شبكات الهاتف المحمول بالتحكم الذكي في شبكاتهم. في السنوات القليلة الماضية، تم اقتراح حل بعض المشكلات في NS وO-RAN بواسطة خوارزميات التعلم العميق (DL). ومع ذلك، فإن استخدام خوارزميات التعلم العميق يستهلك الكثير من الطاقة وموارد الطاقة ويولد انبعاثات كربونية هائلة تؤثر سلبًا على تغير المناخ والبيئة. من المهم الاستفادة من تقنيات التعلم العميق، ولكن يجب علينا التخفيف من آثارها الضارة من خلال إجراء المزيد من التحسينات للبنبان لتقليل تعقيد وقت الحساب. في هذه الأطروحة، نتناول قضيتين مهمتين، وهما: التنبؤ الدقيق لشريحة الشبكة لكل حركة مرور لمستخدم وإدارة الموارد الراديوية الديناميكية (RRM) لنظام التقسيم في شبكات الوصول اللاسلكي المفتوحة O-RAN. ونهدف إلى حل هذه القضايا بدقة أكبر وتحسين أكبر وبصمة كربونية أقل. أولاً، تناولنا قضية التنبؤ بشريحة شبكة مناسبة لكل حركة مرور مستخدم. نقترح نموذج تنبؤ باستخدام بنية الشبكة العصبية التلافيفية أحادية البعد (1D-CNN). في هذا النموذج، نختار الميزات المهمة باستخدام قيمة Shapely. بعد ذلك، نستخدم تقنية Stratified K-Fold للتحقق المتبادل وBorderline-SMOTE لزيادة العينات. أخيرًا، نقوم بتحسين بنية التصنيف باستخدام 1D-CNN. فيما يتعلق بالتقنيات الحديثة، حقق نموذجنا دقة أفضل ووقت تدريب أقل وانبعاثات كربونية أقل. ثانيًا، تناولنا قضية RRM الديناميكية في تقسيم O-RAN باستخدام التعلم المعزز العميق (DRL). تتمثل العوائق الأساسية التي تمنع نشر خوارزميات DRL في عدم استقرار الاستكشاف والتأخير في التقارب. لذلك، نتعامل مع حل مشكلة تأخير DRL باستخدام التعلم الانتقالي (TL). نقوم بتطوير تطبيق وكيل خبير يتم تنفيذه باستخدام خوارزمية تحسين السياسة التقريبية (PPO) مع وظيفة مكافأة جديدة تعتمد على زمن الوصول وآلية ترشيح top-k للإجراءات. بعد ذلك، نقوم بتطوير تطبيق وكيل متعلم يستخدم نهج TL للسياسة لتسريع تقارب الوكيل في الشبكات الحية. نأخذ في الاعتبار سيناريوهين للوكيل المتعلم حيث يختلف نمط حركة المرور وشرائح الشبكة التجارية قليلاً عن نمط الشبكة المدربة. حقق نموذجنا المقترح القائم على زمن الوصول التخصيص الديناميكي لموارد الراديو في خطوات تعلم أقل مع انخفاض استهلاك الطاقة والكهرباء وانبعاثات الكربون مقارنة بعملين من أحدث الأعمال. أخيرًا، اكتشفنا وجود نقص في النموذج القائم على زمن الوصول لتحقيق التخصيص الأمثل للموارد في بعض الحالات، ويرجع ذلك أساسًا إلى أن وظيفة المكافأة المصممة تعتمد فقط على زمن الوصول. لذلك، نقدم في النموذج الثالث وظيفة مكافأة مصممة جيدًا تتضمن مقياسين مهمين لجودة الخدمة؛ زمن الوصول ومعدل الموثوقية. بعد ذلك، نستخدم آلية ترشيح للاجراءات بتحديد مستوى متغير. أخيرًا، يتم اقتراح نهج مختلف لسياسة TL لتسريع أداء DRL في الشبكات التجارية. نستخدم أيضًا خوارزمية PPO لتنفيذ وكلاء DRL لدينا. يتم النظر في سيناريوهين حيث يوجد تغيير متوسط في سعة حركة المرور والشرائح في الشبكة الحية من الشبكة المدربة. بالمقارنة مع أحدث التقنيات ونموذجنا القائم على زمن الوصول، يحقق هذا النموذج تحسينات كبيرة في استقرار الاستكشاف وسرعة التقارب وإنجازات جودة الخدمة واستهلاك الطاقة والكهرباء والبصمة الكربونية المنبعثة | |
| 530 | _aIssues also as CD. | ||
| 546 | _aText in English and abstract in Arabic & English. | ||
| 650 | 0 | _aArtificial intelligence | |
| 650 | 0 | _aالذكاء الاصطناعي | |
| 653 | 1 | 
_aNext Generation Wireless Networks _aNetwork Slicing _a O-RAN _aSlice Prediction _aConvolutional Neural Networks _aRadio Resource Management _aDeep Reinforcement Learning _aTransfer Learning  | 
|
| 700 | 0 | 
_aMohamed Gamal Eldin Darwish _ethesis advisor.  | 
|
| 700 | 0 | 
_aAmira Mohamed Kotb  _ethesis advisor.  | 
|
| 700 | 0 | 
_aEman Ahmed Sayed _ethesis advisor.  | 
|
| 900 | 
_b01-01-2024 _cMohamed Gamal Eldin Darwish _cAmira Mohamed Kotb _cEman Ahmed Sayed _UCairo University _FFaculty of Computers and Artificial Intelligence _DDepartment of Information Technology  | 
||
| 905 | 
_aShimaa _eEman Ghareb  | 
||
| 942 | 
_2ddc _cTH _e21 _n0  | 
||
| 999 | _c173730 | ||