TY - BOOK AU - Eslam Mohamed Ali, AU - Omar Ahmed Nasr, TI - EMCA: EFFICIENT MULTISCALE CHANNEL ATTENTION MODULE FOR DEEP NEURAL NETWORKS U1 - 004.65 PY - 2022/// KW - Networks KW - Machine Learning N1 - Thesis (M.Sc.)-Cairo University,2022; Bibliography: p. 59-66 N2 - زيادة تحسين التمثيالت التى تتعلمها من العمود الفقري لشبكة ال CNN اكثر واكثر، تم استخدام آليات االنتباه عبر بعدين على حد سواء, وهما: البعد االول يتمثل في عدد السمات التى تتعلمها كل طبقة فى الشبكة العصبية, والبعد الثاني عبر االبعاد المكانية. ومع ذلك ، كل الخوارمزميات الموجوده حاليا تعاني من عيب شديد وهو انها كرس وحدات االنتباه اللتقاط التفاعالت المحلية من النطاقات االحادية متغفالتا عن بقية النطاقات ذات االبعاد لمختلفة. بناءا على ذلك, يتناول هذا العمل السؤال التالي: هل يمكن للمرء أن يدمج المقاييس المتعددة التجميع ثناء تعليم وحدات االنتباه لكي نحصل على وحدات انتباه تعمل بشكل أكثر كفاءة؟ تحقيقا لهذه الغاية ، في هذا لعمل نحن نستفيد من االهتمام بالقناوات على مقاييس الميزات المتعددة بدال من التركيز على نطاق واحد محدود، والذي يظهر بشكل تجريبي كفاءته لتحل محل وحدات االنتباه المحلية والفردية المحدودة. وحدات االنتباه لمقدمة فى هذا العمل المسماه ب EMCA تتميز بخفه الوزن و لكن فى نفس الوقت تعمل بكفاءه شديدة حيث من تصميمات الشبكات نها يمكنها أن تمذج السياق العالمي بشكل أكثر كفاءة ؛ يتم دمجه بسهولة في أي تغذية لعصبية CNN وتمتاز ايضا بانها يمكن تدريبها بطريقة شاملة UR - http://172.23.153.220/th.pdf ER -