header
Local cover image
Local cover image
Image from OpenLibrary

Accelerating Generative Adversarial Networks, Software-Hardware Approach / By Dina Tantawy Hassan Saleh; Under the Supervision of Prof. Amr Galaleldin Ahmed Wassal.

By: Contributor(s): Material type: TextTextLanguage: English Summary language: Arabic Producer: 2023Description: 92 pages : illustrations ; 30 cm. + CDContent type:
  • text
Media type:
  • Unmediated
Carrier type:
  • volume
Other title:
  • تسريع وتحسين الشبكات الإنشائية المتنافسة، الطريقة المجمعة من البرمجيات والأجهزة [Added title page title]
Subject(s): DDC classification:
  • 621.39
Available additional physical forms:
  • Issued also as CD
Dissertation note: Thesis (Ph.D)-Cairo University, 2023. Summary: GANs are powerful, yet resource-hungry deep learning models. The main difference between GANs and ordinary deep learning models is the nature of their output and their training instability. Hence, accelerating GANs is pivotal. In this work, we accelerate GANs using memory and computation optimization. We minimize memory using weight clustering and pruning. It provides 4~8x storage saving without retraining. Additionally, stochastic computing replaces costly floating-point multipliers with AND gate. Combining both clustering and stochastic computing will maximize power saving to more than 3.9xSummary: تعد الشبكات الإنشائية المتنافسة من أقوي نماذج التعلم العميق، لكنها تحتاج إلى العديد من الموارد. كما تؤثر بنية الشبكة ودقتها الرقمية على جودة الحل وسرعته. ومن ثم، فإن تسريعها أمر محوري. نقوم بتصنيف تسريع الشبكات المتنافسة إلى ثلاثة جوانب: تحسين الذاكرة، وتحسين الحساب، وتحسين تدفق البيانات. في هذا العمل، نركز على أول جانبين: تحسين الذاكرة وتحسين الحساب. نقوم بتقليل الذاكرة باستخدام تجميع الوزن والتقليم. إنه يوفر تخزيناً من 4 إلى 8 اضعاف. بالإضافة إلى ذلك، قمنا بدمج تقنية ضغط الذاكرة مع تقنية تحسين الحساب لتحسين استخدام الطاقة. تستبدل الحوسبة العشوائية عمليات الضرب المُكلفة بالبوابة المنطقية "واو". وبالإضافة إلي ذلك قمنا بجمع بين تقنية ضغط الذاكرة والحسابات العشوائية والتي تزيد من توفير الطاقة إلى أكثر من 3,9 ضعف
Tags from this library: No tags from this library for this title. Log in to add tags.
Star ratings
    Average rating: 0.0 (0 votes)
Holdings
Item type Current library Home library Call number Status Barcode
Thesis Thesis قاعة الرسائل الجامعية - الدور الاول المكتبة المركزبة الجديدة - جامعة القاهرة Cai01.13.06.Ph.D.2023.Di.A (Browse shelf(Opens below)) Not for loan 01010110088152000

Thesis (Ph.D)-Cairo University, 2023.

Bibliography: pages 83-92.

GANs are powerful, yet resource-hungry deep learning models. The main difference between GANs and ordinary deep learning models is the nature of their output and their training instability. Hence, accelerating GANs is pivotal. In this work, we accelerate GANs using memory and computation optimization. We minimize memory using weight clustering and pruning. It provides 4~8x storage saving without retraining. Additionally, stochastic computing replaces costly floating-point multipliers with AND gate. Combining both clustering and stochastic computing will maximize power saving to more than 3.9x

تعد الشبكات الإنشائية المتنافسة من أقوي نماذج التعلم العميق، لكنها تحتاج إلى العديد من الموارد. كما تؤثر بنية الشبكة ودقتها الرقمية على جودة الحل وسرعته. ومن ثم، فإن تسريعها أمر محوري. نقوم بتصنيف تسريع الشبكات المتنافسة إلى ثلاثة جوانب: تحسين الذاكرة، وتحسين الحساب، وتحسين تدفق البيانات. في هذا العمل، نركز على أول جانبين: تحسين الذاكرة وتحسين الحساب. نقوم بتقليل الذاكرة باستخدام تجميع الوزن والتقليم. إنه يوفر تخزيناً من 4 إلى 8 اضعاف. بالإضافة إلى ذلك، قمنا بدمج تقنية ضغط الذاكرة مع تقنية تحسين الحساب لتحسين استخدام الطاقة. تستبدل الحوسبة العشوائية عمليات الضرب المُكلفة بالبوابة المنطقية "واو". وبالإضافة إلي ذلك قمنا بجمع بين تقنية ضغط الذاكرة والحسابات العشوائية والتي تزيد من توفير الطاقة إلى أكثر من 3,9 ضعف

Issued also as CD

Text in English and abstract in Arabic & English.

There are no comments on this title.

to post a comment.

Click on an image to view it in the image viewer

Local cover image