000 | 08572namaa22004211i 4500 | ||
---|---|---|---|
003 | OSt | ||
005 | 20250223033344.0 | ||
008 | 241211s2023 |||a|||fr|m|| 000 0 eng d | ||
040 |
_aEG-GICUC _beng _cEG-GICUC _dEG-GICUC _erda |
||
041 | 0 |
_aeng _beng _bara |
|
049 | _aDeposit | ||
082 | 0 | 4 | _a621.39 |
092 |
_a621.39 _221 |
||
097 | _aM.Sc | ||
099 | _aCai01.13.06.M.Sc.2023.Om.P | ||
100 | 0 |
_aOmar Samir Galal Mohamed, _epreparation. |
|
245 | 1 | 0 |
_aRethinking bert sentence embedding for Text classification with central and federated learning / _cby Omar Samir Galal Mohamed ; Under the Supervision of Dr. Mona Farouk, Dr. Ahmed H. Abdel-Gawad. |
246 | 1 | 5 | _aإعادة النظر في تضمین جملةBERT لتصنیف النص بالتعلم المركزيوالاتحادي / |
264 | 0 | _c2023. | |
300 |
_a59 pages : _billustrations ; _c30 cm. + _eCD. |
||
336 |
_atext _2rda content |
||
337 |
_aUnmediated _2rdamedia |
||
338 |
_avolume _2rdacarrier |
||
502 | _aThesis (M.Sc.)-Cairo University, 2023. | ||
504 | _aBibliography: pages 55-59. | ||
520 | _aText classification is a fundamental task in NLP that is used in several real-life tasks and applications. Large pre-trained language models such as BERT achieve state-of-the- art performance in several NLP tasks including text classification tasks. Although BERT boosts text classification performance, the common way of using it for classification lacks many aspects of its advantages. This thesis rethinks the way of using BERT final layer and hidden layers embeddings by proposing different aggregation architectures for text classification tasks such as sentiment analysis and sarcasm detection. This research also proposes different approaches for using BERT as a feature extractor without fine-tuning whose performance surpasses its fine-tuning counterpart. It also proposes promising multi-task learning aggregation architectures to improve the performance of the related classification problems. The experiments of the different architectures show that freezing BERT can outperform fine-tuning it for sentiment analysis. The experiments also show that multi-task learning while freezing BERT boosts the performance of hard tasks such as sarcasm detection. The best-performing models achieved new state-of-the-art performance on the ArSarcasm-v2 dataset for Arabic sarcasm detection and sentiment analysis. For multi-task learning and freezing BERT, a new SOTA F1-score of 64.41 was achieved for the sarcasm detection with a 3.47% improvement and near SOTA FPN 1 of 75.78 for the sentiment classification. For single-task learning, a new SOTA FPN 1 of 75.26 was achieved for the sentiment with a 1.81% improvement. Although gaining these results with the training data being resident in one place, certain problem domains necessitate data distribution without data sharing. Federated Learning (FL) allows multiple clients to collectively train a global model by sharing learned models rather than raw data. However, the adoption of BERT, a large model, within a Federated Learning framework incurs substantial communication costs. To address this challenge, we propose a novel framework, FedFreezeBERT, for BERT-based text classification. FedFreezeBERT works by adding an aggregation architecture on top of BERT to obtain better sentence embedding for classification while freezing BERT parameters. Keeping the model parameters frozen, FedFreezeBERT reduces the communication costs by a large factor compared to other state-of-the-art methods. FedFreezeBERT is implemented in a distributed version where the aggregation architecture only is being transferred and aggregated by FL algorithms such as FedAvg or FedProx. FedFreezeBERT is also implemented in a centralized version where the data embeddings extracted by BERT are sent to the central server to train the aggregation architecture. The experiments show that FedFreezeBERT achieves new state-of-the-art performance on Arabic sentiment analysis on the ArSarcasm-v2 dataset with a 12.9% and 1.2% improvement over FedAvg/FedProx and the previous SOTA respectively. FedFreezeBERT also reduces the communication cost by 5× compared to the previous SOTA. | ||
520 | _aیعد تصنیف النص مھمة أساسیة في البرمجة اللغویة العصبیة والتي یتم استخدامھا في العدید من المھاموالتطبیقات الواقعیة. تحقق النماذج اللغویة الكبیرة المدربة مسبقًا مثلBERT أداءً متطورًا في العدید منمھام البرمجة اللغویة العصبیة بما في ذلك مھام تصنیف النص. على الرغم من أنBERT یعزز أداءتصنیف النص، إلا أن الطریقة الشائعة لاستخدامھ في التصنیف تفتقر إلى العدید من جوانب مزایاه. تعیدھذه الرسالة التفكیر في طریقة استخدام طبقةBERT النھائیة وطبقات التضمین المخفیة من خلال اقتراحبنیات تجمیعیة مختلفة لمھام تصنیف النص مثل تحلیل المشاعر واكتشاف السخریة. یقترح ھذا البحثأیضًا طرقًا مختلفة لاستخدامBERT كمستخرج للمیزات بدون ضبط دقیق. تُظھر تجارب البنى المختلفة أنتجمیدBERT یمكن أن یتفوق في ضبطھ لتحلیل المشاعر. تظھر التجارب أیضًا أن التعلم متعدد المھام أثناءتجمیدBERT یعزز أداء المھام الصعبة مثل اكتشاف السخریة. حققت النماذج الأفضل أداءً أداءً جدیدًامتطورًا في مجموعة بیاناتArSarcasm-v2 للكشف عن السخریة العربیة وتحلیل المشاعر. بالنسبةللتعلم متعدد المھام وتجمیدBERT ، تم تحقیق درجة جدیدة تبلغ 64.41F1-score لاكتشاف السخریة مع تحسن بنسبة 3.47% و 75.78F1PN لتصنیف المشاعر. بالنسبة للتعلم بمھمة واحدة، تم تحقیق معدل جدید قدره 75.26F1PN للمیول مع تحسن بنسبة 1.81%. على الرغم من الحصول على ھذه النتائج مع وجود بیانات التدریب في مكان واحد، فإن بعض مجالات المشكلات تتطلب توزیع البیانات دون مشاركةالبیانات. یتیح التعلم الموحد (FL) للعدید من العملاء تدریب نموذج عالمي بشكل جماعي من خلال مشاركةالنماذج المدربة بدلاً من البیانات الأولیة. ومع ذلك، فإن اعتمادBERT ، وھو نموذج كبیر، ضمن إطارالتعلم الموحد یؤدي إلى تكالیف اتصالات كبیرة. ولمواجھة ھذا التحدي، نقترح إطارًا جدیدًا،FedFreezeBERT، لتصنیف النصوص استنادًا إلىBERT . یعملFedFreezeBERT عن طریق إضافةبنیة تجمیعیة أعلىBERT للحصول على تضمین أفضل للجمل للتصنیف أثناء تجمید متغیراتBERT . منخلال الحفاظ على تجمید متغیرات النموذج، یعملFedFreezeBERT على تقلیل تكالیف الاتصال بعاملكبیر مقارنة بالطرق الحدیثة الأخرى. تظھر التجارب أنFedFreezeBERT حقق أداءً جدیدًا متطورًا فيتحلیل المشاعر العربیة في مجموعة بیاناتArSarcasm-v2 مع تحسن بنسبة 12.9% و1.2% علىFedAvg/FedProx و الطریقة الأفضل سابقاً على التوالي. یعملFedFreezeBERT أیضًا على تقلیلتكلفة الاتصال بمقدار 5 مرات مقارنة بـأفضل طریقة سابقاُ. | ||
530 | _aIssued also as CD | ||
546 | _aText in English and abstract in Arabic & English. | ||
650 | 7 |
_aComputer Engineering _2qrmak |
|
653 | 0 |
_aText Classification _aBERT _aFederated Learning _aNatural Language Processing _aPre-trained Language Models |
|
700 | 0 |
_aMona Farouk _ethesis advisor. |
|
700 | 0 |
_aAhmed H. Abdel-Gawad _ethesis advisor. |
|
900 |
_b01-01-2023 _cMona Farouk _cAhmed H. Abdel-Gawad _dHoda A. Baraka _dAhmed A. Rafea _UCairo University _FFaculty of Engineering _DDepartment of Computer Engineering |
||
905 |
_aEman _eHuda |
||
942 |
_2ddc _cTH _e21 _n0 |
||
999 | _c169413 |