المواجهة الجنائيه لجرائم الذكاء الاصطناعي /
Criminal confrontation of artificial intelligence crimes /
مقدمة من الباحث محمود مسعد أحمد محمد؛ تحت اشراف أ.د/ طارق أحمد فتحي سرور.
- 327 صفحة : إيضاحيات ؛ 30 cm. + CD.
أطروحة (دكتوراه)-جامعة القاهرة، 2024.
ببليوجرافيا: صفحات 285-327.
الذكاء الاصطناعى هو مجال يتطور بسرعة ويلعب دورًا متزايدًا فى حياتنا. ولسهولة تطبيق نظام المسؤولية الجنائية عن جرائم الذكاء الاصطناعي، يمكننا تقسيم الذكاء الاصطناعى إلى نوعين رئيسيين: الذكاء الاصطناعى الخاضع للإشراف البشرى (الذكاء الاصطناعى الضعيف)، والذكاء الاصطناعى غير الخاضع للإشراف البشرى (الذكاء الاصطناعى القوي). ومن ناحية نظام العدالة الجنائية، فإنه يواجه عددًا من التحديات عند التعامل مع جرائم الذكاء الاصطناعي، مثل صعوبة تحديد الجاني، وجمع الأدلة والمحاكمة. وعلى الرغم من ذلك يمكن استخدام الذكاء الاصطناعى لتحسين كفاءة وفعالية عمليات إنفاذ القانون. على سبيل المثال، يمكن استخدام الذكاء الاصطناعى لتحليل كميات كبيرة من البيانات بسرعة ودقة، وإنشاء أنظمة تنبؤية يمكنها تحديد المناطق التى من المرجح أن تحدث فيها الجريمة، وإنشاء أنظمة مراقبة يمكنها مراقبة المناطق التى من المرجح أن تحدث فيها الجريمة، وإنشاء أنظمة إنذار مبكر يمكنها تنبيه الناس إلى المخاطر المحتملة. Artificial intelligence (AI) is a rapidly developing field that is playing an increasingly important role in our lives. To facilitate the application of the criminal liability system for AI crimes, we can divide AI into two main types: human-supervised AI (weak AI) and non-human-supervised AI (strong AI). On the one hand, the criminal justice system faces a number of challenges when dealing with AI crimes, such as the difficulty of identifying the perpetrator, collecting evidence, and prosecuting. However, AI can be used to improve the efficiency and effectiveness of law enforcement. For example, AI can be used to analyze large amounts of data quickly and accurately, create predictive systems that can identify areas where crime is likely to occur, create surveillance systems that can monitor areas where crime is likely to occur, and create early warning systems that can alert people to potential risks.