بيانات الباحث
طلبة في بكالوريوس القانون، كلية القانون والعلوم السياسية، جامعة النجاح الوطنية، نابلس، فلسطين
[email protected]
طلبة في بكالوريوس القانون، كلية القانون والعلوم السياسية، جامعة النجاح الوطنية، نابلس، فلسطين
طلبة في بكالوريوس القانون، كلية القانون والعلوم السياسية، جامعة النجاح الوطنية، نابلس، فلسطين
طلبة في بكالوريوس القانون، كلية القانون والعلوم السياسية، جامعة النجاح الوطنية، نابلس، فلسطين
محاضر، كلية القانون والعلوم السياسية، جامعة النجاح الوطنية، نابلس، فلسطين
محاضر، كلية القانون والعلوم السياسية، جامعة النجاح الوطنية، نابلس، فلسطين
ملخص البحث
الهدف: هدفت الدراسة إلى تحليل مفهوم الذكاء الاصطناعي وتطوراته وتطبيقاته المختلفة في السياقات القانونية، ودراسة أطر المسؤولية الجزائية للأطراف المرتبطة بالذكاء الاصطناعي في القانون الفلسطيني والإيطالي، كما سلّطت الضوء على الفجوات التشريعية والممارسات القانونية في التعامل مع الأفعال الضارة الناشئة عن هذه التقنيات، وقدمت توصيات قانونية لضمان تحقيق التوازن بين حماية المجتمع وتشجيع الابتكار التكنولوجي. المنهج: استخدم الباحثون في هذه الدراسة المنهج المقارن بين النظام القانوني الفلسطيني والإيطالي، مع اعتماد المنهج الوصفي التحليلي لفحص القوانين، والنصوص، والممارسات القضائية ذات الصلة- إن وجدت. كما سيستند البحث إلى مراجعة الأدبيات القانونية والفقهية الحديثة. النتائج: توصلت الدراسة إلى أن المسؤولية الجزائية عن الأفعال الضارة للذكاء الاصطناعي ترتبط بشكل أساسي بإرادة الأطراف البشرية المرتبطة بتصميم وتشغيل تطبيقات الذكاء الاصطناعي، وأن القوانين النافذة في فلسطين والقانون الإيطالي لا يعترفون حالياً بالمسؤولية المستقلة للتطبيقات الذكية نفسها. التوصيات: أوصت الدراسة بضرورة وضع أطر تشريعية واضحة تحدد مسؤولية المبرمج والمالك والمشغل عند استخدام تطبيقات الذكاء الاصطناعي، وتشجيع اعتماد معايير السلامة الفنية والأخلاقية لضمان حماية المجتمع دون إعاقة التطور التكنولوجي.
Purpose: This study aimed to analyze the concept of artificial intelligence (AI), its developments, and its various applications within legal contexts, and to examine the frameworks of criminal liability for parties associated with AI under Palestinian and Italian law. It also highlighted legislative gaps and legal practices in addressing harmful acts arising from these technologies and provided legal recommendations to ensure a balance between protecting society and promoting technological innovation. Methodology: The researchers employed a comparative approach between the Palestinian and Italian legal systems, using a descriptive-analytical method to examine relevant laws, statutory texts, and judicial practices where available. The study also relied on a review of contemporary legal literature and jurisprudence. Findings: The study found that criminal liability for harmful acts caused by AI is primarily linked to the intent and actions of human parties involved in the design and operation of AI applications. Current Palestinian and Italian laws do not recognize independent liability for the AI applications themselves. Recommendations: The study recommended establishing clear legislative frameworks that define the responsibilities of programmers, owners, and operators when using AI applications, and promoting adherence to technical and ethical safety standards to protect society without hindering technological development.
