520 |
|
|
|a سيتم من خلال هذه الدراسة تحديد المسؤولية الجزائية وفق أحكام التشريعات الجزائية الأردنية عن الأخطاء التقنية والفنية التي قد يتسبب بها تشغيل تقنيات وبرامج الذكاء الاصطناعي، لان تقنيات وبرامج الذكاء الاصطناعي يمكن أن تلحق الضرر بالغير والممتلكات وتكون ناتجة بشكل مباشر عن الخطأ التقني من أنظمة وبرامج الذكاء الاصطناعي المبرمجة للقيام بعمل ما، ولا يوجد نص قانوني يحمل المسؤولية الجزائية لبرامج الذكاء الاصطناعي باعتبارها آلة تعمل بدون توجيه حيث أبقت القوانين على اعتبار أن الإنسان هو المشغل الرئيسي، والفقه التقليدي يبين طبيعة المسؤولية عن أعمال الذكاء الاصطناعي والبرامج الإلكترونية بوصفها حارس الأشياء الميكانيكية مع افتراض عنصر الخطأ، يشترك في المسؤولية المبرمج ومن قام بتجربة النظام المبرمج ومن أمر ببدء العمل الفعلي بهذا البرنامج ومن يقوم بالإشراف على عمل البرنامج ومن يقوم بمراقبة عمل البرنامج ومن يقوم بتحديث البرنامج. توصل الباحث من خلال هذه الدراسة إلى نتيجة أن الشخص المسئول عن الأضرار التي يتسبب بها تشغيل برامج الذكاء الاصطناعي هو من يقوم إما بمراقبة البرنامج أو تشغيله أو تطوير برمجته وفق برامج إلكترونية هندسية معدة لذلك، وبالتالي فان تحديد المسؤولية الجزائية عن الأضرار التي لحقت بالغير نتيجة خطأ من برنامج الذكاء الاصطناعي فانه لا بد من تحديد المسؤولية المباشرة لذلك من خلال تحديد طبيعة عمل البرنامج والعمل الموكل به واعتماد تشغيله كليا أو جزئيا فلو فرضنا انه يعتمد بتشغيله كليا على قاعدة البيانات المخزنة فيه للقيام بعمله دون توجيه فان المسؤولية الجزائية عن أية أخطاء أو أضرار يرتكبها برنامج الذكاء الاصطناعي تكون على المبرمج أو المطور الذي قام ببرمجة وتطوير برنامج الذكاء الاصطناعي وتقع على الشركة المصنعة المسؤولية عن جبر الضرر والتعويض، أما اذا تم برمجة برنامج الذكاء الاصطناعي تسمح بالتحكم أو توجيه برنامج الذكاء الاصطناعي ووقع ضرر من هذا البرنامج عند اذن تقع المسؤولية الجزائية على عاتق الموجه أو المسير للبرنامج والمراقب لعمله، وتقع على الجهة التي تستخدم البرنامج في منشأتها المسؤولية المدنية المتمثلة بتعويض المتضرر. خلصت الدراسة إلى انه لا بد من إيجاد تشريع قانوني معاصر خاص بمثل الجرائم التي ترتكب بواسطة برامج الذكاء الاصطناعي، وانه لا بد من إنشاء مؤسسة عامة تعنى بمراقبة تطوير وإنتاج برامج الذكاء الاصطناعي، وعدم قيام شركات هندسة البرمجيات بتصنيع برامج مستقلة عن التوجيه والرقابة البشرية، وإيجاد تشريع رقابي يمنع تأسيس شركة تصنيع وتطوير برامج الذكاء الاصطناعي بشكل الشركة محدودة المسؤولية وان تكون ضمن مسمى شركة تضامن، حتى يتم تضييق الذمة المالية الضامنة لتعويض تجاوزاتها.
|b hrough this study, criminal liability will be determined in accordance with the provisions of the Jordanian penal legislation for technical and technical errors that may be caused by the operation of artificial intelligence technologies and programs, because artificial intelligence technologies and programs can damage third parties and property and are directly caused by the technical error of artificial intelligence systems and programs programmed to perform an action, and there is no legal provision that holds criminal liability for artificial intelligence programs as a machine that works without guidance, as the laws have maintained that the human being is the main operator, and traditional jurisprudence shows the nature of liability for artificial intelligence and electronic programs as a guardian Mechanical things with the assumption of an error element, the programmer, who tested the programmed system, who ordered the actual start of this program, who supervises the work of the program, who monitors the work of the program, who updates the program, shares the responsibility. Through this study, the researcher came to the conclusion that the person responsible for the damage caused by the operation of artificial intelligence programs is the one who either monitors the program, operates it or develops its programming according to engineering electronic programs prepared for this, therefore, determining the criminal liability for damages caused to others as a result of an error from the artificial intelligence program, it is necessary to determine the direct responsibility for this by determining the nature of the work of the program and the work entrusted to it and damage caused by the intelligence program However, if the artificial intelligence program is programmed to allow the control or guidance of the artificial intelligence program and damage is caused by this program, then the criminal responsibility falls on the shoulders of the router or the administrator of the program and the observer of his work, and the entity using the program in its facility bears the civil responsibility of compensating the injured. The study concluded that it is necessary to find contemporary legal legislation for such crimes committed by artificial intelligence programs, and that it is necessary to establish a public institution to monitor the development and production of artificial intelligence programs, and the failure of software engineering companies to manufacture programs independent of human guidance and control, and to find regulatory legislation that prevents the establishment of a company manufacturing and developing artificial intelligence programs in the form of a limited liability company and be within the name of a solidarity company, until the financial liability of the guarantor is narrowed to compensate for its excesses.
|