المسؤولية الإدارية عن الاستخدام الغير مشروع للذكاء الاصطناعي
Abstract
شهد العالم تطور سريع في مجال الذكاء الاصطناعي بفضل زيادة البيانات في نظم المعلومات و، فالذكاء الاصطناعي هو نظرية تطور الآلات لتمكينها من اتمام المهام التي تتطلب عادة الذكاء البشري، مثل القدرة على التفكير و الادراك و حل المشكلات من خلال التعلم من الاخطاء و التجارب السابقة بغية اكتساب الخبرات ، و اتحاد القرارات من خلال اسلوب جمع و تحليل البيانات و المعلومات و ذلك للتعرف على الكلام و ترجمة اللغات ، بل علاوة على ذلك اصبحت تدخل في علاقات قانونية و تبرم التصرفات القانونية مما وفر فرصا لتحسين الاداء و السرعة و الدقة. الا انه بالرغم من وجود هوة عميقة بين التشريعات الحالية وتصنيفات الذكاء الاصطناعي، خاصة فيما يتعلق بأمن المعلومات والثقة الرقمية مما يعقد عملية تنظيمها. إذ قد يترتب على المحاكاة المقترنة بسلوكيات الافراد كعمليات التزييف العميق بعض الاضرار التي تلحق بالغير و التي يصعب مواجهتها في ظل قواعد المسؤولية التقليدية بسبب اتخاد قرارات ذاتية دون تلقي أي أوامر من الشخص الذي انشأ تلك المحاكاة ، مما يصعب التحكم فيه و هذا ما دعا بعض الباحثين إلى التفكير في الاعتراف بالشخصية القانونية لان الغرض من الاعتراف بالشخصية القانونية ليس اهلية الذكاء الاصطناعي للتمتع بالحقوق بل للتوصل لتحديد الشخص المسؤول عن حدوث الضرر . إذ بالرغم من قدرة التكنولوجيا على انجاز خدمات للبشر بسرعة تفوق قدرة البشر الا انه قد يتسبب عنها اضرار يصعب معها تحديد المسؤول عن الضرر. اهمية الدراسة تتمثل في تحديد اساس المسؤولية الإدارية تجاه اخطاء استعمال الإدارة لتقنيات الذكاء الاصطناعي في اتخاذ القرارات الإدارية.
How to Cite
Issue
Section
License

This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License.