الإطار القانوني للمسؤولية الجنائية عن اعمال الذكاء الاصطناعي

محمد فخري عبد الحسن1، جنان الخوري1

1 الجامعة الإسلامية في لبنان، كلية الحقوق، قسم القانون العام.

HNSJ, 2024, 5(12); https://doi.org/10.53796/hnsj512/38

تحميل الملف

تاريخ النشر: 01/12/2024م تاريخ القبول: 15/11/2024م

المستخلص

مع التطور المتسارع لتقنيات الذكاء الاصطناعي واستخدامها في كافة مجالات الحياة، بات من المتصور أن تقع الاخطاء في أعمال كيانات الذكاء الاصطناعي، خاصة في ضوء البرمجة المتطورة التي قد تصل خطورتها مستقبلا، إلى حد القدرة على اتخاذ القرارات بشكل مستقل، وما يترتب على هذا التطور من تصور قيام تطبيقات الذكاء الاصطناعي بأعمال ينتج عنها جرائم ً ، وربما تقوم بهذه الاعمال مستقبلا بإرادة منفردة بعيدا عن المالك أو المبرمج، وهو ما يستدعي بحث المسؤولية الجنائية المترتبة عن هذه الجرائم لتحديد المسؤول الحقيقي عنها وتوقيع الجزاء القانوني عليه.

وتعتبر الدراسة من الدراسات الاستشرافية، وتتبع المنهج الوصفي التحليلي من خلال وصف الافكار والمعطيات التي أفرزتها تقنيات الذكاء الاصطناعي، ثم تحليل موقف التشريع سواء على المستوى الدولي أو الاقليمي أو الوطني، للوصول إلى المنطق القانوني الأمثل، والتكييف القانوني الأقرب للتطبيق في ضوء النظريات الفقهية والأحكام القضائية المقارنة، المتصلة بالمسؤولية الجنائية.

الكلمات المفتاحية: الإطار القانوني، المسؤولية الجنائية، الذكاء الاصطناعي.

المقدمة

تعتبر المسؤولية الجنائية هي الإطار القانوني التي يبنى عليها توجيه أصابع الاتهام بالجريمة إلى شخص معين. لذلك لا بد من ان يكون هناك عناصر معينة تقوم عليها, كوجود نص قانوني يصور الجريمة أو ارتكاب فعل أو عدة أفعال مادية, وكذلك الحالة العقلية بان تقع من شخص مكلف وقيام الركن المعنوي اللازم لارتكاب جريمة والعقاب عليها في اغلب الأنظمة الاجرامية, كذلك العنصر الذهني الذي يدفع لارتكاب الجريمة[1].

ومن المعلوم بان المسؤولية الجنائية لا تقوم على فكرة الضرر بخلاف المسؤولية المدنية التي تقوم عليه, كون المسؤولية الجنائية لا تحدد العقوبة على أساس أهمية الضرر وجسامته, وانما على أساس جسامه الفعل المجرم من الناحية الأدبية, ولا تتدخل فكرة الضرر عند وقوعه إلا بصفة تبعية في هذه المؤاخذة, فان المسؤولية الجنائية تبقى مستقلة عن الضرر الذي نشأ نتيجة حدوث الفعل الجرمي, وان المتهم في اغلب الأحيان يحاسب ويحاكم عن خطأه فقط, مجرد عن الضرر, وبالرغم من ذلك هذا لا يعني ان المشرع الجنائي لا يأخذ بنظر الاعتبار الضرر الذي حصل عندما يعاقب على التصرفات والافعال الاجرامية, إلا انه ينظر إلى الضرر نظرة متميزة اطلق عليها فقهاء القانون اسم (الجسامة المادية للخطأ الجنائي)[2].

وعلى كل حال ومن اجل فرض المسؤولية الجنائية على أي شخص ما يجب ان يكون هنالك عنصران رئيسيان, الأول: هو العنصر الخارجي أو العنصر الواقعي أي السلوك او الفعل الاجرامي, والعنصر الثاني: هو العنصر الداخلي أو العنصر العقلي أي هو المعرفة او القصد العام تجاه عنصر السلوك او الفعل الاجرامي, حيث انه اذا كان واحدا مفقودا من تلك العناصر, فلا يمكن فرض أي مسؤولية جنائية ويتم التعبير عن الفعل الحقيقي أو الواقعي بشكل أساسي عن طريق الانفعال أو السهو في بعض الأحيان, وتكون هنالك حاجة لعناصر خارجية أخرى بالإضافة إلى السلوك أو الفعل الاجرامي و يتطلب التقدم السريع لأنظمة الذكاء الاصطناعي, مواكبته بتطور أخلاقي وتشريعي لوضع مبادئ وقوانين تنظم عمل أنظمة الذكاء الاصطناعي, ففي ظل اعتماد العالم على تقنيات الذكاء الاصطناعي في كافة الميادين برزت الحاجة الشديدة والعاجلة إلى وجود تقنين تشريعي لأعمال هذه الأنظمة, وأول من أبدى بهذا الموضوع هو المؤسسات العلمية التي تعمل بمجال أنظمة الذكاء الاصطناعي عبر إصدارها مجموعة من المبادئ الأخلاقية, التي كان لها دور في مساعدة المشرعين, ودفع التطور التشريعي إلى الامام فيما بعد, بهدف مواجهة خطورة عمل أنظمة الذكاء الاصطناعي على البشرية والحد منها, وسنبحث هاتين النقطتين من خلال مطلبين, نوضح من خلالهما ابرز المبادئ الأخلاقية الناظمة لأعمال الذكاء الاصطناعي, الدولية والعربية, والتطور التشريعي لتنظيم أعمال الذكاء الاصطناعي في التشريعات العالمية والعربية.

المبحث الأول: المبادئ الأخلاقية المنظمة لأعمال الذكاء الاصطناعي الدولية والعربية:

يمر الذكاء الاصطناعي بتطور كبير, وتتوغل تطبيقاته بشكل متزايد في مختلف القطاعات والمجالات, بما في ذلك الصحة, والتعليم, والبيئة, والثقافة, والامن والبحث والتجارة, بالإضافة إلى الاستخدام الكبير للبيانات الضخمة, وبذلك سيساهم الذكاء الاصطناعي في وضع شكل جديد للحضارة الإنسانية, والمبدأ التوجيهي للذكاء الاصطناعي ليس في ان يحل محل الذكاء البشري أو ان يستقل بذاته, وانما المبدأ تطويره وبقاؤه خاضعا لسيطرة وخدمة الانسان رغم امكانياته وقدراته, وذلك من خلال نهج قائم على قيم وحقوق الانسان[3].

وللتعرف على المبادئ الأخلاقية الناظمة للذكاء الاصطناعي لابد لنا بداية من تعريف علم الاخلاق عموما واخلاقيات الذكاء الاصطناعي والروبوتات بشكل خاص, وابرز المواقف الأخلاقية من الذكاء الاصطناعي.

المطلب الأول: المواقف الرئيسية من اخلاقيات الذكاء الاصطناعي:

يمكننا تعريف علم الاخلاق بانه العلم الذي يتعلق بمعايير السلوك التي يتحدد بموجبها احترام موقف معين او إدانته, او الاعجاب به, او رفضه, وهذه المعايير تسري على المجتمع كله لتكون ميثاقا شرفيا, أو قد تسري على بعض الممارسات لمجموعة معينة من هذا المجتمع[4].

أما اخلاقيات الذكاء الاصطناعي والروبوت فتعرف بانها اخلاقيات تهتم بتزويد الآلات بالمبادئ الأخلاقية والإجراءات اللازمة لحل المشاكل الأخلاقية التي قد تواجهها وتمكينها من العمل بأسلوب مسؤول أخلاقيا من خلال صنع قراراتها الأخلاقية بنفسها, كما يمكن تعريفها بانها القيم والمبادئ التي تكون سلوك الذكاء الاصطناعي او الروبوت وتسيطر على عمل النظام الذكي بما يمكنها من تمييز الصواب والخطأ.

أما عن ميلاد الروبوتات الأخلاقية فيعود إلى العام 2002[5], وتمت دعوة رجال القانون وعلماء الاجتماع والفلسفة وعلماء الروبوتات, للمساهمة في توظيف أسس الاخلاقيات في تصميم وتطوير الذكاء الاصطناعي والروبوتات[6].

وظهرت ثلاثة مواقف أخلاقية رئيسية من مجتمع الروبوتات وهي:

أولا: موقف غير المهتمين بالأخلاقيات, ويرون هؤلاء ان أفعال الذكاء الاصطناعي لا تخرج عن كونها أفعال تقنية ولا يترتب عليها أي مسؤولية اجتماعية كانت ام أخلاقية.

ثانيا: موقف المهتمين بالمسائل الأخلاقية قصيرة الاجل, وهؤلاء يعبرون عن قلقهم الأخلاقي من حيث كون الذكاء الاصطناعي جيد أو سيء بالنسبة لفئة من المجتمع, كالمسنين والعجزة.

ثالثا: موقف المهتمين بالمخاوف الأخلاقية على المدى الطويل, والمتعلقة بالهوة الرقمية بين فئة الشباب وكبار السن, وبين البلدان المتقدمة والبلدان الفقيرة[7].

وقد اتجهت الأبحاث في مجال الذكاء الاصطناعي والروبوتات باهتمامها من تطويره واكتشاف امكانياته الذكية إلى البحث في أخلاقياته وتصميم آلات ذكية تمتلك قيما أخلاقية ومبادئ تساعدها على التصرف بشكل أخلاقي, والسبب الذي دفع الباحثين لهذا التوجه هو الأفعال اللاأخلاقية التي نتجت عن اعمال بعض الروبوتات, وابرزت الحاجة إلى وضع مبادئ أخلاقية ناظمة لأعمال كيانات الذكاء الاصطناعي[8].

المطلب الثاني: مبادرات وضع مبادئ توجيهية لأنظمة عمل الذكاء الاصطناعي

تشكل خطورة أنظمة الذكاء الاصطناعي قلقا جديا استدعى الكثير من النقاش حول ضرورة وضع ضوابط للحد منها, فالخوارزميات الآلية يمكن ان تهدد حماية الانسان وخاصة المستهلك, فيما يتعلق بالخصوصية والامن[9], لذى فقد أدى الإدراك المتنامي للمسائل الأخلاقية الرئيسية لأنظمة الذكاء الاصطناعي إلى ظهور العديد من المبادرات الطوعية لوضع مبادئ توجيهية لأنظمة عمل الذكاء الاصطناعي تتسم بالإنصاف والشفافية والشمول والمساءلة, واستنادا لذلك فقد تم وضع أكثر من 30 مبدأ من قبل أكاديميين وحكومات ومنظمات غير حكومية وهيئات دولية وطنية, أبرزها على سبيل المثال:

  • المبادئ التوجيهية الأخلاقية للجمعية اليابانية للذكاء الاصطناعي[10].
  • إعلان مونتريال للتطوير المسؤول للذكاء الاصطناعي[11].
  • أهم عشرة مبادئ للذكاء الاصطناعي الأخلاقي من اعداد الاتحاد الفيدرالي العالمي لنقابات العمال في عام 2017[12].
  • مشروع مبادئ استخدام الذكاء الاصطناعي في المملكة المتحدة البريطانية وايرلندا الشمالية[13].
  • مشروع المبادئ التوجيهية للأخلاقيات في مجال الذكاء الاصطناعي في الأنظمة القضائية للاتحاد الاوربي[14].
  • إطار الحوكمة النموذجي للذكاء الاصطناعي في سنغافورة[15].
  • مشروع ميثاق أخلاقيات الروبوت الكوري[16].

ونستعرض فيما يلي ابرز الجهود العالمية على صعيد وضع مبادئ توجيهية أخلاقية لأعمال الذكاء الاصطناعي, وهي:

أولا: قوانين أسيموف: أول ما ظهر من أخلاقيات الذكاء الاصطناعي على هذا الصعيد هو (قوانين اسيموف)[17], او قوانين الروبوتات الثلاثة[18], وهي بمثابة ضوابط من الواجب اتباعها اثناء برمجة وصنع وتحديث أنظمة الذكاء الاصطناعي, وهذه الضوابط هي كالتالي:

1-مبدأ التزام أنظمة الذكاء الاصطناعي بعدم إيذاء البشر, أي ان أنظمة الذكاء الاصطناعي والروبوتات لابد ان تحكمها قاعدة أساسية وهي التزامها بعدم القيام بأي سلوك من شأنه تهديد البشر او تعريضهم للخطر.

2-مبدأ سيطرة الانسان على أنظمة الذكاء الاصطناعي, على الا يتعارض مع المبدأ الأول, أي تظل أنظمة الذكاء الاصطناعي والروبوتات في جميع الأحوال تعمل تحت سيطرة الأنسان ورقابته واشرافه, وذلك من اجل تفادي وقوع أي سلوك أو تصرف يشكل جريمة أو خطرا على الانسان.

3-مبدأ التزام أنظمة الذكاء الاصطناعي بالحفاظ على بقائها بما لا يخالف المبدأين الأول والثاني, أي ان تحافظ أنظمة الذكاء الاصطناعي والروبوتات على نفسها وأن تعمل على تحديثها وتطويرها بشرط عدم تعرض الانسان للمخاطر, وبقاء هذه الأنظمة تحت سيطرته.

4-مبدأ الصفر, واضيف هذا المبدأ إلى المبادئ السابقة, ويتمثل بالتزام أنظمة الذكاء الاصطناعي بالا تؤذي الانسان او ان تسمح للإنسان بأن يؤذي نفسه, أي ان مبدأ ضمان السلامة اثناء مراحل التصنيع والتشغيل والانهاء لهذه الانظمة[19].

ثانيا: مبادرات الاتحاد الأوربي: نتيجة التطور السريع والمتلاحق في أنظمة الذكاء الاصطناعي والروبوتات, سعى العالم إلى وضع مبادئ جديدة تتناسب مع التطورات, فأصدرت مفوضية الاتحاد الأوربي مبادرة في كانون تشرين الثاني/نوفمبر 2018 لوضع المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي[20], وهي كما يلي[21]:

1-مبدأ الصدق:

أي توفير المعلومات الصحيحة للمستخدم, لاتخاذ القرارات الصائبة بطريقة واضحة لا لبس فيها.

2-مبدأ العدل:

بحيث يتم تطوير أنظمة الذكاء الاصطناعي وفق ما هو مذكور في الإعلان العالمي لحقوق الانسان الصادر عن الأمم المتحدة في عام 1948.

3-مبدأ عدم التحيز:

اي ان يتم تصميم أنظمة الذكاء الاصطناعي بشكل يجعلها تعمل من دون تحيز او تمييز او عنصرية ضد فئة معينة من الناس.

4-مبدأ المساءلة والمسؤولية:

أي مساءلة الذكاء الاصطناعي عن الاضرار الناجمة عن اعماله, والعمل على تخفيض المخاطر المتوقعة.

5-مبدأ ان تكون أنظمة الذكاء الاصطناعي جديرة بالثقة:

أي حماية البيانات المستمدة من الذكاء الاصطناعي والالتزام باستخدامها وفقا للمبادئ التوجيهية الأخلاقية.

وفي شباط/فبراير 2017 وضع البرلمان الأوربي قرارا يتضمن توصيات تتعلق بقواعد القانون المدني المطبقة على أنظمة الذكاء الاصطناعي والروبوتات, بناء على عمل لجنة الشؤون القانونية المختصة بدراسة الجوانب الأخلاقية والقانونية المتعلقة بعمل الذكاء الاصطناعي والروبوتات, حيث انتهت اللجنة إلى وضع القواعد التالية[22]:

أ-المبادئ العامة للذكاء الاصطناعي والروبوتات: نادت اللجنة بضرورة وضع تعريفات وتصنيفات محددة لأنظمة الذكاء الاصطناعي وأنواع الروبوتات, ووضع سجل الزامي تقوم بإدارته لجنة مختصة على صعيد الاتحاد الأوربي, كما نادت بوجوب احترام اللائحة الاوربية المتعلقة بحماية خصوصية البيانات الصادرة في العام 2016 والتي دخلت حيز التنفيذ في مايو 2018[23].

ب-المبادئ الأخلاقية للذكاء الاصطناعي والروبوتات: نادت اللجنة بضرورة وضع ميثاق مبادئ اخلاقيات العمل والبحث في مجال الذكاء الاصطناعي والروبوتات, واقترحت وضع صندوق اسود خاص بكل روبوت, يتضمن بيانات كل عملية يقوم بتنفيذها, بما في ذلك المنطق الخاص بعملية صنع القرار الخاص به.

ت-وضع قواعد محددة تتناسب مع أنظمة الذكاء الاصطناعي والروبوتات حيث يتم تقسيمها الى الأنواع التالية:

  • السيارات ذاتية القيادة.
  • الطائرات بدون طيار.
  • روبوتات العناية الشخصية بالإنسان مثل الروبوتات المساعدة على الحركة والروبوتات الطبية.
  • والروبوتات والأنظمة الذكية المستخدمة بالمجال الصناعي وغيرها من المجالات المختلفة الأخرى.

بالإضافة إلى ذلك فقد اصدر الاتحاد الأوربي في نيسان/ابريل 2019 إرشادات إضافية للشركات والحكومات عن الكيفية المتوجب اتباعها عند تطويرها تطبيقات الذكاء الاصطناعي, وهي على النحو التالي[24]:

1-المحافظة على التحكم والرقابة لأنظمة الذكاء الاصطناعي بيد البشر, بحيث يبقى للبشر القدرة على الاشراف والتدخل في كل قرار يتخذه الذكاء الاصطناعي, كما لا ينبغي للذكاء الاصطناعي ان يتخطى التحكم البشري أو يتلاعب بالأشخاص أو يكرههم بواسطة أنظمته.

2-توخي السلامة والدقة والامن لأنظمة الذكاء الاصطناعي, فيجب ان تتصف أنظمته بالدقة والموثوقية, وتبقى آمنة ضد الهجمات الخارجية.

3-الالتزام بتأمين الحماية للبيانات الشخصية, بحيث تكون البيانات الشخصية التي تجمعها أنظمة الذكاء الاصطناعي آمنة والوصول اليها غير متاح لأي شخص.

4-الالتزام بالشفافية, فينبغي أن يكون الوصول إلى البيانات والخوارزميات المستخدمة في عمل أنظمة الذكاء الاصطناعي متاحا وسهلا للجميع, وأن تكون القرارات التي يتخذها البرنامج مفهومة من قبل المستخدمين.

5-الالتزام بالإنصاف وعدم التمييز, فيجب ان تكون الخدمات التي تقدمها أنظمة الذكاء الاصطناعي متاحة بدون عنصرية, أو تمييز بسبب العرق, او الجنس, او العمر, او الدين, او لأي سبب آخر.

6-المسؤولية المجتمعية والبيئية لأنظمة الذكاء الاصطناعي, فيجب ان تكون أنظمة الذكاء الاصطناعي مستدامة وذلك من أجل تعزيز التطور الاجتماعي الإيجابي.

7-المساءلة والمسؤولية عن الاعمال الناجمة عن أنظمة الذكاء الاصطناعي, وينبغي الاعتراف بالآثار السلبية المترتبة على أعمالها والإبلاغ عنها مسبقا[25].

ثالثا: توصيات الأمم المتحدة:

تقدمت منظمة الأمم المتحدة للتربية والتعليم والثقافة (اليونسكو) بدراسة أولية لإمكانية وضع وثيقة تقنينية لأخلاقيات الذكاء الاصطناعي, وانتهت من خلالها إلى توصية ذات بعدين, الأول, التأكيد على عدد من المبادئ الأساسية لأخلاقيات الذكاء الاصطناعي, والثاني وضع مقترحات محددة لمساعدة الدول على رصد وتنظيم أوجه استخدام الذكاء الاصطناعي في المجالات المشمولة بولاية اليونسكو, بالإضافة إلى تحديد أدوات التقييم الأخلاقي وفق سياستها التوجيهية بهدف تطوير الذكاء الاصطناعي, إضافة إلى كونها محفلا عالميا لوضع توصية بشأن أخلاقيات الذكاء الاصطناعية, خصوصا من ناحية الجمع بين البلدان المتقدمة والبلدان النامية على السواء في إطار عملية دولية حقيقية لوضع مجموعة شاملة من المبادئ والمقترحات لأخلاقيات الذكاء الاصطناعي بهدف تطويره وتنفيذه واستخدامه[26],

وأهم هذه المقترحات والمبادئ:

1-حقوق الانسان: يجب تطوير الذكاء الاصطناعي وتنفيذه وفقا للمعايير الدولية لحقوق الانسان.

2-الشمول: ينبغي أن يكون الذكاء الاصطناعي شاملا للجميع, وان يتوخى تجنب التحيز ويسمح بالتنوع ويتفادى إحداث فجوة رقمية جديدة.

3-الازدهار: يجب تطوير الذكاء الاصطناعي لتحسين نوعية الحياة.

4-الاستقلالية: يجب أن يحترم الذكاء الاصطناعي استقلالية الانسان باشتراط السيطرة البشرية في جميع الأوقات.

5-القابلية للتوضيح والشفافية: يجب أن يكون الذكاء الاصطناعي قابلا للتوضيح وأن تكون البيانات المستخدمة لتدريب نظم الذكاء شفافة.

6-التوعية ومحو الامية: بتوفير فهم أساسي لعمل الذكاء الاصطناعي لتمكين المواطنين.

7-المسؤولية: يجب على مطوري البرامج الحاسوبية والشركات مراعاة الاخلاقيات عند تطوير نظام ذكي ذاتي التشغيل.

8-المساءلة: يجب وضع ترتيبات من شأنها أن تتيح المساءلة عن القرارات القائمة على الذكاء الاصطناعي وعن سلوك نظم الذكاء الاصطناعي.

9-الديمقراطية: يجب تطوير الذكاء الاصطناعي وتنفيذه واستخدامه بما يتماشى مع المبادئ الديمقراطية.

10-الحوكمة الرشيدة: ينبغي أن تقدم الحكومات تقارير منتظمة عن استخدامها للذكاء الاصطناعي في أعمال الشرطة والمخابرات والأمن.

11- الاستدامة: بالنسبة لجميع التطبيقات يجب الموازنة بين الفوائد المحتملة والاثر البيئي لدورة انتاج الذكاء الاصطناعي وتكنولوجيا المعلومات بأكملها[27].

رابعا: جهود الدول العربية:

سعت قلة من الدول إلى وضع مبادئ توجيهية تنظم عمل أنظمة الذكاء الاصطناعي, ابرزها دولة الامارات العربية المتحدة[28], حيث وضعت امارة دبي في عام2019 إرشادات ومبادئ للذكاء الاصطناعي, تعتبر تكريسا للمبادئ التوجيهية السابقة[29], وهي كالتالي:

1-يجب ان تتصف أنظمة الذكاء الاصطناعي بالعدالة والشفافية, ويتحقق ذلك من خلال أن تمثل البيانات التي يتلقاها النظام الفئة المستهدفة كلما أمكن ذلك, وضمان عدم تحيز خوارزميات الذكاء الاصطناعي واتخاذ الإجراءات التي تحد من ذلك, مع اثبات عدالة القرارات المتخذة من قبل أنظمته.

2-يجب ان تكون أنظمة الذكاء الاصطناعي خاضعه للمساءلة وقابلة للفهم , وذلك من خلال مجموعة ضوابط أهمها عدم مساءلة نظام الذكاء الاصطناعي وحده وتقسيم المساءلة بين المستخدم والمطور والمصمم أيضا, بالإضافة إلى بذل المزيد من الجهود من قبل المطورين للحد من المخاطر المتأصلة في أنظمة الذكاء الاصطناعي, مع تزويدها ببرمجيات تمكن المستخدمين من الاعتراض على القرارات المهمة المتخذة[30].

3-يجب ان تكون أنظمة الذكاء الاصطناعي آمنة ومسخرة في خدمة البشرية, وعدم تمكينها من الحاق أذى أو تخريب أو تضليل للإنسانية, وذلك على النحو التالي:

أ-الالتزام بالموضوعية في بناء أنظمة الذكاء الاصطناعي بهدف تقديم الخدمات والمعلومات للقرارات المهمة لأنظمة الذكاء الاصطناعي وليس التلاعب والخداع.

ب-التزام الدول بتجنب سباقات التسلح بالأسلحة الذاتية التحكم والتي تكون مميته.

ت-الالتزام ببذل التعاون بين الدول في تطبيق معايير السلامة المفروضة على أنظمة الذكاء الاصطناعي.

4-يجب ان تكون أنظمة الذكاء الاصطناعي نافعة للبشرية وان تنسجم مع القيم الإنسانية, على الامدين القصير والبعيد وعلى الصعيد العالمي, وذلك من خلال مجموعة من الضوابط وهي على النحو التالي:

أ-ضمان الامن والأمان للإنسان, مشغلا كان أم مستخدما, ووضعه على قمة الأولويات في تصميم أي نظام من أنظمة الذكاء الاصطناعي, مع الالتزام بتتبع حالات الإخفاق.

ب-الالتزام بإتاحة المجال للتحقق من أمن أنظمة الذكاء الاصطناعي وإمكانية التحكم بها طوال مدة الاستغلال لها حتى انتهائها من العمل.

ت-الالتزام بمراعاة أمان وخصوصية المستخدمين عند أيقاف تشغيل أنظمة الذكاء الاصطناعي, فيجب أبداء العناية الواجبة بأنظمة الذكاء الاصطناعي التي تؤثر مباشرة على حياة الناس, أثناء مراحل تصنيعها.

ث-الالتزام بمراعاة إمكانية إبطال مثل هذه الأنظمة أو الغاء قراراتها بواسطة الأشخاص المعنيين المخولين.

خامسا: الاستراتيجية القطرية في مجال الذكاء الاصطناعي:

أكدت استراتيجية قطر الوطنية في مجال الذكاء الاصطناعي[31], الحاجة لإيجاد آليات تضمن مخرجات لأنظمة الذكاء الاصطناعي تتفق مع المعايير الاجتماعية, كما أكدت على ضرورة توفر الشفافية وأن تكون نماذج الذكاء الاصطناعي قابلة للتفسير, أي أن يكون بالإمكان وصف خوارزمية الذكاء الاصطناعي باستخدام لغة طبيعية واضحة.

ووجهت الاستراتيجية إلى ضرورة قطر لائحة حماية البيانات التي أصدرها الاتحاد الأوربي باعتبارها نموذجا لوضع مبادئ توجيهية تحمي مواطنيها من الاستغلال على شبكة الانترنيت, وقد أصدرت وزارة المواصلات والاتصالات في قطر والمجلس الأعلى للاتصالات وتكنولوجيا المعلومات سابقا (الذي اصبح اليوم جزءا من وزارة المواصلات والاتصالات) ضمن استراتيجية قطر-مبادئ توجيهية بشأن الخصوصية ومشاركة البيانات التي تتوافق مع تقاليد دولة قطر وطموحاتها, وستشكل هذه المبادئ التوجيهية منطلقا ممتازا لوضع مجموعة مبادئ توجيهية أكبر واشمل للبلاد, وانتهت استراتيجية قطر إلى مجموعة من التوصيات هي:

1-ينبغي ان تصدر الحكومة القطرية مبادئ توجيهية حول مستوى التفسير المطلوب لأنواع مختلفة من القرارات التي تتخذ بخوارزميات الذكاء الاصطناعي.

2-الاستفادة من المبادئ التوجيهية الحالية المتعلقة بالخصوصية ومشاركة البيانات, وغير ذلك من المبادئ التوجيهية التي أصدرتها وزارة المواصلات والاتصالات والمجلس الأعلى للاتصالات وتكنولوجيا المعلومات سابقا في قطر.

3-ينبغي ان تعد دولة قطر إطار (اخلاقيات الذكاء الاصطناعي والحوكمة) للتصدي لمسائل الاخلاق والسياسات العامة, التي ستزداد أهمية مع توسع استخدام الذكاء الاصطناعي في مجالات حساسة من المجتمع, مثل بسط الامن, والمحاكم والصحة والحرب.

4-ينبغي ان يكون الإطار الذي سيتم وضعه متسقا مع كل من المعايير الاجتماعية والثقافية والدينية القطرية والمبادئ التوجيهية الدولية[32].

وقامت دولة قطر ضمن استراتيجيتها في مجال الذكاء الاصطناعي ومن خلال معهد قطر لبحوث الحوسبة[33], بتطوير مجموعة أدوات Neurox, التي تهدف إلى تحقيق الشفافية في الذكاء الاصطناعي, وهو عنصر أساسي لتأمين الثقة والعدالة واتخاذ القرارات الأخلاقية مع تدعيم أنظمة الذكاء الاصطناعي بطرق توفر شرحا لقرار النموذج وتبرز التحيزات إذا تعرف عليها النموذج واستخدمها, كما توضح مجموعة Neurox عناصر نموذج الذكاء الاصطناعي المسؤولة عن قضايا أخلاقية معينة, وتمكن المستخدمين من القضاء عليها, وعلى صعيد المحاكم فإن الاستخدام الجامح لهذا النوع من التكنولوجيا له آثار أخلاقية كبيرة لأنه قد يقوض العدالة وسيادة القانون, ويجب محاكمة الفرد الذي يواجه عقوبة جنائية بناءً على سلوكه وصفاته المتفردة, وتستبعد خوارزميات تقييم مخاطر الاعتبار الفردي في الحكم, الذي يدخل في صميم كرامة الانسان, إذا استخدمت بدون العنصر البشري, ولمنع حدوث ذلك يجب ان يدير العنصر البشري دائما استخدام الخوارزميات, بحيث يجب أن توجه التكنولوجيا القضاة, ولكن لا تلزمهم, كما يؤكد القائمون على المعهد على ضرورة الشفافية الكاملة فيما يتعلق بخوارزميات تقييم المخاطر, كما تم التأكيد على ضرورة أن تكون هناك موافقة مستنيرة من قبل جميع الأطراف ذات الصلة, والكشف عن تفاصيل الخوارزميات للمستخدمين[34].

المبحث الثاني: التطور التشريعي لتنظيم اعمال الذكاء الاصطناعي في التشريعات العالمية والعربية:

أظهر الاستخدام المتزايد لأنظمة الذكاء الاصطناعي في كافة المجالات, الحاجة إلى وضع نظم قانونية تحكم أعمال أنظمة الذكاء الاصطناعي والروبوتات, وذلك تفاديا للآثار السلبية والمخاطر التي قد تنجم عنها, لذلك كان التحذير من قبل العاملين في ميدان الذكاء الاصطناعي من هذه المخاطر التي تمثل تهديدا كبيرا على البشرية ككل.

المطلب الاول: محاولات قوننة أعمال أنظمة الذكاء الاصطناعي عالمي:

ظهرت أبرز المحاولات الدولية لتنظيم الذكاء الاصطناعي على المستوى الدولي في الولايات المتحدة الامريكية[35], فقد دعت العديد من المنظمات المتعلقة بالذكاء الاصطناعي لوضع منظومة قانونية للذكاء الاصطناعي باعتبار ان المسؤولية المترتبة على أفعال الذكاء الاصطناعي تثير مخاوف كل من له علاقة به, لأنه على معرفة بأن فكرة السيطرة على أعمال وقرارات الذكاء الاصطناعي ستصبح أصعب مع التطور الهائل الذي وصلت وقد تصل اليه, وهو ما يشكل خطرا على كل من له علاقة به[36].

وبناء على ذلك, اقر الكونغرس في الولايات المتحدة الامريكية في العام 2020 قانون مستقبل الذكاء الاصطناعي وآفاقه في العالم, وهو اول قانون فيدرالي ينظم أعمال الذكاء الاصطناعي[37], وبناء على هذ القانون نشأت لجنة مختصة لبحث حيثيات الذكاء الاصطناعي وإصدار القرارات اللازمة, ودراسة آثار استخدامه على القوى العاملة في الولايات المتحدة الامريكية, وسبقه في هذا الميدان إقرار المجلس التشريعي لولاية ألينوي الامريكية في أيار/مايو 2019 قانون اجراء مقابلات التوظيف عن طريق الفيديو بالذكاء الاصطناعي, ودخل القانون حيز التنفيذ في الأول من كانون الثاني/يناير 2020[38].

وفي أوربا وبعد الخطوة التي قام بها البرلمان الأوربي في إرساء المبادئ الأخلاقية للذكاء الاصطناعي والروبوتات, اقترح البرلمان على الدول الأعضاء في الاتحاد وضع تشريع بشأن الجوانب القانونية لتطوير استخدام الروبوتات والذكاء الاصطناعي خلال فترة زمنية تستمر ما بين عشر إلى خمس عشر سنة, ومن الخطوات التي قام بها البرلمان الأوربي ما يلي:

-إقرار مسؤولية ما يسمى بالنائب الإنساني المسؤول عن الروبوت والذي قد يكون المصنع , او المشغل, او المالك, او المستعمل, وذلك بحسب درجة الاضرار التي سببها الروبوت من جهة ودرجة السيطرة الفعلية للنائب الإنساني عن الروبوت من جهة اخرى[39].

-في نطاق التأمين عن اخطار الذكاء الاصطناعي فقد استحدث نظام للتأمين الاجباري وذلك بإحداث صندوق يؤمن التعويضات في حالة عدم وجود تأمين عن الحوادث التي يسببها[40].

-أقر المبدأ الأوربي بترتيب المسؤولية المدنية عن اعمال أنظمة الذكاء الاصطناعي والروبوتات مع التطلع إلى انشاء شخصية قانونية مستقلة خاصة بالروبوتات وأنظمة الذكاء الاصطناعي على المدى الطويل.

-اصدر البرلمان الأوربي النصوص التكميلية للائحة الاوربية العامة لحماية البيانات الشخصية[41], والتي تضع إطارا للتدفق الحر للبيانات غير الشخصية في الاتحاد الأوربي رقم 1807 لسنة2018, والتي تنص على حرية حركة البيانات الغير شخصية داخل الاتحاد الأوربي وعدم منعها او تقيدها بحجة حماية الافراد, ما لم يكن هناك مبرر للمنع او التقييد للحماية حفاظا على الأمن العام[42].

وقد تبنت فرنسا استراتيجية تماشت مع استراتيجية الاتحاد الأوربي للبيانات لضمان تطوير الذكاء الاصطناعي[43], حيث أصدرت اللجنة الوطنية الفرنسية وسلطات حماية المعلوماتية والمشرف الأوربي لحماية البيانات رأيا حول قانون الذكاء الاصطناعي[44], كما تم اقتراح مشروع قانون دستوري فرنسي حول ميثاق الذكاء الاصطناعي تم تقديمه في15 يناير 2020 إلى البرلمان الفرنسي متضمنا المبادئ التي يجب ان يحترمها الذكاء الاصطناعي ومتطلبات عمليات تدقيقية وتطويره واستقلاليته في اتخاذ القرار, إلا انه هذا المشروع ما زال قيد النظر.

المطلب الثاني: جهود الدول العربية في مجال تنظيم الذكاء الاصطناعي

لم تتناول أي من التشريعات العربية تنظيم أعمال الذكاء الاصطناعي بصورة مباشرة أو في تشريع مستقل, ولكن ما يوجد على أرض الواقع هو بعض نصوص في قوانين متفرقة لتنظيم بعض الإشكاليات المرتبطة بالذكاء الاصطناعي.

والدولة العربية الوحيدة التي دخلت هذا المجال بقوة وبدأت في خطوات جدية لتنظيمه, هي دولة الإمارات العربية المتحدة, حيث أنشأت وزارة للذكاء الاصطناعي, ومختبرا للتشريعات مسؤولا عن سن تشريعات استباقية لتنظيم العديد من موضوعات المستقبل, منها الذكاء والروبوتات والسيارات ذاتية القيادة وغيرها[45].

أما في مصر فقد أنشأ المشرع المصري المجلس الوطني للذكاء الاصطناعي, ويتبع لمجلس الوزراء[46],

ويختص المجلس بوضع الاستراتيجية الوطنية للذكاء الاصطناعي, ومتابعتها والإشراف على تنفيذها, وتحديثها تبعا للتطورات الدولية, وعلى الأخص القيام بالمهام التالية:

1-وضع السياسات المتعلقة بالأطر القانونية والفنية والاقتصادية المتعلقة بتطبيقات الذكاء الاصطناعي.

2-اعداد المقترحات والتوصيات الخاصة بالتشريعات ذات الصلة بمجالات الذكاء الاصطناعي وبما يحقق دعم آليات التنفيذ وتحقيق الحماية والتأمين اللازم وكذا المشاركة في اللجان الوطنية ذات الصلة.

وفي خضم المبادرات والمناقشات نحو التوجه لتنظيم قانوني للذكاء الاصطناعي, والجدل بين مؤيد ومعارض, قامت المملكة العربية السعودية بخطوة فتحت النقاش حول فرضيات باتت واقعا ملموسا, حيث منحت السعودية جنسيتها للروبوت (صوفي), الامر الذي اكسبها شخصية قانونية خاصة, ومنحها حقوقا وفرض عليها واجبات, وهي خطوة تعتبر دافعا للتفكير حول البعد الفعلي والآثار وضرورات التنظيم القانوني للذكاء الاصطناعي الذي كان أساسه بداية تحمل المسؤولية, ليمتد الامر للبحث في ابعاد قانونية اخرى[47].

أما على الصعيد الوطني فقد اعتمدت دولة قطر في العام 2021 (الاستراتيجية الوطنية للذكاء الاصطناعي) المعدة من قبل وزارة المواصلات والاتصالات, وجامعة حمد بن خليفة, والتي تهدف قطر من خلالها إلى تسخير الذكاء الاصطناعي لتأمين مستقبل البلاد الاستراتيجي والاقتصادي وفق رؤية قطر الوطنية 2030[48], والاس1مرار في تقدم وتطور الاقتصاد المعرفي المستدام وجعله أداة هامة لتنويع مصادر الداخل, والحفاظ على المستوى المعيشي المرتفع للمواطن, وانطلاقا من هذا عملت الدولة على ادخال الذكاء الاصطناعي ضمن مخططاتها الاستراتيجية, واتخذت في سبيل ذلك من الابتكار أسلوب حياة وثقافة وعمل, لبناء المجتمع المعرفي المنشود الذي يقوده المبتكرون ذو الرؤية المستقبلية, آخذه بعين الاعتبار التحديات التي يمكن ان يفرزها الذكاء الاصطناعي, كما افرزت حيزا للأخلاقيات والسياسات العامة المرتبطة باستخدام الذكاء الاصطناعي وأكدت على أهمية اعتماد مبادئ توجيهية وإطار لأخلاقيات الاصطناعي والحوكمة, الذي سيعتمد بدوره على المبادئ التوجيهية بشأن الخصوصية ومشاركة البيانات الصادرة عن وزارة المواصلات والاتصالات, المتوافق مع المعايير الاجتماعية والثقافية والدينية القطرية والمبادئ التوجيهية الدولية ذات الصلة[49].

مع الإشارة إلى ان دولة قطر احتلت المرتبة الأولى عالميا في مؤشر تقييم الحق بالوصول الرقمي 2020 وفق مؤشر DARE 2020 الصادر عن المبادرة العالمية لتكنولوجيا المعلومات والاتصالات الشاملة (G3ict), وفي سبيل حرص الدولة واهتمامها بالثورة التكنولوجية أسست المعاهد والمراكز المتخصصة, واصبح تخصص تكنولوجيا المعلومات والاتصالات والحواسيب من العلوم التي تدرس في الجامعات, كما أنشأت منظمة الذكاء الاصطناعي التابعة لجامعة قطر, والتي تهدف إلى عقد ندوات واستضافة المهتمين والخبراء في هذا المجال وخلق فرص للطلاب للمشاركة في البحث والعمل على مشاريع الذكاء الاصطناعي في جميع المجالات والمشاركة في المؤتمرات والقمم والفعاليات المحلية والدولية[50].

وتتميز قطر بانها سعت للاستفادة من الذكاء الاصطناعي إلى اقصى حد وعمدت إلى تطوير منظومتها التقنية في جميع الوزارات والمؤسسات والخدمات الموجهة للجمهور ومراكز البحوث وهذا يؤكد الاهتمام البالغ به, ويأتي انشاء لجنة للذكاء الاصطناعي في وزارة المواصلات والاتصالات في العام 2021,

تتويجا لجهود الدولة على صعيد تحفيز الاهتمام بهذا العلم, لكونه ركيزة أساسية في جميع التعاملات التكنولوجية, وبهدف العمل على تحديثها وتطويرها بما يواكب المستجدات[51].

ورغم الاهتمام الذي بدأت تبديه دول العالم والمنظمات الدولية, والدول العربية كذلك بتنظيم واقع الذكاء الاصطناعي , إلا اننا نوصي الدول عموما وخاصة العربية بضرورة الاستنارة بالمبادئ الأخلاقية التوجيهية في المضمار الدولي والخطوات الدولية وذلك في سبيل سن تشريعات تنظم تلك المسائل المترتبة على اعمال الذكاء الاصطناعي سواء من الناحية المدنية أو الجزائية, لما لها من أهمية قصوى في المستقبل القريب, ولما لها من ضرورة تفرضها التطورات التكنولوجية والتوغل الحقيقي لأنظمة الذكاء الاصطناعي في كافة ميادين الحياة وفي أدق تفاصيلها.

النتائج

1- اصبح الذكاء الاصطناعي واقعا ملموسا وذلك بعد ان كان مجرد خيال علمي موجود ولكن غير مطبق, وان كثرة الاستخدام له وتطوره أدى إلى استقلاليته, مما يشكل ذلك الاستقلال الخطر على الافراد وكذلك المجتمعات.

2-للذكاء الاصطناعي نماذج, منها النموذج البسيط: وهو لا يعمل باستقلال تام وانما يعمل بتحكم الانسان فيه وذلك بتكليف الآلة للقيام بأوامر معينة ومعطاة لها مثل: آلة الحاسبة والهاتف وغيرها من الآلات. وكذلك النموذج المتقدم والذي يعمل باستقلال إلى حد ما, وتكون له القدرة على اتخاذ القرارات بشكل مستقل, ولكن هذا الاستقلال ليس تاما, وانما قد تكلف الآلة بالقيام بأوامر معينة ومعطاة لها بالضافة إلى تمكينها وكذلك برمجتها على إمكانية قيام الآلة بالتفكير ذاتيا وتطوير ذلك الامر بناء على خوارزميات برمجية وقواعد بيانات ضخمة, مما يمكنها ذلك من تطوير نفسها وكذلك اتخاذ قرارات ذاتية وكذلك تنفيذ هذه القرارات وبالتالي تصبح شبيهة بالبشر. ومن الأمثلة على هذا النوع من الحواسيب والآلات هي, ماكينات الصرف في البنوك, وكذلك الطائرات المسيرة (طائرات بدون طيار), وأيضا السيارات ذاتية القيادة وغيرها من النماذج الخارقة والفائقة مستقبلا.

3- يترتب على انتشار الذكاء الاصطناعي دون وضع قيود أو ضوابط سوف يؤدي إلى حدوث عدة مشاكل, أهمها: حلول الذكاء الاصطناعي محل الايدي العاملة البشرية, مما يترتب على هذا الامر زيادة في نسب البطالة وذلك بسبب تسريح هؤلاء العمال, كذلك يستخدم الذكاء الاصطناعي من قبل بعض المجرمين المتخصصين في هذا النوع من الاجرام للقيام بأعمال غير مشروعة قانونا وتشكل هذه الاعمال جرائم ومن الأمثلة على تلك الجرائم, التجسس على الأشخاص وكذلك اختراق وانتهاك خصوصياتهم.

4-يتميز الذكاء الاصطناعي بطبيعة قانونية خاصة لأنه لا يعد من المال المنقول ولا عقارا, وانما يعد وفقا لرأي الفقه القانوني ذات طبيعة خاصة تشبه الطبيعة القانونية للسفن والطائرات اذا هو يأخذ ميزة المال المنقول والعقار معا على حد سواء.

5-يثير وجود الذكاء الاصطناعي عددا من الإشكاليات القانونية, ومنها: تحديد الطبيعة القانونية وكذلك الشخصية القانونية له, فبالنظر إلى نمط عمل الذكاء الاصطناعي وطبيعته لا يمكن القول بوجود شخصية قانونية مستقلة لكيانات الذكاء الاصطناعي, وذلك لان الشخصية القانونية قوامها واساسها التمييز والادراك وحرية اختيار القرار, وهذا ما لا يتوافر في كيانات الذكاء الاصطناعي والتي تقوم على ضرورة وجود وكلاء عنه أو مستخدمين لديه يتحكمون به ويستخدمونه حسب اهوائهم.

التوصيات

1-الحاجة إلى وضع تصور جديد لشخصية قانونية جديدة على غرار الشخصية المعنوية(الاعتبارية), بحيث يتمتع فيها أنظمة الذكاء الاصطناعي وتطبيقاته وكذلك الروبوتات بالشخصية القانونية الالكترونية التي يتحمل فيها المسؤولية المدنية والجنائية.

2- يجب ان يتم الاعتراف بالشخصية القانونية المحدودة للذكاء الاصطناعي, وتقنياته, وكياناته بالقدر الذي يسمح بأن تكون هناك مسؤولية جنائية مشتركة مع المبرمج وكذلك المستخدم في حال ارتكاب أي جريمة ما.

3-ضرورة تغيير أغراض الجزاء الجنائي ونوعيتها وطبيعتها بحيث تتلاءم مع طبيعة تطبيقات الذكاء الاصطناعي والروبوتات, ونقترح البدء بالعقوبات التي تفرض على الذمة المالية وتدابير اللوم والتأهيل ثم بعد ذلك يكون التوسع في عقوبات تحقق الغرض من العقوبات الجديدة والتي تقوم على التأهيل والإصلاح بالنسبة للجاني أكثر من الإيلام والقسوة التي تفرض عليه.

4-يجب على المشرع ان يبدأ في عمل الدراسات ووضع التشريعات التي تنظم عمل وإنتاج الذكاء الاصطناعي وكذلك تحدد المسؤولية الجنائية للذكاء الاصطناعي لأي جريمة ارتكبها ذاتيا وأيضا لمواجهة كافة المتغيرات والمستجدات والمستحدثات التي قد تحدث نتيجة لتطبيقات هذا الذكاء الاصطناعي.

5-العمل على تعديل التشريعات وخاصة الجنائية وقوانين الملكية الفكرية وذلك لكي تتلاءم مع التطورات الحديثة في تطبيقات أنظمة الذكاء الاصطناعي والروبوتات, بحيث تصل في النهاية إلى وضع الاطر القانونية التي تنظم عمل هذه الأنظمة الذكية بداية من عملية التصنيع والتصميم والبرمجة وانتهاء إلى التشغيل والاستخدام لها, وكل ذلك في ضوء الالتزام بمبدأ أنظمة الذكاء الاصطناعي وروبوتات جديرة بالثقة, وكذلك بالشفافية والحوكمة, وتمكين الانسان من فهم تصرفاتها والقدرة والسيطرة عليها.

6-نهيب بالمشرعين والفقهاء القانونيين إلى ضرورة وضع قواعد قانونية متخصصة يكون من شأنها ان تقوم بتوفير الحماية للمتضررين من الاضرار أو الأفعال الغير مشروعة والتي يسببها الذكاء الاصطناعي.

7-ضرورة تدخل المشرع في الوقت الراهن والقيام بوضع تصور يسمح بإمكانية تطبيق قواعد المسؤولية الجنائية الناتجة عن اضرار وجرائم الذكاء الاصطناعي على كل الأطراف سواء كانت تلك الأطراف متمثلة بالمصنع أو المبرمج أو المالك أو المستخدم وكذلك طرف خارجي أو الذكاء الاصطناعي نفسه, وكذلك القيام بوضع عقوبات تناسب افعالهم.

8-ضرورة نشر ثقافة الذكاء الاصطناعي وجرائمه وكيفية العقاب وفرض المسؤولية القانونية, وذلك من خلال التدريس ضمن المناهج العلمية في الجامعات والمعاهد بجعلها مادة دراسية أساسية كما حصل بالنسبة لمادة الامن السيبراني, وبالتحديد في السنوات الدراسية المبكرة وذلك من اجل فتح آفاق في مجال العلوم والحاسوب وتكنولوجيا المعلومات الحديثة.

9-ضرورة اعتراف الدول في تشريعاتها الوطنية الداخلية والخارجية بالطبيعة القانونية الخاصة للذكاء الاصطناعي وتقنياته وخاصة الروبوتات المقاتلة والتي تكون ذاتية التشغيل بدون تحكم البشر, حتى يتم بذلك تحديد الجهة المسؤولة عن الاضرار التي تحدثها, وكذلك الاعتراف بمبدأ مسؤولية البشر عن القرارات التي تتخذها كيانات الذكاء الاصطناعي كالروبوتات المستقلة.

10-يجب ابرام وتوقيع الاتفاقيات والمعاهدات الدولية والتي تنظم مسؤولية الدول عن الاضرار التي تحدثها كيانات الذكاء الاصطناعي وتقنياته, خاصة الاضرار التي تحدثها وتتسبب بها الأسلحة ذاتية التشغيل, بحيث يتم اتخاذ كافة إجراءات التأمين اللازمة لها, مع اتخاذ كافة إجراءات الامن السيبراني وذلك لكي يتم حماية كافة برامج الذكاء الاصطناعي المستخدمة.

المراجع

صاغ فيروجيو مصطلح(الروبوتات الأخلاقية) واقترحه في الندوة الدولية الأولى للروبيثيكس عام 2004.

درار, خديجة محمد, اخلاقيات الذكاء الاصطناعي والروبوت, دراسة تحليلية, كلية الآداب والعلوم الإنسانية, جامعة الملك عبد العزيز, المجلة الدولية لعلوم المكتبات والمعلومات, المجلد السادس, العدد الثالث, مارس 2019,

الأمم المتحدة, المجلس الاقتصادي والاجتماعي, اللجنة المعنية بتسخير العلم والتكنولوجيا لأغراض التنمية, الدورة الثانية والعشرون, البند 3(أ) من جدول الاعمال المؤقت, تقرير الأمين العام, جنيف,13-17 أيار/مايو2019,

الاتحاد الأوربي, قواعد اخلاقيات الذكاء الاصطناعي, مجموعة القواعد والارشادات حول الكيفية التي يجب اتباعها من قبل الشركات والحكومات عند تطوير تطبيقات الذكاء الاصطناعي, الصادرة في ابريل 2019.

مبادرة IEEE العالمية حول أخلاق أنظمة الحكم الذاتي والذكاء, اخلاقيات التصميم: رؤية لأولويات رفاهية الانسان مع أنظمة التحكم الذكية والذاتية, الإصدار 2017,2.

بن عثمان, فريدة, الذكاء الاصطناعي مقارنة قانونية, جامعة البليدة2, لوينسي علي, الجزائر, دفاتر السياسة والقانون المجلد 12 العدد2/2020.

القوصي, همام, إشكالية الشخص المسؤول عن تشغيل الروبوت, مقال منشور في مجلة جبل, لبنان , العدد 25,2018,

قرار رئيس مجلس الوزراء المصري رقم 2889 في سنة 2019 بشأن انشاء المجلس الوطني للذكاء الاصطناعي, الجريدة الرسمية-عدد47 مكرر, الصادر بتاريخ24 تشرين الثاني/نوفمبر2019,

المراجع الأجنبية:

Towards an Ethics of Artificial Intelligence ,Audrey Azoulay is Director-General of the United Nations Educational, Scientific and Cultural Organization(UhgNESCO).

EU guidelines on ethics in artificial intelligence :Context and implementation

The ethics of artificial intelligence been drafted by Eleanor Bird, and other, the.1 Directorate General for parliamentary Rese Services(EPRS)

Artificial intelligence for good,

https://www.itu.int/web/pp-18/ar/backgrounder/artificial -intelligence -for-good

Preliminary study of the possibility of developing a normative document for the ethics of artificial intelligence,United Nation Educational,Scientific and Cultural Organizations,. General Conference Fortieth session, paris2016 c/67 67/2407/30/2019Item 5-24 of the provisional agenda Source: Resolutions 206 EX/42.P38.

trategie nationale pour l,intelligence Artificial,https://www.intelligence -artificiele .gouv.fr/fr .

Sample Club /Organization Constitution and By-Laws

مواقع الإنترنت:

ثلاث قواعد للروبوتات من إسحاق أسيموف. المشاكل الأخلاقية للروبوتات: كيفية كسر قوانين الروبوتات, مقال منشور على الموقع الالكتروني:Read more at: https//minikar.ru/ar/health-and-beauty/tri-pravila-robototehniki-ot-aizeka-azimova-eticheskie-problemy-robotov

ظهرت المواقف الرئيسية من الروبوتات robotics بالفعل خلال الندوة الدولية الأولى حول علم الروبوتات (سان ريمو, إيطاليا,2004) فيما يتعلق بمسؤولياتهم تجاه نشاطهم العلمي التقني, انظر, اخلاقيات الانسان الآلي, منشور على الموقع الالكتروني: https://www.hisour.com/ar/?nonamphead=1 تاريخ الزيارة 2023/11/15.

Ethics Guidelines for Trustworthy AI, https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html, تاريخ الزيارة 2024/4/17.

طه, عمرو, محمد, بدوي, النظام القانوني للروبوتات الذكية المزود بتقنية الذكاء الاصطناعي- الامارات العربية المتحدة كنموذج, دراسة تحليلية مقارنة لقواعد القانون المدني للروبوتات الصادر عن الاتحاد الأوربي سنة 2017 ومشروع ميثاق اخلاقيات الروبوت الكوري, مجلة الدراسات القانونية والاقتصادية, مج 7, ملحق(230-1) 2021. https://search.mandumah.com/Record

إسحاق عظيموف أو إسحاق أسيموف أو إسحاق أزيموف (2 يناير 1920-6 ابريل 1992) مؤلف امريكي روسي المولد وكيميائي حيوي في تخصصه الأصلي, انظر: https://ar.m.Wikipedia.or

ظهرت هذه القوانين للمرة الأولى في احدى روايات الخيال العلمي وهي رواية التملص, وضعها كاتب روايات الخيال العلمي الأمريكي (الروسي المولد) إسحاق اسيموف في عام 1942, للمزيد انظر: https://ar.m.Wikipedia.org

للمزيد انظر: (دبي الذكية) تطبق (مبادئ وارشادات أخلاقيات الذكاء الاصطناعي) في 18 حالة استخدام, فبراير2020,

https://wam.ae/ar/detalils/1395302820503 تاريخ الزيارة 2024/3/13.

استراتيجية قطر الوطنية في مجال الذكاء الاصطناعي https://hukoomi.gov.qa/ar/article /qatars-national-artificial intelligence-strategy

يمكن الاطلاع على ملخص للاستراتيجيات الوطنية لبعض من الدول في مجال الذكاء الاصطناعي من خلال الرابط: https://medium.com/politics-ai/an-overview -of-national -ai-strategies-2a70ec6edfd

معهد قطر لبحوث الحوسبة, هو معهد للبحوث تأسس المعهد عام 2010 ويعتبر مؤسسة مستقلة غير ربحية تدعم تحول قطر من اقتصاد الكربون إلى الاقتصاد المعرفي, ويعمل معهد قطر لبحوث الحوسبة تحت مظلة جامعة حمد بن خليفة وضمن استراتيجية قطر 2030 https://www.hbku.edu.qa/ar/about-qcri

سلسلة حوارات جامعة حمد بن خليفة: الذكاء الاصطناعي والاخلاقيات مع تزايد تأثير الذكاء الاصطناعي في كل ما يحيط بنا, هل للأخلاقيات دور في كيفية تصميم الذكاء الاصطناعي واعتماده وتطبيقه أيضا؟ يشارك الدكتور حسن سجاد, عالم أول بمعهد قطر لبحوث الحوسبة, وسوزان كارامينان, عميد كلية القانون, وجهات نظرهم حول هذ القضية, منشور على الموقع الالكتروني https://www.hbku.edu.qa/ar/AIETHICS

S.3771-FUTURE of Artificial Intelligence Act of 2020, 116th Congress (2019-2020) https://www.congress.gov/bill/116th-congress/senate-bill/3771/text. تاريخ الزيارة 2024/8/9 35. REPORT with recommendations to the Commission on Civil Law Rules on Robotics( 2015

https://www.europart.europa.eu/doceo/document /a-8-2017-0005_EN.html تاريخ الزيارة 2024/4/29.

هيكل, فتوح, الاستراتيجية الاتحادية ومستقبل الامارات العربية المتحدة, مركز الامارات للدراسات والبحوث الاستراتيجيىة, منشور على الموقع الالكتروني: https://www.ecssr.ae/repots

بموجب القرار الاميري رقم 44 لسنة 2008, اقرت (رؤية قطر الوطنية2030) بهدف تحويل قطر إلى دولة متقدمة قادرة على تحقيق التنمية المستدامة وعلى تأمين استمرار العيش الكريم لشعبها, انظر موقع الديوان الاميري:

https://www.diwan.gov.qa/about -qatar/ تاريخ الزيارة 2023/10/23.

استراتيجية قطر الوطنية في الذكاء الاصطناعي, انظر الرابط: https://qcai-blog.qcri.org/wp-content /uploads/2020/04/QCRI-Artificial -intelligence -Strategy-2019-AR .

منشور على رابط جامعة قطر https://qa.linkedin.com/company/aiqu-qa

  1. قرار مجلس الوزراء القطري رقم (10) لسنة 2021 بإنشاء لجنة الذكاء الاصطناعي, موقع الميزان https://www.almeezan.qa/LawView.aspx?opt&LawID=8719&language تاريخ الزيارة .2024/5/8

Regulation(EU) 2018/1807 of the European Parliament and of the Council of 14 November 2018 on framework for the free flow of non-personal date in the European Union (Text with EEA relevance, https://date.europe.eu/eli/reg/2018/1807/oj, تاريخ الزيارة 2024/5/31.

EDPS-EDPS Joint Opinion on the proposal for a Regulation of the European Parliament and of the Council laying down harmonized rules on artificial intelligence (Artificial Intelligence Act) https://edps.europa.eu/node/7140_en تاريخ الزيارة 2024/5/30.

الهوامش:

  1. . محمد علي أبو علي, المسؤولية الجنائية عن اضرار الذكاء الاصطناعي, دار النهضة العربية للنشر والتوزيع, الطبعة الأولى, 2024, مرجع سابق,ص47.
  2. . الفلاسي, مرجع سابق, ص2891.
  3. Towards an Ethics of Artificial Intelligence ,Audrey Azoulay is Director-General of the United Nations Educational, Scientific and Cultural Organization(UhgNESCO).
  4. . صاغ فيروجيو مصطلح(الروبوتات الأخلاقية) واقترحه في الندوة الدولية الأولى للروبيثيكس عام 2004.
  5. .ثلاث قواعد للروبوتات من إسحاق أسيموف. المشاكل الأخلاقية للروبوتات: كيفية كسر قوانين الروبوتات, مقال منشور على الموقع الالكتروني:Read more at: https//minikar.ru/ar/health-and-beauty/tri-pravila-robototehniki-ot-aizeka-azimova-eticheskie-problemy-robotov
  6. . ظهرت المواقف الرئيسية من الروبوتات robotics بالفعل خلال الندوة الدولية الأولى حول علم الروبوتات (سان ريمو, إيطاليا,2004) فيما يتعلق بمسؤولياتهم تجاه نشاطهم العلمي التقني, انظر, اخلاقيات الانسان الآلي, منشور على الموقع الالكتروني: https://www.hisour.com/ar/?nonamphead=1 تاريخ الزيارة 2023/11/15.
  7. . درار, خديجة محمد, اخلاقيات الذكاء الاصطناعي والروبوت, دراسة تحليلية, كلية الآداب والعلوم الإنسانية, جامعة الملك عبد العزيز, المجلة الدولية لعلوم المكتبات والمعلومات, المجلد السادس, العدد الثالث, مارس 2019, ص243.
  8. .من ابرز الاعمال التي كشفت أهمية تنظيم اخلاقيات اعمال كيانات الذكاء الاصطناعي, التصرف الذي قام به الروبوت (Tay Ai) وهي برنامج آلي تمتلكه شركة مايكروسوفت, صمم ليتفاعل مباشرة مع الجمهور بين سن18و24 في داخل الولايات المتحدة, بحيث يتعلم من تعاملهم معه ويتمكن من تعلم اللغة الدارجة والتغريد والرد على الرسائل بدون أي تخل بشري, الا ان خللا برمجيا أصابه مما تسبب بخروجه عن السيطرة, فالتقط من بعض المغردين تغريدات عنصرية ومؤيدة للنازية, وقام بترديدها.
  9. . الأمم المتحدة, المجلس الاقتصادي والاجتماعي, اللجنة المعنية بتسخير العلم والتكنولوجيا لأغراض التنمية, الدورة الثانية والعشرون, البند 3(أ) من جدول الاعمال المؤقت, تقرير الأمين العام, جنيف,13-17 أيار/مايو2019, ص12.
  10. .Ethics Guidelines for Trustworthy AI, https://ec.europa.eu/futurium/en/ai-alliance-consultation.1.html, تاريخ الزيارة 2024/4/17.
  11. . MODEL ARTIFICIAL INTELLIGENCE GOVERNANCE FRAMEWORK SECOND EDITION تاريخ الزيارة 2024/5/28.
  12. . طه, عمرو, محمد, بدوي, النظام القانوني للروبوتات الذكية المزود بتقنية الذكاء الاصطناعي- الامارات العربية المتحدة كنموذج, دراسة تحليلية مقارنة لقواعد القانون المدني للروبوتات الصادر عن الاتحاد الأوربي سنة 2017 ومشروع ميثاق اخلاقيات الروبوت الكوري, مجلة الدراسات القانونية والاقتصادية, مج 7, ملحق(230-1) 2021. https://search.mandumah.com/Record
  13. إسحاق عظيموف أو إسحاق أسيموف أو إسحاق أزيموف (2 يناير 1920-6 ابريل 1992) مؤلف امريكي روسي المولد وكيميائي حيوي في تخصصه الأصلي, انظر: https://ar.m.Wikipedia.or
  14. . ظهرت هذه القوانين للمرة الأولى في احدى روايات الخيال العلمي وهي رواية التملص, وضعها كاتب روايات الخيال العلمي الأمريكي (الروسي المولد) إسحاق اسيموف في عام 1942, للمزيد انظر: https://ar.m.Wikipedia.org
  15. درار, خديجة محمد, اخلاقيات الذكاء الاصطناعي والروبوت, مرجع سابق, ص245.
  16. . EU guidelines on ethics in artificial intelligence :Context and implementation
  17. .ياسر محمد اللمعي, المسؤولية الجنائية عن اعمال الذكاء الاصطناعي ما بين الواقع والمأمول, مرجع سابق, ص836.
  18. The ethics of artificial intelligence been drafted by Eleanor Bird, and other, the .1 Directorate General for parliamentary Rese Services(EPRS) انظر: الاتحاد الأوربي, قواعد اخلاقيات الذكاء الاصطناعي, مجموعة القواعد والارشادات حول الكيفية التي يجب اتباعها من قبل الشركات والحكومات عند تطوير تطبيقات الذكاء الاصطناعي, الصادرة في ابريل 2019.
  19. . Artificial intelligence for good,

    https://www.itu.int/web/pp-18/ar/backgrounder/artificial -intelligence -for-good

  20. . للمزيد انظر: مبادرة IEEE العالمية حول أخلاق أنظمة الحكم الذاتي والذكاء, اخلاقيات التصميم: رؤية لأولويات رفاهية الانسان مع أنظمة التحكم الذكية والذاتية, الإصدار 2017,2.
  21. Preliminary study of the possibility of developing a normative document for the ethics of artificial intelligence,United Nation Educational,Scientific and Cultural Organizations,. General Conference Fortieth session, paris2016 c/67 67/2407/30/2019Item 5-24 of the provisional agenda Source: Resolutions 206 EX/42.P38.
  22. . للمزيد انظر: (دبي الذكية) تطبق (مبادئ وارشادات أخلاقيات الذكاء الاصطناعي) في 18 حالة استخدام, فبراير2020,

    https://wam.ae/ar/detalils/1395302820503 تاريخ الزيارة 2024/3/13.

  23. . طه, عمرو, محمد, بدوي, النظام القانوني للروبوتات الذكية المزود بتقنية الذكاء الاصطناعي: الامارات العربية المتحدة كنموذج, مرجع سابق, ص10.
  24. . الفلاسي, عبد الله احمد مطر, المسؤولية الجنائية الناتجة عن أخطاء الذكاء الاصطناعي, مرجع سابق, ص2838.
  25. . استراتيجية قطر الوطنية في مجال الذكاء الاصطناعي https://hukoomi.gov.qa/ar/article /qatars-national-artificial intelligence-strategy
  26. . يمكن الاطلاع على ملخص للاستراتيجيات الوطنية لبعض من الدول في مجال الذكاء الاصطناعي من خلال الرابط: https://medium.com/politics-ai/an-overview -of-national -ai-strategies-2a70ec6edfd
  27. . معهد قطر لبحوث الحوسبة, هو معهد للبحوث تأسس المعهد عام 2010 ويعتبر مؤسسة مستقلة غير ربحية تدعم تحول قطر من اقتصاد الكربون إلى الاقتصاد المعرفي, ويعمل معهد قطر لبحوث الحوسبة تحت مظلة جامعة حمد بن خليفة وضمن استراتيجية قطر 2030 https://www.hbku.edu.qa/ar/about-qcri
  28. .سلسلة حوارات جامعة حمد بن خليفة: الذكاء الاصطناعي والاخلاقيات مع تزايد تأثير الذكاء الاصطناعي في كل ما يحيط بنا, هل للأخلاقيات دور في كيفية تصميم الذكاء الاصطناعي واعتماده وتطبيقه أيضا؟ يشارك الدكتور حسن سجاد, عالم أول بمعهد قطر لبحوث الحوسبة, وسوزان كارامينان, عميد كلية القانون, وجهات نظرهم حول هذ القضية, منشور على الموقع الالكتروني https://www.hbku.edu.qa/ar/AIETHICS
  29. . بن عثمان, فريدة, الذكاء الاصطناعي مقارنة قانونية, جامعة البليدة2, لوينسي علي, الجزائر, دفاتر السياسة والقانون المجلد 12 العدد2/2020 ص164.
  30. . اللمعي, ياسر محمد, المسؤولية الجنائية عن أعمال الذكاء الاصطناعي ما بين الواقع والمأمول, مرجع سابق, ص844.
  31. . S.3771-FUTURE of Artificial Intelligence Act of 2020, 116th Congress (2019-2020) https://www.congress.gov/bill/116th-congress/senate-bill/3771/text. تاريخ الزيارة 2024/8/9
  32. . تعددت القضايا التي ابرزت أهمية وضع تنظيم خاص بكيانات الذكاء الاصطناعي بعد زيادة حضورها في مجالات الحياة , ومن هذه القضايا التي تعالج استخدام الذكاء الاصطناعي في مجال القانون, ما حصل في ولاية ويسكنسون الامريكية, حيث اعتمد قاض سنة 2016 في حكمة (قضية لوميس) على الذكاء الاصطناعي لتقدير مدى إمكانية عودة المجرم الى الاجرام , مما دفعة إلى الحكم عليه بالسجن ست سنوات دون ان يفهم طريقة عمل الخوارزميات التي أدت إلى تلك النتيجة, وبالتالي لم يكن خطأ الذكاء الاصطناعي محل احتمال نقض, مما يجعل تطبيقاته محل خطر حقيقي لكل من له صلة أو علاقة, من مصمم ومصنع ومالك ومستعمل في إطار المسؤولية المدنية, الامر الذي دفع المنظمات الراعية للذكاء الاصطناعي إلى المطالبة بتنظيم قانوني خاص به.
  33. . القوصي, همام, إشكالية الشخص المسؤول عن تشغيل الروبوت, مقال منشور في مجلة جبل, لبنان , العدد 25,2018, ص88.
  34. . REPORT with recommendations to the Commission on Civil Law Rules on Robotics( 2015

    https://www.europart.europa.eu/doceo/document /a-8-2017-0005_EN.html تاريخ الزيارة 2024/4/29.

  35. . Regulation(EU) 2018/1807 of the European Parliament and of the Council of 14 November 2018 on framework for the free flow of non-personal date in the European Union (Text with EEA relevance, https://date.europe.eu/eli/reg/2018/1807/oj, تاريخ الزيارة 2024/5/31.
  36. . المعي, ياسر محمد, المسؤولية الجنائية الناتجة عن اعمال الذكاء الاصطناعي ما بين الواقع والمأمول, مرجع سابق, ص8445.
  37. . Strategie nationale pour l,intelligence Artificial,https://www.intelligence -artificiele .gouv.fr/fr .
  38. . EDPS-EDPS Joint Opinion on the proposal for a Regulation of the European Parliament and of the Council laying down harmonized rules on artificial intelligence (Artificial Intelligence Act) https://edps.europa.eu/node/7140_en تاريخ الزيارة 2024/5/30.
  39. . انظر: هيكل, فتوح, الاستراتيجية الاتحادية ومستقبل الامارات العربية المتحدة, مركز الامارات للدراسات والبحوث الاستراتيجية, منشور على الموقع الالكتروني: https://www.ecssr.ae/repots
  40. . قرار رئيس مجلس الوزراء المصري رقم 2889 في سنة 2019 بشأن انشاء المجلس الوطني للذكاء الاصطناعي, الجريدة الرسمية-عدد47 مكرر, الصادر بتاريخ24 تشرين الثاني/نوفمبر2019, ص2.
  41. . بن عثمان, فريدة, الذكاء الاصطناعي مقارنة قانونية, مرجع سابق, ص165.
  42. . بموجب القرار الاميري رقم 44 لسنة 2008, اقرت (رؤية قطر الوطنية2030) بهدف تحويل قطر إلى دولة متقدمة قادرة على تحقيق التنمية المستدامة وعلى تأمين استمرار العيش الكريم لشعبها, انظر موقع الديوان الاميري: https://www.diwan.gov.qa/about -qatar/ تاريخ الزيارة 2023/10/23.
  43. . استراتيجية قطر الوطنية في الذكاء الاصطناعي, انظر الرابط: https://qcai-blog.qcri.org/wp-content /uploads/2020/04/QCRI-Artificial -intelligence -Strategy-2019-AR .
  44. . Sample Club /Organization Constitution and By-Laws منشور على رابط جامعة قطر https://qa.linkedin.com/company/aiqu-qa
  45. .قرار مجلس الوزراء القطري رقم (10) لسنة 2021 بإنشاء لجنة الذكاء الاصطناعي, موقع الميزان https://www.almeezan.qa/LawView.aspx?opt&LawID=8719&language تاريخ الزيارة 2024/5/8.