مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة

Dr Rakiz Salim Al Aroud\1

1 جامعة مؤتة، الأردن.

HNSJ, 2024, 5(11); https://doi.org/10.53796/hnsj511/1

تحميل الملف

تاريخ النشر: 01/11/2024م تاريخ القبول: 15/10/2024م

Citation Method


المستخلص

هدفت الدراسة الى التعرف الى مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة, وقد تناولت الدراسة اهمية دور الاولياء وادارة المدارس في توعية الأطفال بمخاطر استخدام التكنولوجيا. وبينت الدراسة مفهوم الذكاء الاصطناعي واهميته , وابرز مخاطر للذكاء الاصطناعي على البشرية , ومخاطر للذكاء الاصطناعي على المنظومة الاخلاقية للطفولة

واعتمدت الدراسة على المنهجَ الوصفي التحليلي باعتباره من أكثرِ المناهج استخداماً في دراسة الظواهر الاجتماعية الإنسانية , حيث يعد المنهج الوصفي أداة وطريقة لتحليل ووصف مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة,

وتوصلت الدراسة الى مجموعة من التوصيات والنتائج حيث أكدت الدراسة ان الإفراط في الاعتماد على أنظمة الذكاء الاصطناعي قد يؤدي إلى فقدان الإبداع ومهارات التفكير النقدي والحدس البشري, وانخفاض التعاطف والمهارات الاجتماعية والاتصالات البشرية. واوصت الدراسة بان على الحكومات والمنظمات تطوير أفضل الممارسات لتطوير الذكاء الاصطناعي ونشره بشكل آمن وتعزيز التعاون الدولي لإنشاء معايير ولوائح عالمية تحمي من تهديدات أمن الذكاء الاصطناعي

الكلمات المفتاحية: الذكاء الاصطناعي , الطفولة , المخاطر. المنظومة الأخلاقية

Research title

The risks of artificial intelligence on the moral system of childhood

D. Rakez Salem Al-Aroud1

1 Mutah University, Jordan

HNSJ, 2024, 5(11); https://doi.org/10.53796/hnsj511/1

Published at 01/11/2024 Accepted at 15/10/2024

Abstract

The study aimed to identify the risks of artificial intelligence on the moral system of childhood. The study addressed the importance of the role of parents and school administration in educating children about the risks of using technology. The study showed the concept of artificial intelligence and its importance, the most prominent risks of artificial intelligence on humanity, and the risks of artificial intelligence on the moral system of childhood

The study relied on the descriptive analytical approach as it is one of the most widely used approaches in studying human social phenomena, as the descriptive approach is a tool and method for analyzing and describing the risks of artificial intelligence on the moral system of childhood,

The study reached a set of recommendations and results, as the study confirmed that excessive reliance on artificial intelligence systems may lead to a loss of creativity, critical thinking skills and human intuition, and a decrease in empathy, social skills and human communication. The study recommended that governments and organizations develop best practices for developing and deploying AI safely and enhance international cooperation to create global standards and regulations that protect against AI security threats.

Key Words: Artificial Intelligence, Childhood, Risks. Ethical System

المقدمة

يعد الذكاء الاصطناعي أحد أكثر ابتكارات البشرية الواعدة، ويملك الذكاء الاصطناعي القدرة بالمساهمة في تطوير جوانب الحياة من الرعاية الصحية والتعليم والمعرفة إلى التمويل والنقل ومستقبل تكنولوجي مستدام. رغم هذه الإسهامات التي يقدمها لكن هناك جوانب اخرى وهو ما يشكله من مخاوف على قيم المنظومة الأخلاقية للطفولة , وهنا يجب أن يتمتع الأفراد بالقدرة على فهم وتدقيق القرارات التي تتخذها أنظمة الذكاء الاصطناعي، وتحميل المطورين والمستخدمين المسؤولية عن آثارها

ويجسد الذكاء الاصطناعي في جوهره، مجموعة من المبادئ التي تهدف إلى ضمان إعطاء الأولوية للعدالة والشفافية والمساءلة والفوائد المجتمعية في تطوير ونشر أنظمة الذكاء الاصطناعي. ويتطلب مبدأ العدالة تصميم أنظمة الذكاء الاصطناعي للتخفيف من التحيزات، وعلى المستخدمين الذكاء الاصطناعي تحمل المسؤولية عن نتائج إبداعاتهم، حيث يؤكد الذكاء الاصطناعي على الأهمية القصوى للخصوصية، وتدعو إلى حماية البيانات الشخصية وتنفيذ تدابير الموافقة المستنيرة.

لقد لعبت الأخلاق دائما دورا هاما في تطور البشرية. فهي تتشكل من خلال ردود الفعل من البيئة وتؤثر على الطريقة التي نتخذ بها القرارات. واللغة التي يتحدث بها الذكاء الاصطناعي تشكل الآمال وبنفس الوقت المخاوف ومع ذلك، فإن أشياء لا يمكن تصورها حاليا ربما تصبح حقيقة في المستقبل. في الماضي قام البشر بأشياء رائعة بدون الذكاء الاصطناعي. لذلك هل يمكن للآلات أن تطور أخلاقا أعلى من البشر لأن لديها القدرة على الوصول إلى المعلومات الفورية وقادرة على اتخاذ القرار دون تعقيدات العقل البشري؟

لا يشكل الذكاء الاصطناعي تهديدًا مباشرًا، ولكن زيادة وقت استخدام الشاشات قد تجعل الأطفال يعتمدون على المنصات الرقمية منذ سن مبكرة. وفي المقابل، قد يؤدي هذا إلى عواقب جسدية وعقلية مختلفة بما في ذلك على سبيل المثال لا الحصر، الاكتئاب والقلق والسمنة والصداع النصفي وإجهاد العين وسوء الوضعية والأرق.

مشكلة الدراسة : تبرز إشكالية الدراسة في بيان مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة من خلال ما قد يشكله من مخاطر على الطفولة ,فالذكاء الاصطناعي سلاحا ذا حدين بالنسبة للأطفال، والعامل الحاسم هنا هو دور الوالدين في توجيه أطفالهما ومراقبتهم كي ينعموا بأكبر فائدة وأقل ضرر من الذكاء الاصطناعي في هذا العالم المتطور. واعداد المزيد من الأبحاث حول تأثيرات الذكاء الاصطناعي على الأطفال وكيفية الحفاظ على سلامتهم.

أهمية الدراسة : تستند الدراسة على نطاقين من الاهمية وهي الاهمية العلمية والعملية

الأهمية العلمية: قد تفيد هذه الدراسة المكتبات ومراكز البحث العلمي والمختصين والاكاديميين من بيان مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة واهمية الحاجة لوضع معايير وإرشادات لحماية الأطفال في بيئات استخدام الذكاء الاصطناعي.

الأهمية العملية : تسعى الدراسة لبيان أهمية مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة , من خلال بيان التأثيرات المحتملة للتفاعل مع الأنظمة المعتمدة على الذكاء الاصطناعي، مثل الألعاب أو التطبيقات التعليمية، على الصحة النفسية للأطفال. وبيان دور الآباء والمدارس في توعية الأطفال بمخاطر استخدام التكنولوجيا.

أهداف الدراسة : تسعى الدراسة للتعرف على الأهداف التالية

  1. بيان مفهوم الذكاء الاصطناعي واهميته
  2. بيان مخاطر للذكاء الاصطناعي على البشرية
  3. التعرف على مخاطر للذكاء الاصطناعي على المنظومة الاخلاقية للطفولة

أسئلة الدراسة : تسعى الدراسة للإجابة على التساؤلات التالية :

1. ما مفهوم الذكاء الاصطناعي؟ وما اهميته؟

2. ما مخاطر للذكاء الاصطناعي على البشرية؟

3. ما مخاطر للذكاء الاصطناعي على المنظومة الاخلاقية للطفولة؟

منهجية الدراسة

اعتمدت الدراسة المنهجَ الوصفي التحليلي باعتباره من أكثرِ المناهج استخداماً في دراسة الظواهر الاجتماعية الإنسانية , حيث يعد المنهج الوصفي أداة وطريقة لتحليل ووصف مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة ,

فرضيات الدراسة

الافتراض الاول :كلما زاد استخدام الأطفال لتقنيات الذكاء الاصطناعي يكونون أكثر عرضة للتعرض لمحتوى غير مناسب أو ضار، مما يؤثر ذلك على سلوكياتهم وأخلاقهم.

الافتراض الثاني : كلما زاد الاعتماد على الذكاء الاصطناعي كلما قلل من فرص التفاعل الاجتماعي الفعلي، مما يؤثر ذلك سلبًا على تطوير المهارات الاجتماعية والقيم الإنسانية.

الافتراض الثالث: كلما زاد الادمان على الالعاب والتطبيقات المعتمدة على الذكاء الاصطناعي كلما ساهم في احداث سلوكيات غير أخلاقية، مثل العنف أو الانانية، مما يؤثر على سلوكيات الأطفال

مصطلحات الدراسة

الذكاء الاصطناعي: هو احد فروع علوم الحاسوب, او مجموعة من مختلف التقنيات التي تعمل مع بعضها البعض من أجل محاكاة الذكاء البشري, يركز على تنفيذ البرامج مثل الملفات الطبية، والصناعية، والنقل، والمالية، وأنظمة الترجمة، والمساعدات الافتراضية، والبرمجيات, ويهدف إلى تطوير أنظمة قادرة على أداء أي مهمة عقلية يستطيع البشر القيام بها[1]

المخاطر: هي أحداث أو ظروف غير مؤكدة الحدوث , لذا تشير المخاطر إلى احتمال حدوث حدث سلبي يمكن أن يؤثر على الأهداف أو المصالح. وتتنوع المخاطر بحسب طبيعتها ودرجة تأثيرها، وقد تشمل المخاطر بالكوارث الطبيعية أو التلوث او الهجمات السيبرانية. او ترتبط بالتغيرات في القيم أو المنظومة الاخلاقية .[2]

الطفولة: هي مرحلة مبكرة من حياة الإنسان، تمتد من الولادة حتى بلوغ سن المراهقة. تعتبر هذه المرحلة فترة حيوية تتشكل فيها الشخصية والقدرات الجسدية والعقلية والاجتماعية. وتشمل التطورات التفكيرية واللغة والقدرات المعرفية، حيث يتعلم الأطفال من خلال التجربة والاكتشاف. وتحتاج إلى رعاية ودعم مناسبين من الأسرة والمجتمع لضمان تنمية صحية وسليمة.[3]

المنظومة الأخلاقية: هي مجموعة من القيم والمبادئ التي تحدد السلوكيات الصحيحة والخاطئة داخل المجتمعات معين. وتلعب دورًا مهمًا في تعزيز التماسك الاجتماعي وتوجيه السلوكيات نحو الخير العام. وتساعد المنظومة الأخلاقية الأفراد والمجتمعات في بناء علاقات صحية وفعالة[4]

الاطار النظري والدراسات السابقة

استندت الدراسة على نظرية التعلم المعرفي السلوكي , وهي نظرية تستند على ربط السلوك بالمعرفة ، وتركز النظرية على كيفية تأثير الأفكار والمشاعر على سلوك الأفراد، وكيف يمكن استخدام التغييرات في التفكير لتعديل السلوكيات غير المرغوب فيها. ومن ابرز مرتكزات النظرية ما يلي:[5]

الافكار: حيث تساهم الافكار في تشكيل المشاعر والسلوك لدى الافراد. ويمكن أن تكون الأفكار إيجابية أو سلبية، وتؤثر بشكل مباشر على كيفية استجابة الفرد لمواقف معينة.

  1. المشاعر: باعتبار ان المشاعر هي استجابة الفرد لأفكاره. لذا إذا كان الشخص غير قادر على تحقيق النجاح، فقد يشعر بالقلق أو الاكتئاب.
  2. السلوك: ان يتأثر الفرد بالسلوك والأفكار والمشاعر. فمن الممكن أن تتشكل لدى الفرد أفكار سلبية أو مشاعر مؤلمة.

يمكن القول ان نظرية التعلم المعرفي السلوكي تعد أداة قوية لفهم السلوك الإنساني وتغييره، مما يعزز من فعالية العلاج والتعلم. وهذا ما ينطبق على مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة .

الدراسات السابقة

دراسة كريستيان, رافلاوب (2023). الآلة والأخلاق.. تحديات الذكاء الاصطناعي, ,هدفت الدراسة لبان تحديات الذكاء الاصطناعي على الاخلاق , باعتبار ان تُوَفر التقنيات الرَقمية المُترابطة اضاع فُرَصَاً كبيرة لِقطاع الاقتصاد والمُجتمع، بالإضافة الى اثارة مشاكل أخلاقية في نفس الوقت، بالمقابل فان الاتمتة ادت الى فقدان الوظائف بسبب استخدام الالة بدل الانسان .

دراسة جميل, عبداللطيف (2024). الذكاء الاصطناعي يقود قاطرة تطوير التعليم, هدفت الدراسة الى بيان قدرة الذكاء الاصطناعي في قيادة قاطرة تطوير التعليم, وبينت الدراسة ان العالم يقف على أعتاب ثورة تعليمية جديدة تلعب فيها تقنيات الذكاء الاصطناعي دوراً فعالاً في إعادة تشكيل طرق التعليم والتعلّم خلال السنوات القادمة. وبينت الدراسة قدرة الذكاء الاصطناعي إطلاق روبوتات الدردشة النصية القائمة على الذكاء الاصطناعي ,والقدرة والسرعة الفائقة في إنتاج محتوى مكتوب حول مجموعة واسعة من المواضيع، وبمستوى عالٍ من الدقة, واكدت الدراسة ان الذكاء الاصطناعي قادم وبقوة ليُحدث ثورة في الفصول الدراسية وقاعات المحاضرات، ,ولكن التحدي الاكبر هو كيق يمكن تسخير قوته كأداة إيجابية لتعزيز التعليم، وغدم تاثيره السلبي على الاطفال واخلاقهم .

STUDY BY Nomisha Kurian(2023) AI’s empathy gap: The risks of conversational Artificial Intelligence for young children’s well-being and key ethical considerations for early childhood education and care

دراسة بعنوان فجوة التعاطف في الذكاء الاصطناعي: مخاطر الذكاء الاصطناعي على رفاهية الأطفال الصغار والاعتبارات الأخلاقية الرئيسية للتعليم والرعاية في مرحلة الطفولة المبكرة, وقد بينت الدراسة إن التقدم التكنولوجي السريع يجعل من السهل أكثر من أي وقت مضى على الأطفال الصغار “التحدث” إلى الذكاء الاصطناعي. وتشمل نماذج الذكاء الاصطناعي المحادثة التي تغطي التعليم والترفيه تلك المصممة خصيصًا لتعليم ورعاية الطفولة المبكرة، فضلاً عن تلك التي لم تُصمم للأطفال الصغار ولكن يمكن الوصول إليها بسهولة من قبلهم. لذلك من الأهمية بمكان تحليل الآثار الأخلاقية على رفاهية الأطفال بشكل نقدي عندما تكون المحادثة مع الذكاء الاصطناعي على بعد نقرة واحدة فقط. وتسلط الدراسة الضوء على “فجوة التعاطف” التي تميز أنظمة الذكاء الاصطناعي المصممة لمحاكاة التعاطف، موضحة مخاطر الاستجابات غير المنتظمة أو غير الكافية لرفاهية الطفل. والمخاوف الاجتماعية والتقنية الرئيسية على الأطفال الصغار

المبحث الاول : الذكاء الاصطناعي اهميته ومفهومه

إن البشر هم الكيان المعرفي الأكثر تطوراً على كوكب الأرض, وإن ظهور منصات الذكاء الاصطناعي يدق مسماراً في نعش الهيمنة الفكرية البشرية، مما يزيد من مظاهر الدونية , فقد أصبح الذكاء الاصطناعي أفضل بشكل لا لبس فيه من البشر في مجموعة من المهام المعرفية، بما في ذلك قدرته على اكتشاف الأنماط، وإقامة الاتصالات، وإيجاد المعنى في كميات هائلة من البيانات المنظمة وغير المنظمة.[6]

إن إدراك أن الآلات التي تنجز مهام معرفية معينة بشكل أفضل من البشر ليس بالأمر الجديد , ولكن كل التقنيات السابقة كانت في الأساس “أدوات” يستخدمها البشر لتسهيل وظائفه الحياتيه، أو كنوع من الأطراف الاصطناعية المعرفية التي تسمح للانسان بإنجاز مهام غير قابلة للتحقيق أو غير فعالة. ويمكن استخدام الذكاء الاصطناعي على نحو مماثل كأداة. ولكن هذه التقنيات لديها الآن القدرة على تجاوز فكرة “الأداة” لتوفير ليس فقط تنفيذ المهام التي يقودها الإنسان أو التي يحددها الإنسان ولكن أيضًا خلق المعرفة الجديدة وطرق جديدة لفهم ما يحيط في العالم.[7]

وفي مجالات كشف الجريمة ستخدم الذكاء الاصطناعي من قبل سلطات الامن في جميع أنحاء العالم. وغالبًا ما تؤدي التنبؤات والملفات الشخصية وتقييمات المخاطر التي تستند إلى تحليل البيانات والخوارزميات والذكاء الاصطناعي إلى نتائج حقيقية للعدالة الجنائية. يمكن أن يشمل ذلك المراقبة أو التوقيف والتفتيش المتكرر والاستجواب والغرامات والاعتقالات. يمكن أن تؤثر هذه الأنظمة أيضًا بشكل كبير على قرارات الملاحقة القضائية والحكم والمراقبة[8]

فمفهوم الذكاء الاصطناعي هو قدرة الحاسوب الرقمي أو الروبوت الذي يتحكم فيه الحاسوب على أداء المهام المرتبطة عادة بالكائنات الذكية. وكثيرا ما يُطبق هذا المصطلح على مشروع تطوير أنظمة تتمتع بالعمليات الفكرية المميزة للبشر، مثل القدرة على التفكير، واكتشاف المعنى، والتعميم، أو التعلم من الخبرة السابقة. ومنذ تطويرها في أربعينيات القرن العشرين، تمت برمجة أجهزة الكمبيوتر الرقمية للقيام بمهام معقدة للغاية ــ مثل اكتشاف البراهين على النظريات الرياضية أو لعب الشطرنج ــ بمهارة كبيرة. [9]

وعلى الرغم من التقدم المستمر في سرعة معالجة الحاسوب وسعة الذاكرة، فلا توجد حتى الآن برامج يمكنها أن تضاهي المرونة البشرية الكاملة في مجالات أوسع أو في المهام التي تتطلب قدرا كبيرا من المعرفة اليومية. ومن ناحية أخرى، بلغت بعض البرامج مستويات أداء الخبراء والمحترفين من البشر في تنفيذ مهام محددة معينة، بحيث يوجد الذكاء الاصطناعي بهذا المعنى المحدود في تطبيقات متنوعة مثل التشخيص الطبي، ومحركات البحث على الحاسوب، والتعرف على الصوت أو الكتابة اليدوية، وبرامج الدردشة الآلية.[10]

فالذكاء الاصطناعي هو التكنولوجيا التي تمكن أجهزة الكمبيوتر والآلات من محاكاة التعلم البشري والفهم وحل المشكلات واتخاذ القرار والإبداع والاستقلالية. ويمكن للتطبيقات والأجهزة المجهزة بالذكاء الاصطناعي رؤية وتحديد الأشياء. ويمكنها فهم اللغة البشرية والاستجابة لها. ويمكنها التعلم من المعلومات والخبرات الجديدة. ويمكنها تقديم توصيات مفصلة للمستخدمين والخبراء. ويمكنها التصرف بشكل مستقل، واستبدال الحاجة إلى الذكاء البشري أو التدخل .[11]

إن الشفافية بين مطوري الذكاء الاصطناعي ومستخدميه سوف تتضمن التواصل الواضح والسهل حول كيفية عمل أنظمة الذكاء الاصطناعي، بما في ذلك البيانات التي يستخدمونها، والخوارزميات التي يستخدمونها، وعمليات صنع القرار التي يتبعونها[12]. وهذا يعني تزويد المستخدمين بتفسيرات مفهومة لنتائج الذكاء الاصطناعي والعوامل التي تؤثر على تلك النتائج. وسوف يتبادل المطورون المعلومات بشكل مفتوح حول القيود والتحيزات المحتملة لذكائهم الاصطناعي، فضلاً عن الخطوات المتخذة للتخفيف من حدة هذه المشكلات. وسوف تشمل هذه الشفافية أيضًا تحديثات منتظمة حول التحسينات والتغييرات التي تطرأ على الذكاء الاصطناعي، وتعزيز الثقة والسماح للمستخدمين باتخاذ قرارات مستنيرة بشأن تفاعلاتهم مع التكنولوجيا. وفي نهاية المطاف، يتعلق الأمر بخلق بيئة يشعر فيها المستخدمون بالتمكين والمعرفة بأدوات الذكاء الاصطناعي التي يستخدمونها.[13]

ولضمان الخصوصية عند استخدام أنظمة الذكاء الاصطناعي، يجب وضع ضمانات قوية، بما في ذلك تشفير البيانات القوي لحماية المعلومات أثناء النقل وفي حالة السكون. ويجب أن تكون هناك ممارسات صارمة لتقليل البيانات، وجمع البيانات الضرورية فقط لعمل الذكاء الاصطناعي. كما أن تنفيذ ضوابط وصول صارمة للحد من من يمكنه عرض أو تعديل المعلومات الحساسة أمر بالغ الأهمية. ويجب إجراء عمليات تدقيق وتقييم منتظمة لتحديد نقاط الضعف المحتملة وتصحيحها. [14]

تعد بروتوكولات موافقة المستخدم الشفافة ضرورية، لضمان إبلاغ الأفراد بشكل كامل بكيفية استخدام بياناتهم وتخزينها. بالإضافة إلى ذلك، يمكن استخدام تقنيات إخفاء الهوية وإخفاء الهوية لحماية المعلومات الشخصية بشكل أكبر، مما يجعل من الصعب تتبع البيانات إلى أفراد محددين. تخلق هذه التدابير مجتمعة نهجًا شاملاً للحفاظ على الخصوصية في أنظمة الذكاء الاصطناعي.[15]

غالبًا ما يستشهد منتقدو تبني تدابير لتمكين الذكاء الاصطناعي الأخلاقي بالتحديات العملية والمقايضات المتأصلة في تنفيذه. ويزعمون أن السعي إلى العدالة والشفافية الكاملة قد يخنق الابتكار ويعيق تطوير تقنيات الذكاء الاصطناعي. بالإضافة إلى ذلك، يزعمون أن الطبيعة الديناميكية للاعتبارات الأخلاقية تجعل من الصعب وضع معايير عالمية تستوعب السياقات الثقافية والمجتمعية المتنوعة.[16]

إن استخدام الذكاء الاصطناعي غالبًا ما يصارع تعقيد الموازنة بين العدالة والشفافية والمساءلة وتحديات التنفيذ العملي. يمكن أن تكون المبادئ التوجيهية الأخلاقية غامضة، مما يؤدي إلى تناقضات في التطبيق والتحيز المحتمل. وعلاوة على ذلك، فإن دمج المبادئ الأخلاقية في أنظمة الذكاء الاصطناعي يمكن أن يبطئ الابتكار ويرفع التكاليف، مما يجعل من الصعب على الكيانات الأصغر حجمًا المنافسة. هناك أيضًا خطر استغلال الذكاء الاصطناعي الأخلاقي كأداة تسويقية بدلاً من الالتزام الحقيقي بالممارسات المسؤولة. وبالتالي، ورغم أن الذكاء الاصطناعي الأخلاقي يشكل طموحاً بالغ الأهمية، فإن تنفيذه لا بد وأن يخضع لمراقبة دقيقة لضمان التزامه الحقيقي بمبادئه دون خنق التقدم التكنولوجي أو إمكانية الوصول الاقتصادي.[17]

لذا فالذكاء الاصطناعي الأخلاقي يشكل ضرورة أخلاقية والسعي إلى مستقبل تكنولوجي مسؤول. ومن خلال الالتزام بمبادئ العدالة والشفافية والمساءلة والمصلحة المجتمعية، يمكن الاستفادة من الإمكانات التحويلية للذكاء الاصطناعي مع حماية حقوق الإنسان وكرامته. وعلى الرغم من التحديات والانتقادات التي تصاحب تنفيذ الذكاء الاصطناعي الأخلاقي، فإن السعي إلى تحقيق مشهد تكنولوجي أكثر عدالة وإنصافًا أمر قابل للتحقيق وضروري. [18]

ويمكن أن يكون لأساليب الذكاء الاصطناعي تأثير كبير في مجموعة واسعة من المجالات، من المهن القانونية والقضاء إلى مساعدة عملية اتخاذ القرار في الهيئات العامة التشريعية والإدارية. على سبيل المثال، يمكنها زيادة كفاءة ودقة المحامين في كل من الاستشارات والتقاضي، مع الفوائد للمحامين وعملائهم والمجتمع ككل. يمكن استكمال وتعزيز أنظمة البرامج الحالية للقضاة من خلال أدوات الذكاء الاصطناعي لدعمهم في صياغة القرارات الجديدة. وقد تم وصف هذا الاتجاه نحو الاستخدام المتزايد للأنظمة المستقلة بأنه أتمتة العدالة.[19]

ويزعم البعض أن الذكاء الاصطناعي يمكن أن يساعد في إنشاء نظام قضائي جنائي أكثر عدالة، حيث يمكن للآلات تقييم ووزن العوامل ذات الصلة بشكل أفضل من البشر، والاستفادة من سرعتها واستيعابها للبيانات الكبيرة. وبالتالي فإن الذكاء الاصطناعي من شأنه أن يتخذ القرارات بناءً على قرارات مستنيرة خالية من أي تحيز وذاتية.[20]

المبحث الثاني : مخاطر للذكاء الاصطناعي على الانسان

أصبح الذكاء الاصطناعي قوة عاتية، حيث غيّر طريق المعيشة والتواصل والتربية للأطفال . وقد جلب ظهور الذكاء الاصطناعي تطورات مذهلة وتحديات غير متوقعة. وقد يشكل الذكاء الاصطناعي تهديدا للبشرية فيما يرتبط بالاستغناء عن كثير من الوظائف التي تعد مصدر رزق لملاين البشر , لذا فان أتمتة الوظائف المدعومة بالذكاء الاصطناعي تشكل مصدر قلق على الشعوب حيث يتم اعتماد التكنولوجيا في صناعات مثل التسويق والتصنيع والرعاية الصحية. وهناك دراسة بينت انه بحلول عام 2030، يمكن أتمتة المهام التي تمثل ما يصل إلى 30 % من ساعات العمل الحالية في الاقتصاد العالمي أي ان هناك 300 مليون وظيفة بدوام كامل يمكن أن تضيع بسبب أتمتة الذكاء الاصطناعي.[21]

ومع تزايد ذكاء الروبوتات الذكية ومهاراتها، ستتطلب نفس المهام عددًا أقل من البشر. وبينما من المتوقع أن يخلق الذكاء الاصطناعي 97 مليون وظيفة جديدة بحلول عام 2025، فإن العديد من الموظفين لن يمتلكوا المهارات اللازمة لهذه الأدوار الفنية وقد يتخلفون عن الركب إذا لم تقم الشركات بتطوير مهارات القوى العاملة لديها. ومع ذلك، فإن سرد “الروبوتات التي تسرق الوظائف” مفرط في التبسيط، وفي حين أن بعض الأدوار معرضة للخطر بلا شك، فإن الذكاء الاصطناعي يخلق في الوقت نفسه مسارات مهنية جديدة في مجالات مثل علم البيانات وهندسة التعلم الآلي وأخلاقيات الذكاء الاصطناعي. ويتوقع تقرير مستقبل الوظائف لعام 2023 الصادر عن المنتدى الاقتصادي العالمي أن الذكاء الاصطناعي سيخلق 97 مليون وظيفة جديدة بحلول عام 2025، وهو ما يتجاوز 85 مليون وظيفة من المتوقع أن يحل محلها. بالإضافة إلى ذلك، يعمل الذكاء الاصطناعي على تعزيز الأدوار الحالية، مما يسمح للعمال بالتركيز على المهام ذات المستوى الأعلى والتي تتطلب مهارات بشرية فريدة، مثل الإبداع والتفكير النقدي والذكاء العاطفي.[22]

إن الإفراط في الاعتماد على تكنولوجيا الذكاء الاصطناعي قد يؤدي إلى فقدان التأثير البشري – ونقص الأداء البشري – في بعض أجزاء المجتمع. قد يؤدي استخدام الذكاء الاصطناعي في الرعاية الصحية إلى تقليل التعاطف البشري والمنطق، على سبيل المثال قد يؤدي تطبيق الذكاء الاصطناعي إلى تقليل الإبداع البشري والتعبير العاطفي. وتقليل التواصل بين الأقران والمهارات الاجتماعية. لذا، في حين أن الذكاء الاصطناعي يمكن أن يكون مفيدًا جدًا في أتمتة المهام اليومية، إلا أن البعض يتساءل عما إذا كان قد يعيق الذكاء البشري الإجمالي وقدراته وحاجته إلى المجتمع.[23]

كما يمكن توظيف تقنيات الذكاء الاصطناعي في الأنشطة الإجرامية والخداعية، مثل الاحتيال الإلكتروني، والاختراقات السيبرانية، والتضليل الإعلامي، والتلاعب بالأسواق الاقتصادية، وغيرها من الأنشطة غير القانونية وغير الأخلاقية، ولمواجهة هذه التحديات والمخاطر، لا بد من وضع قوانين وسياسات وأنظمة، تضبط مسار هذه التقنيات وتعمل على حوكمتها لتجنب الوقوع في مخاطر[24]

إن غرس القيم الأخلاقية في أنظمة الذكاء الاصطناعي، وخاصة في سياقات صنع القرار ذات العواقب الكبيرة، يمثل تحديًا كبيرًا. يجب على الباحثين والمطورين إعطاء الأولوية للآثار الأخلاقية لتقنيات الذكاء الاصطناعي لتجنب التأثيرات المجتمعية السلبية. لذلك تبرز مخاطر الذكاء الاصطناعي في مجالات متعدة امنية واقتصادية وبشرية, والتضليل والتلاعب ويمكن توضيحها كما يلي :

  1. المخاطر الأمنية: مع تزايد تعقيد تقنيات الذكاء الاصطناعي، تزداد أيضًا المخاطر الأمنية المرتبطة باستخدامها وإمكانية إساءة استخدامها. ويمكن للمتسللين والجهات الخبيثة تسخير قوة الذكاء الاصطناعي لتطوير هجمات إلكترونية أكثر تقدمًا، وتجاوز تدابير الأمن، واستغلال نقاط الضعف في الأنظمة. وللتخفيف من هذه المخاطر الأمنية، تحتاج الحكومات والمنظمات إلى تطوير أفضل الممارسات لتطوير الذكاء الاصطناعي ونشره بشكل آمن وتعزيز التعاون الدولي لإنشاء معايير ولوائح عالمية تحمي من تهديدات أمن الذكاء الاصطناعي.[25]
  2. هيمنة الشركات المصنعة : إن خطر هيمنة عدد صغير من الشركات الكبرى والحكومات على تطوير الذكاء الاصطناعي يمكن أن يؤدي إلى تفاقم عدم المساواة والحد من التنوع في تطبيقات الذكاء الاصطناعي. إن تشجيع تطوير الذكاء الاصطناعي اللامركزي والتعاوني هو المفتاح لتجنب تركيز السلطة.
  3. الافراط في استخدام الذكاء الاصطناعي: قد يؤدي الإفراط في الاعتماد على أنظمة الذكاء الاصطناعي إلى فقدان الإبداع ومهارات التفكير النقدي والحدس البشري. إن إيجاد التوازن بين اتخاذ القرار بمساعدة الذكاء الاصطناعي والمدخلات البشرية أمر حيوي للحفاظ على قدراتنا المعرفية.[26]
  4. فقدان الوظائف : إن الأتمتة التي يقودها الذكاء الاصطناعي لديها القدرة على التسبب في فقدان الوظائف في مختلف الصناعات، وخاصة بالنسبة للعمال ذوي المهارات المنخفضة (على الرغم من وجود أدلة على أن الذكاء الاصطناعي والتقنيات الناشئة الأخرى ستخلق وظائف أكثر مما تقضي عليها). فمع استمرار تطور تقنيات الذكاء الاصطناعي وزيادة كفاءتها، يجب على القوى العاملة التكيف واكتساب مهارات جديدة لتظل ذات صلة بالمشهد المتغير. وينطبق هذا بشكل خاص على العمال ذوي المهارات المنخفضة في قوة العمل الحالية.[27]
  5. التفاوت في الدخل الاقتصادي : إن الذكاء الاصطناعي لديه القدرة على المساهمة في التفاوت الاقتصادي من خلال الاستفادة بشكل غير متناسب من الأفراد والشركات الأثرياء, لذا فإن تركيز تطوير الذكاء الاصطناعي وملكيته في عدد صغير من الشركات الكبرى والحكومات يمكن أن يؤدي إلى تفاقم هذا التفاوت مع تراكم الثروة والسلطة في حين تكافح الشركات الصغيرة للتنافس. ويمكن للسياسات والمبادرات التي تعزز المساواة الاقتصادية – مثل برامج إعادة التدريب، وشبكات الأمان الاجتماعي، وتطوير الذكاء الاصطناعي الشامل الذي يضمن توزيعًا أكثر توازناً للفرص – أن تساعد في مكافحة التفاوت الاقتصادي.[28]
  6. التحديات القانونية والتنظيمية: من الأهمية بمكان تطوير أطر قانونية ولوائح جديدة لمعالجة القضايا الفريدة الناشئة عن تقنيات الذكاء الاصطناعي، بما في ذلك المسؤولية وحقوق الملكية الفكرية. ويجب أن تتطور الأنظمة القانونية لمواكبة التقدم التكنولوجي وحماية حقوق الجميع.[29]
  7. فقدان الاتصال البشري: إن الاعتماد المتزايد على الاتصالات والتفاعلات التي يقودها الذكاء الاصطناعي قد يؤدي إلى انخفاض التعاطف والمهارات الاجتماعية والاتصالات البشرية. وللحفاظ على جوهر طبيعتنا الاجتماعية، يجب أن نسعى جاهدين للحفاظ على التوازن بين التكنولوجيا والتفاعل البشري.
  8. التضليل والتلاعب : يساهم المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، مثل التزييف العميق، في انتشار المعلومات الكاذبة والتلاعب بالرأي العام. وإن الجهود المبذولة للكشف عن المعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي ومكافحتها أمر بالغ الأهمية في الحفاظ على سلامة المعلومات في العصر الرقمي.
  9. بروز سلوكيات غير متوقعة : قد تظهر أنظمة الذكاء الاصطناعي، بسبب تعقيدها وافتقارها إلى الإشراف البشري، سلوكيات غير متوقعة أو تتخذ قرارات بعواقب غير متوقعة. إن عدم القدرة على التنبؤ بهذه النتائج قد يؤدي إلى نتائج تؤثر سلبًا على الأفراد أو الشركات أو المجتمع ككل.
  10. المخاطر البشرية : إن تطوير الذكاء الاصطناعي العام الذي يتفوق على الذكاء البشري يثير مخاوف طويلة الأمد بشأن البشرية. وقد يؤدي احتمال تطوير الذكاء الاصطناعي العام إلى عواقب غير مقصودة وربما كارثية، حيث قد لا تتوافق أنظمة الذكاء الاصطناعي المتقدمة هذه مع القيم أو الأولويات الإنسانية.[30]
  11. التلاعب الاجتماعي : يمثل التلاعب الاجتماعي أيضًا خطرًا من مخاطر الذكاء الاصطناعي. أصبح هذا الخوف حقيقة واقعة حيث يعتمد الساسة على المنصات للترويج لوجهات نظرهم، ولتخفيف هذه المخاطر، يحتاج مجتمع أبحاث الذكاء الاصطناعي إلى المشاركة بنشاط في أبحاث السلامة والتعاون في المبادئ التوجيهية الأخلاقية وتعزيز الشفافية في تطوير الذكاء الاصطناعي العام.

المبحث الثالث: مخاطر للذكاء الاصطناعي على المنظومة الاخلاقية للطفولة

يشتمل الذكاء الاصطناعي على مجموعة من التقنيات التي تمكن الآلات من محاكاة الذكاء البشري، بما في ذلك التعلم وحل المشكلات واتخاذ القرار. وفي سياق تعليم الطفولة المبكرة، يتم استخدام الذكاء الاصطناعي لتعزيز رحلة التعلم للطلاب الصغار، وتوفير تجارب مخصصة تلبي الاحتياجات الفردية وأنماط التعلم.

تتمثل إحدى المزايا الأساسية لدمج الذكاء الاصطناعي في تعليم الطفولة المبكرة في القدرة على إنشاء مسارات تعلم شخصية لكل طالب. تحلل خوارزميات الذكاء الاصطناعي نقاط القوة والضعف والتفضيلات الفردية، مما يسمح للمعلمين بتصميم دروس تتوافق مع كل طفل. يعزز هذا النهج الشخصي بيئة تعليمية أكثر جاذبية وفعالية.[31]

ويسهل الذكاء الاصطناعي تطوير تجارب التعلم التفاعلية والغامرة. من خلال استخدام البرامج والتطبيقات التعليمية التي تعمل بالذكاء الاصطناعي، يمكن للمتعلمين الصغار التعامل مع المحتوى بطريقة أكثر ديناميكية وجاذبية. توفر المحاكاة التفاعلية وأدوات الواقع الافتراضي تجارب عملية، مما يجعل التعلم ممتعًا وفعالًا.

ويثير استخدام الذكاء الاصطناعي في التعليم مخاوف أخلاقية، وخاصة فيما يتعلق بخصوصية البيانات. يجب أن يتم جمع وتحليل بيانات الطلاب لتخصيص تجارب التعلم مع الالتزام الصارم بقواعد الخصوصية. من الأهمية بمكان إيجاد توازن بين تعزيز التعليم وحماية المعلومات الحساسة.

ومن ابرز مخاطر للذكاء الاصطناعي التي تهدد المنظومة الأخلاقية للطفولة ما يلي :

  1. مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي : تشير مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي إلى استخدام خوارزميات الذكاء الاصطناعي لإنشاء محتوى صريح يشبه الحياة، حيث تتمتع أدوات الذكاء الاصطناعي هذه بقدرة مزعجة على إنشاء محتوى يبدو حقيقيًا بشكل صادم، مما يطمس الخطوط الفاصلة بين ما هو أصيل وما هو ليس كذلك لكل من الوالدين والسلطات المكلفة بمكافحة مواد الاعتداء الجنسي على الأطفال وحماية الأطفال. إنها حقيقة مزعجة تشكل مخاطر كبيرة على سلامة الاطفال عبر الإنترنت. وتقدم مواد الاعتداء الجنسي على الأطفال التي تم إنشاؤها بواسطة الذكاء الاصطناعي بُعدًا جديدًا للتهديدات عبر الإنترنت – إمكانية تضخيم الابتزاز الجنسي. ويمكن للمفترسين – أو الأقران – استغلال هذه الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لتهديد الأطفال أو إكراههم على الامتثال لمطالبهم، سواء كان ذلك إرسال الأموال أو الامتثال للتهديدات أو الانخراط في أعمال جنسية لمنع نشر المحتوى المزيف. وكشف تحقيق أن أشخاصاً مصابين بالبيدوفيليا يستخدمون الذكاء الاصطناعي لإنتاج مواد تحاكي الاعتداء الجنسي على أطفال، وبيعها.[32]
  2. التحرش عبر الإنترنت باستخدام الذكاء الاصطناعي: على عكس التحرش التقليدي، الذي يعتمد فقط على غرائز وتكتيكات المفترس، يستخدم التحرش عبر الذكاء الاصطناعي خوارزميات متقدمة لتحديد واستهداف الضحايا المحتملين بشكل أكثر فعالية. ويتم استخدام الذكاء الاصطناعي لتحليل أنشطة الطفل عبر الإنترنت وأنماط الاتصال والمعلومات الشخصية، مما يسمح للمفترسين بتخصيص أساليبهم لاستغلال نقاط الضعف , ويبدأ التحرش عبر الإنترنت عادةً بمحاولة المفترسين بناء الثقة وبناء علاقة مع الطفل. ويعزز الذكاء الاصطناعي هذه العملية من خلال أتمتة تحليل كميات هائلة من البيانات، مما يتيح للمفترسين تحديد الأهداف المحتملة بدقة أكبر. يمكن لهذه الخوارزميات اكتشاف أنماط السلوك والاهتمامات وحتى الحالات العاطفية، مما يجعل التحرش أسهل بكثير.[33]
  3. الخداع العميق وانتحال الشخصية: الخداع العميق، المدعوم بالذكاء الاصطناعي، يتضمن التلاعب بالصور والصوت لإنشاء محتوى مقنع، ولكنه مزيف تمامًا. وفي سياق الأطفال عبر الإنترنت، يترجم هذا إلى إنشاء هويات مزيفة، وربما انتحال شخصية طفل آخر معروف للضحية، مما يؤدي إلى مجموعة من التهديدات والسيناريوهات التلاعبية. ويمكن للمفترسين استغلال إمكانات التزييف العميق باستخدام الذكاء الاصطناعي لانتحال شخصية الأطفال، والتسلل إلى المساحات عبر الإنترنت حيث يمكنهم خداع الضحايا غير المطمئنين لبناء الثقة أو الانخراط في تفاعلات صريحة. ويمكن أن يكون هذا التلاعب مقنعًا بشكل خاص عندما ينتحل المفترس شخصية شخص مألوف للطفل، ويستغل اتصالاته السابقة لتقليل حذره. قد يكون الهدف النهائي هو إجبار الطفل على إرسال محتوى صريح، أو الانخراط في أفعال جنسية، أو إقامة علاقة مبنية على الخداع والتلاعب.[34]
  4. الافتقار إلى التنظيم: إن الخطر الشامل المرتبط بالذكاء الاصطناعي هو الافتقار إلى التنظيم. فالمحتوى المقدم من خلال أدوات ومنصات الذكاء الاصطناعي لا يخضع حاليًا للاعتدال، وهذا يفرض مجموعة كبيرة من المخاطر المحتملة، وخاصة بالنسبة للشباب. وقد يؤدي المحتوى غير المنظم إلى تعريض الأطفال لمحتوى ضار أو غير مناسب قد يكون متحيزًا أو تمييزيًا أيضًا.
  5. المعلومات المضللة: قد يتعرض الأطفال لمعلومات غير صحيحة أو مضللة من مولدات الصور ومنصات الدردشة التي تعمل بالذكاء الاصطناعي. ومع قدرة الذكاء الاصطناعي على توليد التزييف العميق (المعلومات والصور ومقاطع الفيديو والتسجيلات المزيفة)، أصبح من الصعب بشكل متزايد تحديد المصادر الموثوقة ومعرفة ما إذا كان المحتوى أصليًا أم تم التلاعب به. ويمكن استخدام التزييف العميق لأغراض خبيثة لخداع الناس وإيذاء الأفراد، بما في ذلك الأطفال والشباب.[35]
  6. خصوصية البيانات وحمايتها: غالبًا ما تجمع المنصات التي تعمل بالذكاء الاصطناعي كميات هائلة من البيانات، بما في ذلك المعلومات الشخصية، لتوفير محتوى مخصص وتحسين تجربة المستخدم. ومع ذلك، فإن الافتقار إلى التنظيم يمكن أن يؤدي إلى ضعف حماية البيانات، مما يعرض المعلومات الحساسة للأطفال لخطر الاستغلال أو إساءة الاستخدام.[36]
  7. المفترسون عبر الإنترنت : يمكن للذكاء الاصطناعي على وجه الخصوص تمكين المفترسين عبر الإنترنت من إخفاء هوياتهم الحقيقية والاختباء وراء الشخصيات. يمكنهم استخدام أدوات الذكاء الاصطناعي لإنشاء سرديات تحاكي تلك الخاصة بالطفل، مما يزيد من خطر الاستمالة والاستغلال. توفر الألعاب والعوالم الافتراضية التي أنشأها الذكاء الاصطناعي فرصًا كبيرة للتفاعل الاجتماعي، ولكنها يمكن أن تعرض الأطفال أيضًا لسلوكيات مفترسة. قد يستخدم المعتدون عبر الإنترنت هذا المجتمع الآمن على ما يبدو لاستغلال ثقة الأطفال وضعفهم[37]
  8. تقليص التفاعل البشري في المجتمع : يواجه الأطفال والمراهقون حالياً وباء العزلة الاجتماعية، ويمكن أن تقلل الأنظمة المستندة إلى الذكاء الاصطناعي من الوقت الذي يقضونه في التفاعل مع الآخرين. وإذا أصبح الأطفال يعتمدون كثيراً على أنظمة الذكاء الاصطناعي، فقد يؤدي ذلك إلى تفويت الاتصال البشري الحاسم والضروري مع الاصدقاء[38]

في عالم مليء بالتكنولوجيا، تواجه الاسرة مجموعة جديدة من التحديات عندما يتعلق الأمر بالحفاظ على سلامة أطفالهم عبر الإنترنت. تذكر هذه المخاطر التكنولوجية العالية بأن الاتصال بالإنترنت يأتي مع مخاطر حقيقية للغاية، بالإضافة إلى فوائده المتأصلة. أصبح الذكاء الاصطناعي جزءًا طبيعيًا بشكل متزايد من الحياة اليومية – وهو أمر لا مفر منه، وبالتالي، لا بد من الاهتمام ومراقبة سلوكيات الاطفال في استخداماتهم للذكاء الاصطناعي , إن البقاء على اطلاع واتخاذ خطوات عملية لكي نكون الآباء المتمرسين في مجال التكنولوجيا الذين يحتاجهم الاطفال ليس مجرد مكافأة؛ بل إنه أمر لا بد منه في هذا العصر الرقمي , ويمكن مكافحة مخاطر الذكاء الاصطناعي

  1. متابعة الاطفال : لا بد من متابعة الاطفال حول أنشطتهم عبر الإنترنت. و مشاركة تجاربهم والتعبير عن مخاوفهم والوعي بالمخاطر المحتملة المرتبطة بالمحتوى الصريح عبر الإنترنت.[39]
  2. التثقيف بشأن المواطنة الرقمية المسؤولة: لا بد من تثقيف الأطفال حول المواطنة الرقمية المسؤولة. والتأكيد على أهمية الخصوصية والسلوك المحترم عبر الإنترنت والعواقب المحتملة لمشاركة المحتوى الصريح.[40]
  3. وضع حدود واضحة للأطفال : من الضروري وضع حدود واضحة فيما يتعلق بمشاركة الاطفال المعلومات الشخصية والمحتوى الصريح عبر الإنترنت. وتشجع الأطفال على التفكير قبل نشر أو مشاركة أي شيء يمكن إساءة استخدامه.[41]
  4. مراقبة أنشطة الاطفال عبر الإنترنت: من خلال بتنفيذ برنامج الرقابة الأبوية لمراقبة وتقييد الوصول إلى المحتوى الضار المحتمل. والتحقق بانتظام من أنشطة الاطفال عبر الإنترنت والانخراط في محادثات مستمرة حول تجاربهم الرقمية.[42]
  5. الابلاغ عن الأنشطة المشبوهة: لا بد من تثقيف الاطفال حول أهمية الإبلاغ عن أي لقاءات مشبوهة أو غير مريحة عبر الإنترنت على الفور.
  6. التشجيع التفكيري النقدي : لا بد من تشجيع الاطفال على التشكيك في المعلومات التي يواجهها عبر الإنترنت والمساعدة في تحديد مصادر المعلومات الموثوقة. وشرح أهمية الأمان للحفاظ على بصمة رقمية إيجابية وكيفية استخدام كلمات مرور قوية لحماية البيانات الشخصية.[43]
  7. رفع مستوى الوعي بالمخاطر : لابد من بيان المخاطر المرتبطة بالتواصل مع الغرباء عبر الإنترنت , وشرح كيفية تحديد المحتوى غير اللائق. وتشجيع الأطفال على طلب المساعدة من شخص بالغ موثوق به إذا صادفوا هذا.[44]

في ظل التطورات الهائلة التي يشهدها عصرنا الراهن أصبح الإبداع والابتكار أكثر أهمية من أي وقت مضى؛ وإن تبني هذه التطورات التكنولوجية يمكن أن يفتح فرصًا لا حصر لها للإبداع والتفاعل الاجتماعي، ولكنه يثير أيضًا مخاوف بشأن المحتوى غير المنظم، والتزييف العميق، وخصوصية البيانات، وخاصة بالنسبة للشباب. من الضروري أن يدرك الطفل الفوائد والمخاطر التي يفرضها الذكاء الاصطناعي على أطفالنا وكيفية مساعدتهم على البقاء آمنين.[45]

ان التصور لمستقبل التعليم في مرحلة الطفولة المبكرة، من الواضح أن الذكاء الاصطناعي سيلعب دورًا محوريًا في تشكيل بيئات التعلم. وإن قدرة الذكاء الاصطناعي على التكيف والتطور تتوافق بسلاسة مع مفهوم التعلم مدى الحياة. إن التعرض المبكر للتعليم القائم على الذكاء الاصطناعي يزود المتعلمين الصغار بالمهارات اللازمة لسوق العمل المتغيرة باستمرار. ويشمل ذلك التفكير النقدي وحل المشكلات ومهارات معرفة القراءة والكتابة الرقمية التي تعد ضرورية في القرن الحادي والعشرين. حيث إن الذكاء الاصطناعي لديه القدرة على سد الفجوة في إمكانية الوصول إلى التعليم. من خلال المنصات عبر الإنترنت التي تعمل بالذكاء الاصطناعي، ويمكن للأطفال في جميع أنحاء العالم الوصول إلى تعليم جيد، والتغلب على الحواجز الجغرافية. وتضمن هذه الديمقراطية في التعليم أن كل طفل لديه الفرصة لإطلاق العنان لإمكاناته الكاملة.[46]

إن دمج الذكاء الاصطناعي في تعليم مرحلة الطفولة المبكرة شكل تحولاً في الطريقة التي نتعامل بها مع التعلم. وإن الفوائد المحتملة بما في ذلك مسارات التعلم الشخصية، والتجارب التفاعلية، ودعم المعلمين المعزز، كبيرة. ومع ذلك، من الأهمية بمكان التعامل مع التحديات بذكاء، وضمان إعطاء الأولوية للاعتبارات الأخلاقية، وخصوصية البيانات، والحفاظ على العلاقة بين المعلم والطالب.[47] لذا هناك فوائد للذكاء الاصطناعي للأطفال يمكن بيانها كما يلي :

  1. تمكين الإبداع وخلق تجارب تعليمية فريدة : يمكن للأدوات التي تعمل بالذكاء الاصطناعي أن تعزز تجارب التعلم لدى الأطفال وتشجعهم على التفكير خارج الصندوق، مما يسمح لهم برؤية الأشياء من منظور مختلف. يمكنهم توفير الإلهام والمساعدة في توليد أفكار جديدة قد لا يفكر فيها الأطفال بأنفسهم. يمكن للمنصات والتطبيقات التعليمية التي تستخدم الذكاء الاصطناعي أيضًا التكيف مع أسلوب التعلم الفريد لكل طفل، وتوفير مسارات تعليمية مخصصة.[48]
  2. المساعدة في المهام الصعبة: بالإضافة إلى إنشاء برامج تعليمية فريدة بناءً على مستوى قدرة الطفل، يمكن للذكاء الاصطناعي أيضًا مساعدة الأطفال الذين يعانون من تحديات التعلم، مثل عسر القراءة أو اضطرابات الانتباه. ويمكن للمعلمين الافتراضيين تقديم دعم مخصص وملاحظات شخصية وتعزيز إيجابي، مما يوفر الكثير من الفرص للنمو.[49]
  3. توفير الرفقة والتفاعل الاجتماعي: يمكن أن توفر أدوات الذكاء الاصطناعي والمساعدين الافتراضيين ومنصات الدردشة الدعم العاطفي الحيوي والتفاعل الاجتماعي للأطفال، وخاصة أولئك الذين يعانون من حالات عصبية متنوعة. يمكن لهذه الأدوات تعزيز المهارات الاجتماعية والفهم العاطفي للأطفال، مما يخلق تأثيرًا إيجابيًا على نموهم وصحتهم العقلية.[50]
  4. تعزيز وصول الأطفال إلى تجارب ثرية: بالنسبة للأطفال في المناطق النائية أو المحرومة، يمكن للذكاء الاصطناعي سد الفجوة وتوفير الوصول إلى ثروة من المعرفة. توفر أنظمة الواقع الافتراضي والواقع المعزز تجارب غامرة وتفاعلية قد لا تكون متاحة لكثير من الشباب بخلاف ذلك. على سبيل المثال، يمكن لسماعات الواقع الافتراضي نقل الأطفال إلى قارات أخرى ومنحهم الفرصة لتجربة ثقافات مختلفة. تعمل أدوات ترجمة اللغات بالذكاء الاصطناعي أيضًا على تعزيز التواصل وتوفير الدعم بالعديد من اللغات، وكسر الحواجز اللغوية.[51]
  5. إن الذكاء الاصطناعي أداة قيمة للتعلم: يمكن استخدام الذكاء الاصطناعي لتخصيص الدروس وتجارب التعلم وفقًا للاحتياجات الفردية للأطفال الصغار والمراهقين. ويمكن أن يساعد المعلمين والآباء في إيجاد طرق لإثراء التعلم للأطفال من جميع القدرات في مراحل مختلفة من النمو والتطور. وعلى الرغم من أنه ليس بديلاً جيدًا للمحادثة المباشرة، إلا أنه يمكن أن يساعد الأطفال على تحسين مهاراتهم اللغوية وحتى تعلم لغات جديدة.[52]
  6. يمكن أن يعزز الإبداع: يحتاج الأطفال إلى طرق للتعبير عن أفكارهم من خلال الصور والرسوم البيانية والمزيد. والذكاء الاصطناعي ليس قيمًا للفنانين المبتدئين فحسب، بل وأيضًا للأطفال الذين يريدون إنشاء عروض بيانات ومخططات ورسوم كاريكاتورية بسيطة ومواد مرئية أخرى.
  7. التحفيز : قد يحفز ويشرك الأطفال بطرق جديدة. يمكن أن يكون الذكاء الاصطناعي تفاعليًا وممتعًا للأطفال، حيث يقدم طرقًا جديدة للاستمتاع واستكشاف عالمهم. بالنسبة للبعض، قد تكون هذه تجربة تغير الحياة وتفتح أبوابًا جديدة وتعزز الأداء المدرسي وتساعدهم على الاستعداد لتحديات الحياة البالغة.[53]

الخاتمة والنتائج والتوصيات

اولا: الخاتمة

شكَّلت خاتمة الدِّراسة حصيلة النتائج التي تمثل الإجابة عن أسئلة الدِّراسة بالإضافة إلى تقديم مجموعة من التوصيات, وقد تناولت الدِّراسة مخاطر الذكاء الاصطناعي على المنظومة الأخلاقية للطفولة, وبينت الدراسة مساهمة الذكاء الاصطناعي في تطوير جوانب الحياة من الرعاية الصحية والتعليم والمعرفة إلى التمويل والنقل ومستقبل تكنولوجي مستدام.

وبينت الدراسة إن الإفراط في الاعتماد على الذكاء الاصطناعي قد يؤدي إلى فقدان التأثير البشري – ونقص الأداء البشري – في بعض أجزاء المجتمع بالإضافة الى ذلك فان توظيف تقنيات الذكاء الاصطناعي قد يزيد الأنشطة الإجرامية والخداعية، مثل الاحتيال الإلكتروني، والاختراقات السيبرانية، والتضليل الإعلامي، والتلاعب بالأسواق الاقتصادية، وغيرها من الأنشطة غير القانونية وغير الأخلاقية ويمكن للمتسللين والجهات الخبيثة تسخير قوة الذكاء الاصطناعي لتطوير هجمات إلكترونية أكثر تقدمًا، وتجاوز تدابير الأمن، واستغلال نقاط الضعف في الأنظمة. وللتخفيف من هذه المخاطر الأمنية

قد يؤدي الإفراط في الاعتماد على أنظمة الذكاء الاصطناعي إلى فقدان الإبداع ومهارات التفكير النقدي والحدس البشري, وان إن الاعتماد المتزايد على الاتصالات والتفاعلات التي يقودها الذكاء الاصطناعي قد يؤدي إلى انخفاض التعاطف والمهارات الاجتماعية والاتصالات البشرية. وقد تظهر أنظمة الذكاء الاصطناعي، بسبب تعقيدها وافتقارها إلى الإشراف البشري، سلوكيات غير متوقعة أو تتخذ قرارات بعواقب غير متوقعة. قد تظهر أنظمة الذكاء الاصطناعي، بسبب تعقيدها وافتقارها إلى الإشراف البشري، سلوكيات غير متوقعة أو تتخذ قرارات بعواقب غير متوقعة. إ

إن تطوير الذكاء الاصطناعي العام الذي يتفوق على الذكاء البشري يثير مخاوف طويلة الأمد بشأن البشرية

ويجسد الذكاء الاصطناعي في جوهره، مجموعة من المبادئ التي تهدف إلى ضمان إعطاء الأولوية للعدالة والشفافية والمساءلة والفوائد المجتمعية في تطوير ونشر أنظمة الذكاء الاصطناعي. ويتطلب مبدأ العدالة تصميم أنظمة الذكاء الاصطناعي للتخفيف من التحيزات، وعلى المستخدمين الذكاء الاصطناعي تحمل المسؤولية عن نتائج إبداعاتهم، واكدت الدراسة الذكاء الاصطناعي يركز على الأهمية القصوى للخصوصية، وتدعو إلى حماية البيانات الشخصية وتنفيذ تدابير الموافقة المستنيرة.

ان الذكاء الاصطناعي يشكل تهديدًا مباشرًا، ولكن زيادة وقت استخدام الشاشات قد تجعل الأطفال يعتمدون على المنصات الرقمية منذ سن مبكرة. وفي المقابل، قد يؤدي هذا إلى عواقب جسدية وعقلية مختلفة بما في ذلك على سبيل المثال لا الحصر، الاكتئاب والقلق والسمنة والصداع النصفي وإجهاد العين وسوء الوضعية والأرق.

ثانيا : نتائج الدراسة

  1. بينت الدراسة مساهمة الذكاء الاصطناعي في تطوير جوانب الحياة من الرعاية الصحية والتعليم والمعرفة إلى التمويل والنقل ومستقبل تكنولوجي مستدام.
  2. بينت الدراسة إن الإفراط في الاعتماد على الذكاء الاصطناعي قد يؤدي إلى فقدان التأثير البشري – ونقص الأداء البشري – في بعض أجزاء المجتمع
  3. بينت الدراسة ان توظيف تقنيات الذكاء الاصطناعي قد يزيد الأنشطة الإجرامية والخداعية، مثل الاحتيال الإلكتروني، والاختراقات السيبرانية، والتضليل الإعلامي، والتلاعب بالأسواق الاقتصادية، وغيرها من الأنشطة غير القانونية وغير الأخلاقية
  4. اكدت الدراسة ان الإفراط في الاعتماد على أنظمة الذكاء الاصطناعي قد يؤدي إلى فقدان الإبداع ومهارات التفكير النقدي والحدس البشري, وانخفاض التعاطف والمهارات الاجتماعية والاتصالات البشرية.
  5. اكدت الدراسة إن تطوير الذكاء الاصطناعي العام الذي يتفوق على الذكاء البشري يثير مخاوف طويلة الأمد بشأن البشرية
  6. بينت الدراسة ان الذكاء الاصطناعي قد يؤدي هذا إلى عواقب جسدية وعقلية مختلفة بما في ذلك على سبيل المثال لا الحصر، الاكتئاب والقلق والسمنة والصداع النصفي وإجهاد العين وسوء الوضعية والأرق.

ثالثا : التوصيات

  1. على الحكومات والمنظمات تطوير أفضل الممارسات لتطوير الذكاء الاصطناعي ونشره بشكل آمن وتعزيز التعاون الدولي لإنشاء معايير ولوائح عالمية تحمي من تهديدات أمن الذكاء الاصطناعي
  2. من الضروري وضع قوانين رادعه تحمي الأطفال من المحتوى الضار أو الانتهاكات التي قد تحدث عبر تقنيات الذكاء الاصطناعي
  3. لا بد على المدرسة والاسرة إشراك الأطفال في النقاشات حول كيفية استخدام التكنولوجيا، مما يمنحهم صوتًا ويعزز من شعورهم بالمسؤولية.
  4. على وزارة التربية إنشاء برامج تعليمية فريدة تتناسب مستوى قدرة الطفل لفهم مخاطر الانترنت

المراجع

المراجع العربية

أحمد , حسن إسماعيل (2024). الذكاء الاصطناعي.. هل يمكنك أن تأتمنه على أطفالك؟, مركز الجزيرة للدراسات , 17, شباط, قطر

أحمد , حسن إسماعيل (2024). شركات الذكاء الاصطناعي في خطر.. والسبب الاستثمارات الكبيرة, مركز الجزيرة للدراسات , 19, ايلول, قطر.

أروى, بريجية (2018).مراحل الطفولة وخصائصها, موقع موضوع , 2, كانون اول, الاردن.

الاسطل، محمد وعقل، عز والأغا، محمود (2021 .)تطوير نموذج مقترح قائم على الذكاء الاصطناعي وفاعليته في تنمية مهارات البرمجة لدى طالب الكلية الجامعية للعلوم و التكنولوجيا بخان يونس، مجلة الجامعة الإسلامية للدراسات التربوية والنفسية، فلسطين.

أصالة رقیق( 2015). استخدام تطبيقات الذكاء الاصطناعي في إدارة أنشطة المؤسسة، مذكرة مكملة ضمن متطلبات نیل شهادة ماستر أكاديمي، أم البواقي، الجزائر

ألطاف موتي (2024). حول جذري للذكاء الاصطناعي: إعادة تعريف العمل والثروة والقوى العاملة, صحيفة عربي21, 24, كانون ثاني,تركيا.

أماني , أحمد مختار (2024). تأثير الذكاء الاصطناعي على الأداء الاقتصادي للدول, مركز المعلومات ودعم اتخاذ القرارات ,21, كانون ثاني, مصر.

أنابيلا, ليانغ (2024). الذكاء الاصطناعي “سيؤثر على 40 في المئة من الوظائف ويؤدي إلى تفاقم عدم المساواة, صحيفة عربي نيوز,15, كانون الثاني, الأمارات العربية .

أنغوس كروفورد , وتوني سميث (2023). كيف يستخدم الذكاء الاصطناعي للاتجار بصور الاعتداء الجنسي على أطفال؟ ,صحيفة عربي نيوز,28, حزيران, الامارات العربية

ايمن , محمد (2022). ما هي مخاطر الذكاء الاصطناعي؟… وهل فوائده تفوق المخاطر؟, صحيفة اليوم السابع ,25, تشرين الثاني, مصر.

باسم , راشد (2019). فرص ومخاطر استخدامات الذكاء الاصطناعي في مكافحة الإرهاب, مركز المستقبل للأبحاث والدراسات المتقدمة , 9, تشرين اول, لبنان

بو خالد، نور خليل (2020 .) أثر الذكاء الاصطناعي على التوظيف في الشركات عالية الثقافة في السوق الأردني. ( رسالة ماجستير غير منشورة) ، كلية الأعمال، قسم إدارة الأعمال. جامعة الشرق الأوسط، الأردن

الجبوري , نبيل (2023). خطوات لتفادي “التزييف العميق” وأدوات لكشف التلاعب بالصور والفيديوهات, شبكة الصحفيين الدوليين, 6, ايلول, مصر.

جميل, عبداللطيف (2024). الذكاء الاصطناعي يقود قاطرة تطوير التعليم, 5, حزيران، الإمارات العربية المتحدة

حازم , الجندي(2024). حوكمة الذكاء الاصطناعي وتنظيمه تشريعيا, صحيفة اليوم السابع ,27, اب, مصر.

حميدي, علاء الدين (2024). الذكاء الاصطناعي.. الثورة القادمة في عالم التكنولوجيا!, مركز الجزيرة للدراسات, 10, تموز, قطر.

خديجة, قانون (2024). من يتحمل المسؤولية في جرائم الذكاء الاصطناعي؟, مركز الجزيرة للدراسات , 5,حزيران, قطر.

خوالد، أبو بكر وآخرون (2019 .)تطبيقات الذكاء الاصطناعي كتوجه حديث لتعزيز تنافسية منظمات الأعمال. المركز الديمقراطي العربي للدراسات الاستراتيجية والسياسية والاقتصادي، برلين -ألمانيا.

الدلقموني, رماح (2023). مستقبل الذكاء الاصطناعي.. ما هي أسوأ مخاطرة المحتملة؟ وكيف نتصدى لها؟, مركز الجزيرة للدراسات,11, حزيران, قطر.

الراشد، خولة (2018)، مستوى المواطنة الرقمية لدى طلبة الجامعات الأردنية الحكومية وتصور مستقبلي لتطويرها، رسالة دكتورة، الجامعة الأردنية، عمان، الأردن.

الشوابكة، عدنان. (2017).دور تطبيقات الذكاء الاصطناعي “النظم الخبيرة” في اتخاذ القرارات الإدارية في البنوك السعودية العامة في محافظة الطائف. جامعة الطائف، مجلة العلوم الإنسانية , السعودية

صالح، فاتن عبدالله ابراهيم(2009 ) .أثر تطبيق الذكاء الاصطناعي والذكاء العاطفي عمى جودة اتخاذ القرارات. رسالة ماجستير غير منشورة، جامعة الشرق الأوسط: عمان-الأردن

صحيفة الامارات اليوم (2016). المفترس, أداة جديدة تكشف المواقع الخبيثة قبل بدء نشاطها على الإنتـرنت,1, تشرين ثاني, الامارات العربية

صحيفة عربي نيوز(2023). ما مخاطر تقنيات الذكاء الاصطناعي إذا وصلت للأيدي الخاطئة؟ 10, ايار, الامارات العربية

الطائي , يوسف ده رون عبد االله. وريا رشيد (.2017 ). القيادة الأخلاقية ودورها في النزاهة التنظيمية للحد من مغذيات الفساد الإداري. دراسة تطبيقية. مجلة جامعة التنمية البشرية.

الطلافيح , ضحى (2023). نظريات التعلم: أنواعها وأهميتها وتطبيقاتها, منصة المعلم , 25, تشرين ثاني, مصر.

طوالبة، هادي (2017). المواطنة الرقمية في كتب التربية الوطنية والمدنية. دراسة تحليلية، المجلة الأردنية في العلوم التربوية، (3) 13 , الاردن, 291_.308

عبد الله ,مثنى (2024). الإبداع والابتكار في عصر الثقافة الرقمية!, مركز الجزيرة للدراسات, 30,حزيران,قطر.

العبيدي، رأفت عاصم( 2015) دور الذكاء الاصطناعي في تحقيق الإنتاج الاخضر، دراسة استطلاعية ألداء المديرين في عينة من الشركات الصناعية العاملة، مجلة جامعة كركوك للعلوم الإدارية والاقتصادية، جامعة كركوك، العراق، 5(1 ،)34-61.

العسيري , محمد (2023). مخاطر وتحديات الذكاء الاصطناعي, معهد العربية للدراسات, 5, حزيران, الامارات العربية.

عضيبات , انس( 2023). الذكاء الاصطناعي في التعليم سد الفجوة بين الواقع والمستقبل المأمول, صحيفة الراي ,27, اب, الاردن.

العوضي، رأفت وأبو لطيفة(2020) تأثير توظيف الذكاء الاصطناعي على تطوير العمل الإداري في ضوء مبادئ الحوكمة دراسة ميدانية على الوزارات الفلسطينية في محافظات غزة (المؤتمر الدولي الأول لتكنولوجيا المعلومات والأعمال). فلسطين.

قناة الفلوجة (2024). تكنولوجيا – ما هي مخاطر الذكاء الاصطناعي على الأطفال ؟18, شباط, العراق.

قناة سنترال (2024). مع ارتفاع حالات “الابتزاز الجنسي”.. تحذيرات من استخدام الذكاء الاصطناعي في التحرش بالأطفال,23, نيسان, العراق.

كريستيان, رافلاوب (2023). الآلة والأخلاق.. تحديات الذكاء الاصطناعي, موقع سويزلاند , 15, كانون اول , سويسرا

المصري، مروان وليد سليمان، شعت، أكرم حسن( 2017). مستوى المواطنة الرقمية لدى عينة من طلبة جامعة فلسطين من وجهة نظرهم. مجلة جامعة فلسطين للأبحاث والدراسات. فلسطين. ص , 200_168

مكاوي، مرام عبد الرحمن (2018 .)الذكاء الاصطناعي على أبواب التعليم. مجلة القافلة، أرامكو (.15-11،) ،السعودية العربية المملكة

منجية إبراهيم (2024). الذكاء الاصطناعي في خدمة التعليم: الثورة والتحديات!, منصة اعناب,23,تموز,مصر,

مها, العجمي (2024). الذكاء الاصطناعي في التعليم لدى مرحلة الطفولة المبكرة, موقع قرة لحضانة الأطفال, 10, اذار , السعودية

مهدي، حسن ربحي (2018). الوعي بالمواطنة الرقمية بين مستخدمي شبكات التواصل الاجتماعي م، جامعة الأقصى وعلاقته ببعض المتغيرات. المجلة الدولية لنظم إدارة التعلم، المجلد (6) العدد (1). ص -11 .24

مؤسسة نيوفيرستي التعليمية(2024). الذكاء الاصطناعي للأطفال: أفضل البرامج التعليمية, 17, تموز, المانيا.

موقع إرم نيوز (2024). هل الذكاء الاصطناعي قادر على إعادة تشكيل التعليم في مرحلة الطفولة؟13, حزيران , الامارات العربية .

نورهان عصام (2023). دور الذكاء الاصطناعي في المعامل الافتراضية والتعليم, موقع براكسيلابس, 19, نيسان , السعودية .

هدير , حسام(2024). الذكاء الاصطناعي بين المنافع والمخاوف توجهات الصحف الأجنبية, مركز المعلومات ودعم اتخاذ القرارات ,21, كانون ثاني, مصر.

الياجزي، فاتن حسن (2019 .)استخدام تطبيقات الذكاء الاصطناعي في دعم التعليم الجامعي بالمملكة العربية السعودية، دراسات عربية في التربية وعلم النفس، رابطة التربويين العرب،( .181-154، ( السعودية

ثانيا : المراجع الاجنبية

Alharbi, W.O & Alturki, K. I. (2018). Social Media Contribution to the Promotion of Digital Citizenship among Female Students at Imam Mohammed bin Saud Islamic University in Riyadh. Saudi Arabia: Riyadh. Canadian Center of Science and Education

Buah, E., Linnanen, L., Wu, H. & Kesse, M. (2020). Can Artificial Intelligence Assist Project Developers in Long-Term Management of Energy Projects? The Case of CO2 Capture and Storage. Energies, 13(23), 6259.

Hardt, M., Price, E., & Srebro, N. (2016). Equality of Opportunity in Supervised Learning. In Advances in Neural Information Processing Systems (pp. 3315-3323).

Keding, C., and Meissner, P. (2021). Managerial overreliance on AI-augmented decision-making processes: how the use of AI-based advisory systems shapes choice behavior in RandD investment decisions. Technol. Forecast. Soc.

Nadimpalli, M. (2017). Artificial Intelligence Risks and Benefits. International Journal of Innovative Research in Science, Engineering and Technology, 6(6), 1-5.

Nomisha Kurian(2023) AI’s empathy gap: The risks of conversational Artificial Intelligence for young children’s well-being and key ethical considerations for early childhood education and care, October 17,USA

Zafar, M. B., Valera, I., Rodriguez, M. G., & Gummadi, K. P. (2017). Fairness Constraints: Mechanisms for Fair Classification. In Proceedings of the 34th International Conference on Machine Learning (Vol. 70, pp. 3249-3258

Margins:

  1. – نورهان عصام (2023). دور الذكاء الاصطناعي في المعامل الافتراضية والتعليم, موقع براكسيلابس, 19, نيسان , السعودية .

  2. – ايمن , محمد (2022). ما هي مخاطر الذكاء الاصطناعي؟… وهل فوائده تفوق المخاطر؟, صحيفة اليوم السابع ,25, تشرين الثاني, مصر.

  3. – أروى, بريجية (2018).مراحل الطفولة وخصائصها, موقع موضوع , 2, كانون اول, الاردن.

  4. – الطائي , يوسف ده رون عبد االله. وريا رشيد (.2017 ). القيادة الأخلاقية ودورها في النزاهة التنظيمية للحد من مغذيات الفساد الإداري. دراسة تطبيقية. مجلة جامعة التنمية البشرية.

  5. – الطلافيح , ضحى (2023). نظريات التعلم: أنواعها وأهميتها وتطبيقاتها, منصة المعلم , 25, تشرين ثاني, مصر.

  6. – الياجزي، فاتن حسن (2019 .)استخدام تطبيقات الذكاء الاصطناعي في دعم التعليم الجامعي بالمملكة العربية السعودية، دراسات عربية في التربية وعلم النفس، رابطة التربويين العرب،( .181-154، ( السعودية

  7. – صالح، فاتن عبدالله ابراهيم(2009 ) .أثر تطبيق الذكاء الاصطناعي والذكاء العاطفي عمى جودة اتخاذ القرارات. رسالة ماجستير غير منشورة، جامعة الشرق الأوسط: عمان-الأردن

  8. – العوضي، رأفت وأبو لطيفة(2020) تأثير توظيف الذكاء الاصطناعي على تطوير العمل الإداري في ضوء مبادئ الحوكمة دراسة ميدانية على الوزارات الفلسطينية في محافظات غزة(. المؤتمر الدولي الأول لتكنولوجيا المعلومات والأعمال). فلسطين.

  9. – الشوابكة، عدنان. (2017).دور تطبيقات الذكاء الاصطناعي “النظم الخبيرة” في اتخاذ القرارات الإدارية في البنوك السعودية العامة في محافظة الطائف. جامعة الطائف، مجلة العلوم الإنسانية , السعودية

  10. – Buah, E., Linnanen, L., Wu, H. & Kesse, M. (2020). Can Artificial Intelligence Assist Project Developers in Long-Term Management of Energy Projects? The Case of CO2 Capture and Storage. Energies, 13(23), 6259.

  11. – Keding, C., and Meissner, P. (2021). Managerial overreliance on AI-augmented decision-making processes: how the use of AI-based advisory systems shapes choice behavior in RandD investment decisions. Technol. Forecast. Soc.

  12. – Zafar, M. B., Valera, I., Rodriguez, M. G., & Gummadi, K. P. (2017). Fairness Constraints: Mechanisms for Fair Classification. In Proceedings of the 34th International Conference on Machine Learning (Vol. 70, pp. 3249-3258

  13. – خوالد، أبو بكر وآخرون (2019 .)تطبيقات الذكاء الاصطناعي كتوجه حديث لتعزيز تنافسية منظمات الأعمال. المركز الديمقراطي العربي للدراسات الاستراتيجية والسياسية والاقتصادي، برلين -ألمانيا.

  14. – بو خالد، نور خليل (2020 .) أثر الذكاء الاصطناعي على التوظيف في الشركات عالية الثقافة في السوق الأردني. ( رسالة ماجستير غير منشورة) ، كلية الأعمال، قسم إدارة الأعمال. جامعة الشرق الأوسط، الأردن

  15. – أصالة رقیق( 2015). استخدام تطبيقات الذكاء الاصطناعي في إدارة أنشطة المؤسسة، مذكرة مكملة ضمن متطلبات نیل شهادة ماستر أكاديمي، أم البواقي، الجزائر

  16. – الاسطل، محمد وعقل، عز والاغاء، محمود (2021 .)تطوير نموذج مقترح قائم على الذكاء الاصطناعي وفاعليته في تنمية مهارات البرمجة لدى طالب الكلية الجامعية للعلوم و التكنولوجيا بخان يونس، مجلة الجامعة الإسلامية للدراسات التربوية والنفسية، فلسطين

  17. – بو خالد، نور خليل (2020 .)أثر الذكاء الاصطناعي على التوظيف في الشركات عالية الثقافة في السوق الأردني. ( رسالة ماجستير غير منشورة) ، كلية الأعمال، قسم إدارة الأعمال. جامعة الشرق الأوسط، الأردن

  18. – العبيدي، رأفت عاصم( 2015) دور الذكاء الاصطناعي في تحقيق الإنتاج الاخضر، دراسة استطلاعية ألداء المديرين في عينة من الشركات الصناعية العاملة، مجلة جامعة كركوك للعلوم الإدارية والاقتصادية، جامعة كركوك، العراق، 5(1 ،)34-61.

  19. – العوضي، رأفت وأبو لطيفة(2020) تأثير توظيف الذكاء الاصطناعي على تطوير العمل الإداري في ضوء مبادئ الحوكمة دراسة ميدانية على الوزارات الفلسطينية في محافظات غزة (المؤتمر الدولي الأول لتكنولوجيا المعلومات والأعمال). فلسطين.

  20. – Hardt, M., Price, E., & Srebro, N. (2016). Equality of Opportunity in Supervised Learning. In Advances in Neural Information Processing Systems (pp. 3315-3323).

  21. – الدلقموني, رماح (2023). مستقبل الذكاء الاصطناعي.. ما هي أسوأ مخاطرة المحتملة؟ وكيف نتصدى لها؟, مركز الجزيرة للدراسات,11, حزيران, قطر.

  22. – ألطاف موتي (2024). حول جذري للذكاء الاصطناعي: إعادة تعريف العمل والثروة والقوى العاملة, صحيفة عربي21, 24, كانون ثاني,تركيا.

  23. – Nadimpalli, M. (2017). Artificial Intelligence Risks and Benefits. International Journal of Innovative Research in Science, Engineering and Technology, 6(6), 1-5.

  24. – العسيري , محمد (2023). مخاطر وتحديات الذكاء الاصطناعي, معهد العربية للدراسات, 5, حزيران, الامارات العربية.

  25. – باسم , راشد (2019). فرص ومخاطر استخدامات الذكاء الاصطناعي في مكافحة الإرهاب, مركز المستقبل للأبحاث والدراسات المتقدمة , 9, تشرين اول, لبنان

  26. – أحمد , حسن إسماعيل (2024). شركات الذكاء الاصطناعي في خطر.. والسبب الاستثمارات الكبيرة, مركز الجزيرة للدراسات , 19, ايلول, قطر.

  27. – أنابيلا, ليانغ (2024). الذكاء الاصطناعي “سيؤثر على 40 في المئة من الوظائف ويؤدي إلى تفاقم عدم المساواة, صحيفة عربي نيوز,15, كانون الثاني, الأمارات العربية .

  28. – أماني , أحمد مختار (2024). تأثير الذكاء الاصطناعي على الأداء الاقتصادي للدول, مركز المعلومات ودعم اتخاذ القرارات ,21, كانون ثاني, مصر.

  29. – خديجة, قانون (2024). من يتحمل المسؤولية في جرائم الذكاء الاصطناعي؟, مركز الجزيرة للدراسات , 5,حزيران, قطر.

  30. – هدير , حسام(2024). الذكاء الاصطناعي بين المنافع والمخاوف توجهات الصحف الأجنبية, مركز المعلومات ودعم اتخاذ القرارات ,21, كانون ثاني, مصر.

  31. – أحمد , حسن إسماعيل (2024). الذكاء الاصطناعي.. هل يمكنك أن تأتمنه على أطفالك؟, مركز الجزيرة للدراسات , 17, شباط, قطر

  32. – أنغوس كروفورد , وتوني سميث (2023). كيف يستخدم الذكاء الاصطناعي للاتجار بصور الاعتداء الجنسي على أطفال؟ ,صحيفة عربي نيوز,28, حزيران, الامارات العربية

  33. – قناة سنترال (2024). مع ارتفاع حالات “الابتزاز الجنسي”.. تحذيرات من استخدام الذكاء الاصطناعي في التحرش بالأطفال,23, نيسان, العراق.

  34. – الجبوري , نبيل (2023). خطوات لتفادي “التزييف العميق” وأدوات لكشف التلاعب بالصور والفيديوهات, شبكة الصحفيين الدوليين, 6, ايلول, مصر.

  35. – صحيفة عربي نيوز(2023). ما مخاطر تقنيات الذكاء الاصطناعي إذا وصلت للأيدي الخاطئة؟ 10, ايار, الامارات العربية

  36. – حميدي, علاء الدين (2024). الذكاء الاصطناعي.. الثورة القادمة في عالم التكنولوجيا!, مركز الجزيرة للدراسات, 10, تموز, قطر.

  37. – صحيفة الامارات اليوم (2016). المفترس, أداة جديدة تكشف المواقع الخبيثة قبل بدء نشاطها على الإنتـرنت,1, تشرين ثاني, الامارات العربية

  38. – قناة الفلوجة (2024). تكنولوجيا – ما هي مخاطر الذكاء الاصطناعي على الأطفال ؟18, شباط, العراق.

  39. – حازم , الجندي(2024). حوكمة الذكاء الاصطناعي وتنظيمه تشريعيا, صحيفة اليوم السابع ,27, اب, مصر.

  40. – المصري، مروان وليد سليمان، شعت، أكرم حسن( 2017). مستوى المواطنة الرقمية لدى عينة من طلبة جامعة فلسطين من وجهة نظرهم. مجلة جامعة فلسطين للأبحاث والدراسات. فلسطين. ص , 200_168

  41. -Alharbi, W.O & Alturki, K. I. (2018). Social Media Contribution to the Promotion of Digital Citizenship among Female Students at Imam Mohammed bin Saud Islamic University in Riyadh. Saudi Arabia: Riyadh. Canadian Center of Science and Education

  42. – الراشد، خولة (2018)، مستوى المواطنة الرقمية لدى طلبة الجامعات الأردنية الحكومية وتصور مستقبلي لتطويرها، رسالة دكتورة، الجامعة الأردنية، عمان، الأردن.

  43. – مهدي، حسن ربحي (2018). الوعي بالمواطنة الرقمية بين مستخدمي شبكات التواصل الاجتماعي م، جامعة الأقصى وعلاقته ببعض المتغيرات. المجلة الدولية لنظم إدارة التعلم، المجلد (6) العدد (1). ص -11 .24

  44. – طوالبة، هادي (2017). المواطنة الرقمية في كتب التربية الوطنية والمدنية. دراسة تحليلية، المجلة الأردنية في العلوم التربوية، (3) 13 , الاردن, 291_.308

  45. – عبد الله ,مثنى (2024). الإبداع والابتكار في عصر الثقافة الرقمية!, مركز الجزيرة للدراسات, 30,حزيران,قطر.

  46. – موقع إرم نيوز (2024). هل الذكاء الاصطناعي قادر على إعادة تشكيل التعليم في مرحلة الطفولة؟13, حزيران , الامارات العربية .

  47. – مها, العجمي (2024). الذكاء الاصطناعي في التعليم لدى مرحلة الطفولة المبكرة, موقع قرة لحضانة الأطفال, 10, اذار , السعودية

  48. – مؤسسة نيوفيرستي التعليمية(2024). الذكاء الاصطناعي للأطفال: أفضل البرامج التعليمية, 17, تموز, المانيا.

  49. – منجية إبراهيم (2024). الذكاء الاصطناعي في خدمة التعليم: الثورة والتحديات!, منصة اعناب,23,تموز,مصر,

  50. – مكاوي، مرام عبد الرحمن (2018 .)الذكاء الاصطناعي على أبواب التعليم. مجلة القافلة، أرامكو (.15-11،) ،السعودية العربية المملكة

  51. – عضيبات , انس( 2023). الذكاء الاصطناعي في التعليم سد الفجوة بين الواقع والمستقبل المأمول, صحيفة الراي ,27, اب, الاردن.

  52. – الاسطل، محمد وعقل، عز والأغا، محمود (2021 .)تطوير نموذج مقترح قائم على الذكاء الاصطناعي وفاعليته في تنمية مهارات البرمجة لدى طالب الكلية الجامعية للعلوم و التكنولوجيا بخان يونس، مجلة الجامعة الإسلامية للدراسات التربوية والنفسية، فلسطين.

  53. – نورهان عصام (2023). دور الذكاء الاصطناعي في المعامل الافتراضية والتعليم, موقع براكسيلابس, 19, نيسان , السعودية .