تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية وسبل تخطيها
| الباحث المراسل | د. نهى موسى العتوم | وزارة التربية والتعليم |
Date Of Submission :2025-08-02
Date Of Submission :2025-08-07
Date Of Publication :2025-11-17
مقدمة الدراسة وخلفيتها النظرية
يعد التعليم العالي من أهم الركائز التي تنهض بالأمم والمجتمعات، وذلك لما لمؤسسات التعليم العالي من دور حيوي في تعظيم القدرة المعرفية للمجتمع بحثًا واستخدامًا وتطبيقًا من خلال ممارسة البحوث العلمية.
وتسعى مؤسسات التعليم العالي إلى تغيير وتطوير برامجها واستراتيجياتها، لتواكب المتغيرات العالمية المتسارعة في المجالات كافة ومنها الثورة العلمية والتكنولوجية، وبالتالي فقد عمدت إلى ادخال واستخدام تقنيات وتطبيقات الذكاء الاصطناعي في أنشطتها؛ لتحقيق وظائفها الثلاثة سواء أكان وظيفة التدريس أم البحث العلمي، وكذلك خدمة المجتمع (المصري، 2022).
لقد أصبح الذكاء الاصطناعي مفهومًا متداولًا ومستخدمًا في مختلف المجالات التقنية والإنسانية، ويعد الذكاء الاصطناعي أحد العلوم المبتكرة التي تعتمد على البرامج الحاسوبية في جعل الآلات المبرمجة والمحوسبة تقوم بالمهام بشكل يشابه عمليات الذكاء البشري والتي تتمثل في: التعليم والاستنباط واتخاذ القرارات (العجمي وآخرون، 2021).
توفر تطبيقات الذكاء الاصطناعي العديد من المزايا للباحثين في المجال التربوي، حيث تدعم الباحثين في مرحلة كتابة التقرير النهائي للبحث، كما يمكن لتطبيقات الذكاء الاصطناعي أن تسهم في تحسين كتابة تقرير البحث من خلال الكشف عن الأخطاء المطبعية وتصحيحها، وإزالة التناقضات النحوية، وتوفير مفردات متقدمة، وتقديم التوصية باستراتيجيات التحسين، وبالتالي تقدم الفرص للباحثين بتخصيص المزيد من الوقت للتجريب والتنفيذ لخطوات البحث وتحليل بياناته (سعد، 2023).
ويمكن توظيف تطبيقات الذكاء الاصطناعي في خدمة البحوث العلمية ويكون ذلك من خلال أدوات مختلفة، فيمكن ترجمة النصوص في مختلف اللغات، ليسهل الاطلاع عليها، وترجمة النصوص والمقالات، من خلال تفعيل استخدام التعلم الآلي والذي يتمكن من التعرف على النصوص باللغة الاصلية، كما يمكن اختيار اللغة المناسبة والتركيبات بشكل يستوعبه القارئ، مما يسهم في توفير الوقت والجهد لترجمة كل ما هو جديد من مؤلفات الباحثين (Guo,2024).
كما وتبرز أدوار لتفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية تتمثل في: رفع الجودة وتعزيز الكفاءة بتخفيض الزمن والمجهود المطلوب في إعداد البحوث العلمية، لما تمتاز به من قدرة عالية على إنشاء نصوص علمية مرتبة ومنسقة في مختلف المواضيع البحثية (Savagno et al,2023)، كما تساهم تطبيقات الذكاء الاصطناعي في توليد الأفكار وإثراء العملية الكتابية بأفكار جديدة ومبتكرة، وتقديم اقتراحات لمواضيع عدة، وتقدم منظورات مختلفة للأفكار المتشابهة (Imran & Lashari, 2023)، كما تبرز أدوار تطبيقات الذكاء الاصطناعي في تعزيز الاصالة بمساعدة الباحثين والمؤسسات التعليمية بالوقاية من الانتحال بواسطة فحص النصوص ومقارنتها بقاعدة بيانات ضخمة من المصادر لكشف التشابهات والتطابقات الدقيقة، وذلك باستخدامها لخوارزميات معقدة لتحليل المحتوى والبحث عن العبارات والأفكار المتشابهة كما ويتم كشف المواد المعاد صياغتها (Liu et al,2023).
وتبرز أهمية تطبيقات الذكاء الاصطناعي في البحوث العلمية في: تحليل البيانات الضخمة، بمعالجة وتحليل كميات هائلة من البيانات بسرعة وكفاءة تفوق قدرات البشر، مما يساعد الباحثين على استخراج معلومات قيمة واكتشاف أنماط جديدة، كما تبرز الأهمية في تصميم التجارب العلمية من خلال اقتراح فرضيات جديدة، واختيار المشاركين المناسبين، وتحسين بروتوكولات التجارب لضمان دقة النتائج، كما لا يمكن إغفال أهمية تطبيقات الذكاء الاصطناعي في أتمته المهام المتكررة مثل جمع البيانات وتحليلها وتنظيمها مما يتيح للباحثين الفرصة للتركيز على المهام الأكثر ابداعًا، كما تساهم تطبيقات الذكاء الاصطناعي في تسريع وتيرة الاكتشافات العلمية بمعالجة البينات بسرعة، واكتشاف الانماط بسرعة، وتطوير نماذج تنبؤيه، وأخيرا تبرز أهمية تطبيقات الذكاء الاصطناعي في تعزيز التعاون العلمي بمشاركة البيانات بسهولة والتواصل الفعال واكتشاف فرص البحث الجديدة مما يشجع التعاون بين الباحثين في مختلف التخصصات (عقوني، 2024).
وعلى الرغم مما تقدم، إلا أن هناك مخاطر محتملة لاستخدام تطبيقات الذكاء الاصطناعي في البحث العلمي تتمثل في: مدى جودة البيانات المتاحة، والأبعاد الأخلاقية والقانونية لاستخدام تطبيقات الذكاء الاصطناعي مثل: حماية الخصوصية والأمان وضمان عدم وجود تحيزات في البيانات المستخرجة من هذه التطبيقات، ولذلك يجب أن يكون هناك إطار قانوني ينظم استخدام هذه التطبيقات، من أجل ضمان استخدام آمن ومسؤول لها والحد من المخاطر المحتملة (فارح، 2023).
كما يمكن أن يؤدي استخدام تطبيقات الذكاء الاصطناعي في البحث العلمي إلى عدم الدقة، ومخاوف بشأن حقوق الطبع والنشر، والإسناد، والانتحال، والتأليف، كما لا بد من الإشارة إلى أن زيادة إنتاج المقالات البحثية الاحتيالية أن يخلق مشاكل خاصة أن تطبيقات الذكاء الاصطناعي تتميز بالسرعة وتستخدم لغة جيدة التنظيم، حيث يصعب حاليًا على القراء البشريين وبرامج مكافحة الانتحال التمييز بين المحتوى الذي يتم باستخدام تطبيقات الذكاء الاصطناعي والمحتوى المكتوب بواسطة الإنسان (Khan,2023).
مشكلة الدراسة
نظرًا للثورة التكنولوجية التي نعيش اليوم، فإن إمكانيات تطبيقات الذكاء الاصطناعي أصبحت متوفرة، وتجذب انتباه طلبة الجامعات والباحثين في المراكز البحثية، وذلك لأن مثل هذه التطبيقات تجعل الحياة البحثية سهلة وأكثر فعالية، كما أنها مجانية فهي في متناول الجميع، كما أنها مفيدة في مختلف المجالات العلمية، وبالتالي أصبحت منتشرة، وعلى الرغم من ذلك إلا أن هناك مجموعة من الدراسات التي أثبتت بأن هناك مجموعة من التحديات التي تواجه تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية ومنها: دراسة (الصويعي، 2025؛ بدوح ومتروف، 2024؛ رمضان، 2024).
ومن هنا جاءت هذه الدراسة لتقصي التحديات التي تواجه تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية، والبحث عن سبل تخطي هذه التحديات.
أسئلة الدراسة
تحدد السؤال الرئيس للدراسة في:
- ما تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية؟
أهداف الدراسة
- تقصي تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية، سعيًا لذليلها.
- التعرف على سبل تخطي تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية.
أهمية الدراسة
تبرز أهمية هذه الدراسة من الناحية النظرية، من أهمية الموضوع في الميدان التربوي، حيث يمكن أن تسهم الدراسة في إثراء الأدب النظري في موضوع الذكاء الاصطناعي وتطبيقاته واهميه تفعيله في البحوث العلمية وفق الضوابط الأخلاقية، كما ستشجع الباحثين على تقديم دراسات أخرى ذات العلاقة بالموضوع، وتبرز أهمية الدراسة من الناحية التطبيقية بأنها قد تفيد الباحثين في تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية، مع مراعاة الأمانة العلمية.
حدود الدراسة
اقتصرت الدراسة على تقصي تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية، والتعرف على سبل تخطي تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية.
مصطلحات الدراسة
الذكاء الاصطناعي: نظام يتعلق بتصميم وتطبيق الخوارزميات للتحليل والتعلم من تفسير البيانات، فهو ينسق وينظم عدة تقنيات للتعلم، واكتشاف الأشكال، المنطق ونظريات الاحتمال، وهو يبحث في كيفية تطوير تكنولوجيا الحواسيب حتى يصبح بمقدورها القيام بتصرفات شبيهة بتلك التي يقوم بها الكائن البشري، مع قابلية للتعلم (مختار، 2022).
ويعرف الذكاء الاصطناعي في البحوث العلمية: بأنه استخدام التقنيات والأدوات المعتمدة على الذكاء الاصطناعي لتعزيز وتحسين الخدمات التعليمية والبحثية، حيث يهدف استخدام تطبيقات الذكاء الاصطناعي في هذا السياق إلى تحسين تجربة الباحثين وتعزيز نجاحهم الأكاديمي والبحثي (الصياد، 2023:674).
البحوث العلمية: الاستخدام المنظم لعدد من الأساليب والإجراءات المختلفة للوصول إلى حل أكثر كفاءة لمشكلة معينة، بدلًا من الوسائل الأقل فاعلية بهذا الشأن، والوسيلة التي يتم بوساطتها الوصول إلى معالجة مشكلة معينة من خلال التقصي الدقيق والشامل لجميع البيانات التي يمكن التحقق بها من الظواهر المختلفة (عبيدات، وآخرون، 2015).
منهج الدراسة
تم استخدام المنهج الوصفي التحليلي، والذي يُعد من أنسب المناهج لتحقيق أهداف البحث، حيث قامت الباحثة بجمع المعلومات والوثائق حول موضوع البحث وذلك بالرجوع إلى عدد من المصادر والمراجع، لأخذ المعلومات المتعلقة بموضوع البحث، والتي أسهمت في الوصول إلى النتائج التي يسعى البحث لتحقيقها.
الدراسات السابقة
في ضوء الاطلاع على الدراسات والبحوث المتعلقة بموضوع الذكاء الاصطناعي وتطبيقاته في البحوث العلمية، وذلك من خلال البحث في الدوريات والملخصات العلمية والرسائل الجامعية، تبين وجود عدد من الدراسات التي بحثت في هذا الموضوع، حيث تم تصنيف هذه الدراسات من الأحدث إلى الأقدم، وفيما يلي عرض لبعض منها:
هدفت دراسة الصويعي (2025) تقصي تأثير الذكاء الاصطناعي على منهجيات البحوث العلمية، من خلال استكشاف تطبيقاته العملية وتحديد التحديات الأخلاقية المرتبطة باستخدامه، بالإضافة إلى تحديد الفرص المستقبلية التي يقدمها، وتم استخدام أساليب تحليلية ومراجعة للدراسات السابقة لفهم مدى تأثير الذكاء الاصطناعي على كفاءة ودقة الأبحاث، وكيفية التعامل مع التحديات التي تطرأ عند تطبيقه، وأظهرت نتائج الدراسة أن الذكاء الاصطناعي يُسهم في تحسين جودة البحوث العلمية، على الرغم من وجود بعض القضايا الاخلاقية والتقنية التي قد تحد من فعاليته.
وهدفت دراسة بدوح ومتروف (2024) الكشف عن واقع استخدام أدوات الذكاء الاصطناعي في البحث العلمي بالجامعات المغربية، واستكشاف سبل استفادة الباحثين منها، وإبراز أهم التحديات التي تواجههم عند استخدامها، وتم استخدام المنهج الوصفي التحليلي، وتكونت عينة الدراسة من 180 باحثًا وباحثة، وتم استخدام الاستبانة كأداة لجمع البيانات، وأظهرت نتائج الدراسة أن جميع الباحثين لهم معرفة بأدوات الذكاء الاصطناعي الخاصة بالبحث العلمي، وأن مستوى معرفتهم بها لا بأس به على العموم، وأنهم غالبًا ما يستخدمون في البحث عن المراجع والمصادر، وفي التدقيق اللغوي، وفي الكتابة والترجمة، وأن مواقفهم إيجابية نحو توظيفها في بحوثهم العلمية، إلا أنهم متخوفون من تأثيرها السلبي على الإبداع البشري وعلى الأمانة العلمية، كما عبر العديد منهم عن أهم التحديات التي تواجههم عند استخدامها ومنها: عدم مجانية بعض تلك الأدوات، وعدم توفر الخبرة والمهارة الكافيين لديهم لاستعمالها لذلك يدعون إلى تقنين استخدامها بما يحترم الأمانة العلمية.
وهدفت دراسة الحرملية والمطري (2024) التعرف على أبرز التأثيرات المحتملة للذكاء الاصطناعي على البحث العلمي والملكية الفكرية، وآليات الحد منها على مستوى المنظمات والدول والأفراد، من خلال منهجية الأدبيات السردية، القائمة على استعراض ما تداولته الأدبيات الأجنبية والعربية في الأعوام 2022-2024، وأظهرت نتائج الدراسة أن الذكاء الاصطناعي يمكن أن يساعد في التخطيط والتصميم والتشغيل والتقييم للكثير من المشاريع البحثية العلمية، كما يمكنه أن يحل محل مساعد الباحث، ومع ذلك فإن هناك الكثير من المحاذير الأخلاقية التي لم تؤطر التشريعات المناسبة للتعامل معها حتى الآن، كما أظهرت نتائج الدراسة الحاجة الملحة للأطر القانونية والأخلاقية التي يمكن أن تتكيف مع دور الذكاء الاصطناعي المتطور في إنشاء المحتوى والابتكار ومعالجة البيانات، كما أتضح بأنه لا يزال تحديد اختراع الذكاء الاصطناعي وملكية حقوق النشر قضية أخلاقية، مما يستلزم إصلاحات قانونية ومعايير واضحة.
وهدفت دراسة رمضان (2024) الكشف عن واقع استخدام الذكاء الاصطناعي، وآليات تطوير مهارات البحوث العلمية، والتحديات التي تواجه الباحث العلمي عند استخدام الذكاء الاصطناعي، والتهديدات التي يجب على الباحث التربوي الحذر منها، وتم استخدام المنهج الوصفي المسحي من خلال الاطلاع على الدراسات والبحوث السابقة ذات العلاقة، والمنهج الوصفي التحليلي للكشف عن نقاط الضعف والتحديات التي تواجه استخدام الذكاء الاصطناعي في البحوث العلمية، والآثار الأخلاقية الناجمة عن استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية، وأظهرت نتائج الدراسة مجموعة من التحديات لاستخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية وأهمها النزاهة الأكاديمية، مخاوف الخصوصية، التحيز المعرفي، إمكانية الوصول.
وهدفت دراسة الزهراني (2024) التعرف على القيم والضوابط الأخلاقية للبحث العلمي في ضوء توظيف تطبيقات الذكاء الاصطناعي في مجال البحوث العلمية، وتم استخدام المنهج الوصفي التحليلي من خلال استعراض الأدبيات التربوية والدراسات السابقة المرتبطة بمتغيرات الورقة البحثية، وتبين بأن الذكاء الاصطناعي يوفر الوقت والجهد والتكاليف في مجال عمل الأبحاث العلمية، ويوفر سهولة جمع البيانات والمعلومات، ولكن بالمقابل يحمل بعض السلبيات التي تتمثل في الانتحال وعدم احترام الملكية الفكرية في ظل غياب ميثاق شرف عالمي يتعلق بأخلاقيات البحث العلمي في ضوء تطبيقات الذكاء الاصطناعي، وأظهرت نتائج الدراسة ضرورة وضع ميثاق شرف يضمن توظيف القيم والضوابط الأخلاقية للبحث العلمي في ضوء تطبيقات الذكاء الاصطناعي، يتضمن العمل على تصميم قاعدة معلومات عالمية بالتعاون بين الجامعات وسائر المراكز البحثية تعنى بحفظ سائر حقوق المؤلفين، ولديها القدرة على الكشف عن تاريخ كل بحث والذي من خلاله يتضح الأصلي من الزائف في حالة التماثل والتشابه.
وهدفت دراسة عبد الرحمن (2024) الكشف عن دوافع استخدام الباحثين لتطبيقات الذكاء الاصطناعي في البحث العلمي، ومخاطر استخدام هذه التطبيقات والتوجهات المستقبلية اللازم اتخاذها للتخفيف من مخاطرها، وتم استخدام منهج المسح الاجتماعي، وتم استخدام المقياس في جمع البيانات، وتكونت عينة الدراسة من عينة من الباحثين المستخدمين لتطبيقات الذكاء الاصطناعي، وأظهرت نتائج الدراسة أن دوافع عينة الدراسة نحو استخدام تطبيقات الذكاء الاصطناعي كانت بدرجة كبيرة، ومن اهم دوافع استخدام هذه التطبيقات أنها تساهم في تسريع عملية البحث وتوفير الوقت، وتزيد من سرعة انجاز الأبحاث العلمية، وأظهرت نتائج الدراسة أن مخاطر استخدام الباحثين لتطبيقات الذكاء الاصطناعي في البحث العلمي كانت بدرجة كبيرة، وقد جاءت المخاطر على جودة البحث العلمي في المرتبة الأولى، تليها المخاطر الأمنية، بينما جاءت مخاطر استخدام هذه التطبيقات على المهارات البحثية للباحثين في المرتبة الأخيرة، كما أظهرت نتائج الدراسة أن أهم التوجيهات المستقبلية اللازم اتخاذها للتخفيف من مخاطر استخدام هذه التطبيقات هي: أن يتلقى الباحثين تدريبات عن أخلاقيات استخدام تطبيقات الذكاء الاصطناعي في البحث العلمي، ووضع قوانين وتنظيمات لضمان استخدام مسؤول أخلاقي لتطبيقات الذكاء الاصطناعي، والتركيز على تطوير تقنيات الذكاء الاصطناعي التي تحمي الخصوصية والأمان.
وهدفت دراسة (Djaghrouri,2024) التعرف إلى مستقبل الكتابة الأكاديمية في ظل الذكاء الاصطناعي، وأظهرت نتائج الدراسة أن الذكاء الاصطناعي لا يزال يتطور ويحمل القدرة على إحداث ثورة في الكتابة الاكاديمية، وفي حين يمكن للذكاء الاصطناعي أتمته المهام الروتينية، مثل التحقق من القواعد النحوية ومن الانتحال أو الاقتراحات التحريرية، وما ذلك فإنه لا يستطيع أن يحل محل الجهد البشري المشارك في العمل الأكاديمي، وقد يسمح الذكاء الاصطناعي للباحثين الأكاديميين بالتركيز بشكل أكبر على البحث والتحليل العميق من خلال تقليل الوقت والجهد الذي يقضيه في المهام الإدارية، ومع ذلك فإن الصفات الإنسانية مثل الابداع والتفكير النقدي والتحليل العميق لإنتاج محتوى أكاديمي عالي الجودة لا يمكن أن يحل محله الذكاء الاصطناعي.
وهدفت دراسة (Saba et al, 2024) لتناول الذكاء الاصطناعي التوليدي، وأخلاقيات البحث ورؤى البحث في التعليم العالي من خلال التحليل العلمي القياسي، وأظهرت نتائج الدراسة أنه في حين يقدم الذكاء الاصطناعي فوائد ثانوية للتقدم التعليمي، فإنه يجب الانتباه الى التحديات الناتجة عن استخدام تطبيقات الذكاء الاصطناعي وهو ما يتطلب حوكمة يقظة للحفاظ على النزاهة الأكاديمية والمعايير الأخلاقية، خاصة أن التأثيرات تمتد إلى صناع السياسات والتعليم ومطوري الذكاء الاصطناعي، مما يسلط الضوء على الحاجة إلى المبادئ التوجيهية الأخلاقية، ومحو أمية الذكاء الاصطناعي خاصة أن تطبيقات الذكاء الاصطناعي التوليدي تدمج بين البشر بشكل فعال ومفيد في حالة إذا استخدم على النحو الأمثل.
وهدفت دراسة ستوري (Storey, 2023) الى استقصاء المخاوف التي تواجه برامج الدكتوراه مستقبلًا لتفعيل تطبيقات الذكاء الاصطناعي، بحيث تحد من قدرة الباحث على الابتكار والابداع، وكانت هذه الدراسة نوعية استقصائية وليست ميدانية.
وهدفت دراسة ريتشارد وآخرين (Richter & others,2019 ) إلى تقديم نظرة عامة على البحوث حول تطبيقات الذكاء الاصطناعي في التعليم العالي من خلال استعراض منهجي من بين 2656 نشرة تم تحديدها أولًا للفترة بين عامي 2007-2018، تم تضمين 146 مقالًا في التركيب النهائي وفقًا لمعايير الاستدراج والاستبعاد الصريحة، وأظهرت النتائج الوصفية أن معظم التخصصات المشاركة في أوراق العمل حول الذكاء الاصطناعي في التعليم تأتي من مجالات علوم الحاسوب والعلوم والتقنية الهندسية، وأن الأساليب الكمية كانت الأكثر استخدامًا في الدراسات التجريبية، مما يعكس نقصًا في الاستخدام النقدي للتحديات والمخاطر في مجال الذكاء الاصطناعي في التعليم، والارتباط الضعيف بالمنظورات التربوية النظرية.
محاور الدراسة
لقد تم الإجابة على سؤال الدراسة باستعراض محورين وهما:
تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية
لقد أشار الطاهر (2021)، إلى مجموعة من التحديات التي تواجه الاستفادة من تطبيقات الذكاء الاصطناعي في تحسين منهجيات البحوث العلمية ومنها:
- الاعتماد الزائد على التكنولوجيا: فمع تزايد الاعتماد على تطبيقات الذكاء الاصطناعي في إجراء البحوث العلمية، قد يقلل ذلك من استخدام الباحثين لمهاراتهم التحليلية والإبداعية، مما يؤدي إلى تقليل دور الباحث البشري في تفسير النتائج واستخلاص الاستنتاجات، وبالتالي يؤثر سلبًا على جودة البحث.
- التحيز في البيانات: تعتمد تطبيقات الذكاء الاصطناعي على البيانات المدخلة إليها، فّاذا كانت البيانات متحيزة أو غير ممثلة، فقد تؤدي إلى استنتاجات غير دقيقة أو منحازة في البحوث العلمية.
- مخاطر الأمان والخصوصية: ومن أبرز المخاطر التي تواجه تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية هو إمكانية تعرض البيانات المخزنة لاختراقات أمنية، وعند استخدام تطبيقات الذكاء الاصطناعي بطرق غير قانونية أو غير أخلاقية في بعض الأحيان، قد يشكل تهديدًا للخصوصية.
- محدودية الفهم البشري للنماذج: وتتمثل في صعوبة فهم كيفية اتخاذ الأنظمة الذكية لقراراتها، مما يؤدي إلى قلة الثقة في النتائج التي تخرج بها تطبيقات الذكاء الاصطناعي خصوصُا عندما تكون النماذج غير شفافة.
كما أشار المريخي (2022)، إلى مجموعة من التحديات الأخلاقية التي تواجه تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية ومنها:
- الخصوصية وحماية البيانات: فمع استخدام تطبيقات الذكاء الاصطناعي في مجالات متعددة يتم جمع كميات ضخمة من البيانات الشخصية والطبية والتي يمكن أن تتعرض للاختراق أو الاستغلال، فمن الضروري ضمان حماية الخصوصية واتباع سياسات صارمة لحمايتها.
- التحيز في الخوارزميات: في العديد من التطبيقات مثل تحليل النصوص، يمكن أن يتسبب التحيز في البيانات المستخدمة لتدريب الأنظمة في الحصول على نتائج غير دقيقة أو غير عادلة، فلا بد من ضمان تنوع البيانات المستخدمة لتدريب الخوارزميات لتجنب التحيز.
- المسؤولية في اتخاذ القرارات: ففي مجال الروبوتات الذكية في الأبحاث العلمية، قد يكون من الصعب تحديد المسؤولية في حالة حدوث خطأ أو ضرر ناتج عن قرارات اتخذها النظام الذكي مما يثير تساؤلات حول من يجب أن يتحمل المسؤولية القانونية والأخلاقية.
- الاستقلالية وأخلاقيات اتخاذ القرارات: فعندما يتم استخدام تطبيقات الذكاء الاصطناعي في بيئات خطرة عبر الربوتات الذكية، يثبر هذا التحدي تساؤلات حول مدى إمكانية منح الأنظمة الذكية استقلالية في اتخاذ قرارات قد تكون حاسمة.
كما أشارت دراسة مصطفى (2024) إلى مجموعة من تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية ومنها:
- تقديم معلومات غير صحيحة وغير موثوقة.
- البيانات والمعلومات الناتجة عن استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية لا تحترم حقوق الملكية والخصوصية للمستخدمين.
- عدم الاعتماد على البيانات والمعلومات الناتجة عن استخدام تطبيقات الذكاء الاصطناعي كأحد المصادر المعتمدة في البحوث العلمي حتى الآن في الجامعات.
- وجود نوع من أنواع التحيز في البيانات التي تعتمد عليها تطبيقات الذكاء الاصطناعي مثل التحيز الديني أو السياسي أو العرقي العنصري من قبل الشركات المصنعة لهذه التطبيقات.
- عدم وجود عدالة وتكافؤ الفرص في الاستخدام سواء كان بين الدول أو بين الافراد أو بين المناطق الإقليمية المختلفة.
- وجود شبهة التزوير والتحريف وعدم وجود ضمانات لشفافية البيانات الناتجة عن استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمي.
- عدم وجود أي جهة مسؤولة تخضع للمساءلة فيما يخص مخرجات الذكاء الاصطناعي.
- الاعتماد الزائد على استخدام تلك التطبيقات في البحوث تلغي شخصية الباحث وتجعله باحث اتكالي وغير منتج ولديه قصور في القدرات البحثية والتفكير ولا يعتمد على قدراته العقلية في بحوثه.
- الافراط في استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمي تقلل من المساحة المتروكة للباحث في الابداع وإضافة فكرته وشخصيته في البحث.
- معظم تطبيقات الذكاء الاصطناعي المستخدمة في البحوث العلمية تعتمد على قواعد البيانات والمعلومات الأجنبية والقليل منها يدعم قواعد البيانات والمعلومات العربية سواء أكان في اللغة الرسمية وهي الإنجليزية والمعتمدة لهذه التطبيقات أو المراجع والدراسات السابقة أو أي خطوة من خطوات البحوث العلمية الأخرى.
كما أشارت نتائج دراسة عبد الرحمن (2024) أن هناك مخاطر نتيجة لاستخدام الباحثين لتطبيقات الذكاء الاصطناعي في البحث العلمي تتمثل فيما يلي:
- مخاطر على المهارات البحثية للباحثين: تقلل من قدرة الباحث على تفادي التحيز في كتابه بحثه، تؤثر بالسلب على الجانب الإبداعي والابتكاري للباحث، تقلل من قدرة الباحث على فهم وتفسير نتائج بحثه، تؤدي إلى نقص مهارات التفكير النقدي للباحث، وتقلل من قدرة الباحث على احترام حقوق الملكية الفكرية للآخرين، وتقلل من مهارة الباحث الشخصية في كتابة الأوراق البحثية.
- المخاطر الأمنية: باحتمالية تداول المعلومات الشخصية للباحث داخل التطبيقات، وتقلل استخدام التطبيقات من سرية البحث العلمي، واحتمالية تعرض الباحث للتجسس، واحتمالية سرقة أفكار الباحث ونتائج بحثه.
- مخاطر على جودة البحث العلمي: بعدم التأكد من دقة البيانات التي تم الحصول عليها باستخدام أدوات الذكاء الاصطناعي، وقد يحدث خطأ في تحليل البيانات أو في تفسير النتائج باستخدام هذه التطبيقات، وقابلية التكرار للمعلومات التي يتم الحصول عليها، والاعتماد الكامل على تطبيقات الذكاء الاصطناعي قد يؤدي إلى تقليل التنوع، وقد تكون هناك مخاطر التلاعب البيانات المستخدمة في البحث.
سبل تخطي تحديات تفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية
لقد قدمت دراسة الصويعي (2025) مجموعة من التوصيات العملية لاستخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية وذلك لتحقيق أقصى استفادة من التطبيقات ومنها:
- تعزيز كفاءة البحوث العلمية من خلال الذكاء الاصطناعي: وذلك في تحليل البيانات الضخمة والتعرف على الأنماط المخفية لتحسين دقة نتائج الأبحاث، وتوظيف تقنيات التعليم الآلي والتعلم العميق في تطوير نماذج تحليلية وتوقعات أكثر دقة، ودمج الذكاء الاصطناعي في مراجعة الادبيات العلمية لتسريع عملية جمع البيانات وتحليلها.
- تحسين جودة البيانات وتقليل التحيز: التأكد من استخدام مجموعات بيانات متنوعة وشاملة لتقليل تأثير التحيز في النماذج الذكية، ومراجعة مصادر البيانات المستخدمة في التدريب والتأكد من شفافيتها وموثوقيتها، وتطوير خوارزميات تتضمن آلية لرصد وتعديل التحيز في البيانات.
- تعزيز الشفافية والتفسيرية في نماذج الذكاء الاصطناعي: باختيار أدوات الذكاء الاصطناعي التي تتيح تفسير قراراتها ونتائجها بوضوح، واستخدام تطبيقات الذكاء الاصطناعي القابلة للتفسير لزيادة الثقة في نتائج البحوث العلمية.
- ضمان النزاهة والأخلاقيات في البحوث العلمية: بالالتزام بالمعايير الأخلاقية عند استخدام الذكاء الاصطناعي في البحوث العلمية، خاصة عند التعامل مع بيانات حساسة، وتطوير أطر تنظيمية تضمن الاستخدام العادل والمسؤول للذكاء الاصطناعي في الأبحاث، ومراجعة نتائج الأبحاث التي تعتمد على الذكاء الاصطناعي من قبل لجان أخلاقية متخصصة لضمان دقتها وسلامتها.
- توظيف الذكاء الاصطناعي في تبسيط وتحسين العمليات البحثية: باستخدام تطبيقات الذكاء الاصطناعي في الترجمة الآلية وتحليل النصوص العلمية لتسهيل فهم الدراسات العالمية، وتوظيف تطبيقات الذكاء الاصطناعي في إدارة المراجع العلمية وتنظيمها، والاعتماد على أنظمة الذكاء الاصطناعي في فحص الانتحال العلمي والتأكد من اصالة الأبحاث، والتدريب والتأهيل على استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية، وتشجيع الباحثين على تعلم المهارات الأساسية في الذكاء الاصطناعي مثل تحليل البيانات وتطوير النماذج الذكية، وإدراج برامج تدريبية حول استخدام أدوات الذكاء الاصطناعي في الأبحاث ضمن المناهج الجامعية، والتعاون مع خبراء الذكاء الاصطناعي لضمان استخدامه بشكل فعال في الدراسات البحثية.
- الاستفادة من تطبيقات الذكاء الاصطناعي في مجالات بحثية متنوعة: لتعزيز استخدام تطبيقات الذكاء الاصطناعي في الأبحاث الطبية لتسريع التشخيص وتحليل البيانات السريرية، وتوظيف تطبيقات الذكاء الاصطناعي في الأبحاث البيئية لرصد التغييرات المناخية والتنبؤ بالكوارث الطبيعية، كما يمكن تفعيل تطبيقات الذكاء الاصطناعي في العلوم الاجتماعية لدراسة سلوكيات المستخدمين وتحليل اتجاهات الرأي العام.
- تطوير بنية تحتية قوية لدعم البحوث العلمية.
كما اشارت نتائج دراسة مصطفى (2024) إلى العديد من المقترحات لتخطي تحديات استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية ومنها:
- تدريب وتنمية القدرات والمهارات التكنولوجية المختلفة للباحثين بصفة عامة وخصوصًا في مجال البحوث العلمية باستخدام تطبيقات الذكاء الاصطناعي.
- استحداث مقررات دراسية في مرحلة الدراسات العليا عن استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية.
- تدريب الباحثين على كيفية التعامل مع مواقع وتطبيقات الذكاء الاصطناعي حتى يستفيد من امكانياتها وقدراتها في البحوث العلمية.
- تنمية مهارات وقدرات التفكير الناقد للباحثين حتى يميز بين المعلومات الصحيحة والمغلوطة الناتجة عن استخدام هذه التطبيقات في البحوث العلمية.
- استخدام ميثاق أخلاقي جديد للباحثين فيما يخص إجراءات استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية.
- اتاحة استخدام تطبيقات ومواقع الذكاء الاصطناعي للباحثين مجانًا في الجامعات للاستفادة من إمكانياتها.
- ربط الجامعات بمنظومة البيانات الضخمة على مستوى الدولة ككل لتوفير البيانات والمعلومات اللازمة للاستفادة منها في تقديم الدعم اللازم والخدمات المختلفة للباحثين.
- تأكد الباحثين بصورة مستمرة من عدم وجود أي نوع من أنواع التحيز في البيانات التي تعتمد عليها تطبيقات الذكاء الاصطناعي.
- تحقيق عدالة وتكافؤ الفرص في الاستخدام.
- التعامل الحذر مع البيانات والمعلومات الناتجة عن استخدام تطبيقات الذكاء الاصطناعي كأحد مصادر الحصول على المعلومات في البحوث العلمية.
- الاهتمام بدعم البنية التحتية التكنولوجية اللازمة لتخزين البيانات ومعالجتها في الجامعات وتسريع عمليات التحول الرقمي بها.
- تسريع الوصول الى مرحلة التحول الرقمي الكامل في جميع مجالات التنمية حتى تتكون منظومة البيانات الضخمة التي تعتمد عليها تطبيقات الذكاء الاصطناعي حتى نستطيع استخدامها في مجالات البحوث العلمية المختلفة.
- تحسين مستوى اللغة الإنجليزية لدى الباحثين بما يتلاءم مع استخدام وتفعيل تطبيقات الذكاء الاصطناعي في البحوث العلمية.
كما قدمت دراسة محمد (2024) مجموعة من المقترحات لتجاوز التحديات القانونية في تحرير وتحكيم الأبحاث باستخدام تطبيقات الذكاء الاصطناعي ومنها:
- أن تحدد بوضوح حقوق المليكة الفكرية للأبحاث التي تنتج باستخدام تطبيقات الذكاء الاصطناعي بما في ذلك حقوق المؤلف وحقوق الاستخدام.
- ضرورة الالتزام بأخلاقيات البحث، بما في ذلك النزاهة والشفافية، ويجب الإفصاح عن استخدام تطبيقات الذكاء الاصطناعي في جميع مراحل البحث.
- لا بد من وضع معايير واضحة لتقييم الأبحاث التي تستخدم تطبيقات الذكاء الاصطناعي وتشمل جودة البيانات المستخدمة، وشفافية الأساليب، ومصداقية النتائج.
- يجب أن يكون المحكمون مدربين على استخدام تطبيقات الذكاء الاصطناعي لفهم كيفية تأثيرها على النتائج البحثية.
- لا بد من تطوير سياسات للتعامل مع الانحياز المحتمل في البينات أو الخوارزميات التي قد تؤثر على نتائج البحث والتحكيم.
- لا بد من إنشاء هيئات رقابية مستقلة لمراقبة استخدام تطبيقات الذكاء الاصطناعي في الأبحاث، لضمان الالتزام بالقوانين والاخلاقيات.
- لا بد من تنظيم ورش عمل ودورات تدريبية للباحثين والمحكمين حول استخدام تطبيقات الذكاء الاصطناعي واخلاقياته.
- لا بد من إلزام الباحثين بتقديم تقارير تفصيلية حول استخدام تطبيقات الذكاء الاصطناعي في ابحاثهم، مع إمكانية المساءلة القانونية في حالة عدم الامتثال.
- لا بد من تشجيع التعاون بين الدول لوضع معايير عالمية تحكم استخدام تطبيقات الذكاء الاصطناعي في الأبحاث.
كما أظهرت نتائج دراسة عبد الرحمن (2024) بعض التوجهات المستقبلية اللازم اتخاذها للتخفيف من مخاطر استخدام تطبيقات الذكاء الاصطناعي في البحث العلمي ومنها:
- تطوير تطبيقات الذكاء الاصطناعي لتحسين الأداء والدقة.
- التركيز على تطوير تطبيقات الذكاء الاصطناعي التي تحمي الخصوصية والأمان.
- وضع قوانين وتنظيمات لضمان استخدام مسؤول وأخلاقي لتطبيقات الذكاء الاصطناعي.
- خفض تكلفة استخدام تطبيقات الذكاء الاصطناعي لتلبي احتياجات جميع الباحثين.
- تدريب الباحثين على أخلاقيات استخدام تطبيقات الذكاء الاصطناعي في البحث العلمي.
- تعرف الباحثين على المخاطر المحتملة من استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية.
مقترحات الدراسة
وجاءت التوصيات في ضوء أبرز التحديات التي أفرزتها نتائج الدراسة:
- تفعيل الأنظمة والسياسات العادلة والشاملة والأخلاقية في استخدام تطبيقات الذكاء الاصطناعي في البحث العلمي.
- عقد ورشات تدريبية بشكل دوري لأعضاء هيئة التدريس والباحثين حول تطبيقات الذكاء الاصطناعي في البحوث العلمية.
المراجع
بدوح، حسن، ومتروف، نادية. (2024). استخدام أدوات الذكاء الاصطناعي في البحث العلمي بالجامعات المغربية الواقع والتحديات والآفاق، مجلة عطاء للدراسات والأبحاث، عدد خاص، 23-39.
الحرملية، أمل، والمطري، علي. (2024). التأثيرات المحتملة للذكاء الاصطناعي على البحث العلمي والملكية الفكرية، المجلة العلمية للعلوم التربوية والصحة النفسية، 6(2)، 19-40.
رمضان، شيما. (2024). تطبيقات الذكاء الاصطناعي في البحوث العلمية (الفرص والتحديات)، مجلة الذكاء الاصطناعي وأمن المعلومات، 2(5)، 202-225.
الزهراني، عبد الله. (2024). القيم والضوابط الأخلاقية لتوظيف الذكاء الاصطناعي في مجال البحوث العلمية، مجلة الذكاء الاصطناعي وأمن المعلومات، 2(4)، 2-31.
الصويعي، امل. (2025). تأثير الذكاء الاصطناعي على منهجيات البحوث العلمية الفرص والتحديات، مجلة القرطاس، 26(3)، 517-529.
الصياد، حلمي. (2023). مستوى وعي الاخصائيين الاجتماعيين بتوظيف تطبيقات الذكاء الاصطناعي في الممارسة المهنية بالمجال المدرسي، مجلة بحوث الخدمة الاجتماعية التنموية، 5(1)، 229-258.
الطاهر، س. (2021). الذكاء الاصطناعي وأثره في تحسين نتائج البحوث العلمية، مجلة التطورات العلمية، 9(1)، 40-45.
عبد الرحمن، شيماء. (2024). مخاطر استخدام الباحثين لتطبيقات الذكاء الاصطناعي في البحث العلمي، مجلة قطاع الدراسات الإنسانية، 33(1)، 181-244.
عبيدات، ذوقان، وعدس، عبد الرحمن، وعبد الحق، كايد. (2015). تأليف البحث العلمي: مفهومه وأدواته وأساليبه، دار الفكر للنشر والتوزيع، عمان.
العجمي، عبد الرحمن، والعتل، محمد، والعنزي، إبراهيم. (2021). دور الذكاء الاصطناعي في التعليم من وجهة نظر الطلبة في كلية التربية الأساسية بدولة الكويت، مجلة الدراسات والبحوث التربوية، 1(1)، 30-64.
عقوني، محمد. (2024). الذكاء الاصطناعي في البحوث العلمية، تربية رقمية،
فارح، بلكرم. (2023). الإطار القانوني لتطبيق الذكاء الاصطناعي في مرفق التعليم العالي والبحث العلمي في الجزائر، أطروحة دكتوراه غير منشورة.
محمد، هاله. (2024). تحديات قانونية في استخدام تقنيات الذكاء الاصطناعي في تحرير وتحكيم الأبحاث العلمية، مجلة الحق للعلوم الشرعية والقانونية، 14(1)، 86-109.
مختار، بكاري. (2022). تحديات الذكاء الاصطناعي وتطبيقاته في التعليم، مجلة المنتدى للدراسات والأبحاث الاقتصادية، 6(1)، 286-305.
المريخي، جمال. (2022). التنبؤ بالاتجاهات المستقبلية باستخدام الذكاء الاصطناعي، مجلة التحليل المستقبلي، 10(1)، 78-82.
المصري، نور. (2022). دور تقنيات الذكاء الاصطناعي في تحسين جودة الخدمات المقدمة لطلبة الجامعة الأردنية من وجهة نظرهم، مجلة كلية التربية بأسيوط، 11(38)، 265-290.
مصطفى، اسلام. (2024). اتجاهات شباب الباحثين في الخدمة الاجتماعية نحو استخدام تطبيقات الذكاء الاصطناعي في البحوث العلمية، مجلة كلية الخدمة الاجتماعية للدراسات والبحوث الاجتماعية، 37(1)، 41-100.
Imran, M., & Almusharraf, N. (2023). Analyzing the role of ChatGPT as writing assistant at higher education level: A systematic review of the literature. Contemporary Educational Technology, 15(4), ep464.
Kamal Djaghrouri (2024). Artificial Intelligence and Future of Academic Writing: Analysis and Predictions, Aleph (En ligne), Algerian Scientific Journal Platform, 11 (4-2), 2024, 537-553.
Khan, N, Osmonaliev, K & Sarwar, M. (2023). Pushing the boundaries of scientific Research with the use of artificial intelligence tools: Navigating risks and unleashing possibilities, Nepal journal of epidemiology, 13(1).
Liu, H., Azam, M., Bin Naeem, S., & Faiola, A. (2023). An overview of the capabilities of ChatGPT for medical writing and its implications for academic integrity. Health Information & Libraries Journal, 40(4), 440 – 446.
Olaf Zawacki-Richter, R., I. Marín, V., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – where are the educators? . International Journal of Educational Technology in Higher Education. (39), pp. 1 - 27
Saba, M, Ahmad, A, Youmen, C & Majeda, K. (2024). Generative AI, Research Ethics, and Higher Education Research: Insights from a Scientometric Analysis, Information, 15-(1), 325-390.
Salvagno, M., Taccone, F. S., & Gerli, A. G. (2023). Can artificial intelligence help for scientific writing? Critical care, 27(1), 1-5
Storey, V., & Franklin, A. (2023). AI technology and academic writing: knowing and mastering the “Craft Skills”. International Journal of Adult Education and Technology, (1), 1-15.