(دراسة مقارنة بين فرنسا والولايات المتحدة والمغرب مع تعليق على أمر المحكمة الإدارية بباريس الصادر في 12 فبراير 2026، رقم 2600972)

مقدمة
أحدثت الطفرة في تقنيات الذكاء الاصطناعي التوليدي تحوّلات عميقة في ممارسات التعليم العالي، ولا سيما في مجال إعداد البحوث والأطروحات وأعمال البحث الجامعي. فهذه الأدوات تمكّن من إنتاج نصوص منظمة ومقنعة في وقت وجيز، الأمر الذي يثير تساؤلات جوهرية حول الحدود الفاصلة بين المساعدة التقنية المشروعة والتفويض الممنوع للجهد الفكري الذي يُفترض أن يبذله الطالب شخصياً. ومن ثمّ برزت بقوة مسألة ما إذا كان يجب – وبأي شروط – اعتبار استخدام الذكاء الاصطناعي في البحث الجامعي شكلاً من أشكال الغش الأكاديمي.
يمثّل الأمر الاستعجالي الصادر عن قاضي المستعجلات بالمحكمة الإدارية في باريس بتاريخ 12 فبراير 2026، والمتعلق بطالبة في جامعة باريس 1 (بانتيون – سوربون) يُشتبه في لجوئها إلى نظام ذكاء اصطناعي في صياغة بحوثهم العلمية، مثالاً بالغ الدلالة على هذه التوترات. فقد رُفعت القضية إلى القاضي من قِبل الجامعة التي طعنت في قرار الهيئة التأديبية الرافضة لمتابعة الطالبة، غير أنّ القاضي امتنع عن تعليق تنفيذ هذا القرار بحجة أنّ المؤسسة لم تقدّم أيّ نص داخلي يضبط استخدام الذكاء الاصطناعي من طرف الطلبة، بما يحول دون تقدير الطابع المذنب للأفعال المنسوبة للطالبة.
رابط الامر الاستعجالي موضوع التعليق: (بالفرنسية) https://justice.pappers.fr/decision/ed2cad911839dc44ef2881a3035698b60871606c
وتندرج هذه القضية في سياق أوسع؛ ففي فرنسا، تعمل المحاكم الإدارية والقضائية تدريجياً على بناء نزاع قضائي خاص بالغش الأكاديمي في عصر الذكاء الاصطناعي؛ وفي الولايات المتحدة بدأت مدونات شرف الجامعات والمحاكم الفدرالية تتعامل مع نزاعات مرتبطة باستخدام غير مأذون لأدوات الذكاء الاصطناعي؛ أمّا في المغرب فإنّ تصاعد الاعتماد على أنظمة كشف الانتحال وتحذيرات الفاعلين حول سلامة البحث العلمي يضع اللبنات الأولى لتنظيم استعمال الذكاء الاصطناعي في البحث الجامعي.
وعليه، تهدف هذه الدراسة، في منظور مقارن، إلى بيان الكيفية التي تحاول بها هذه الأنظمة القانونية التوفيق بين حماية النزاهة الأكاديمية وبين ضرورة وضع إطار معياري واضح يسمح باستعمال بيداغوجي للذكاء الاصطناعي، مع تخصيص فصل مستقل لتعليق الأمر الصادر عن المحكمة الإدارية بباريس في 12 فبراير 2026 على ضوء قرارات مماثلة. وسنبيّن أنّ استعمال الذكاء الاصطناعي في بحوث التخرج يُدرَك في البداية بوصفه شكلاً جديداً من الغش يبرّر توسيع نطاق الأنظمة التأديبية الكلاسيكية (أولاً)، قبل أن يصبح موضوع تنظيم أكثر دقة يعترف بإمكاناته البيداغوجية شريطة توفر ضمانات معيارية وإجرائية صارمة (ثانياً). وسيُخصَّص فصل مركزي لتحليل أمر المحكمة الإدارية بباريس بوصفه نقطة ارتكاز ضمانية في هذا النزاع الناشئ (ثالثاً).
أولاً: توسيع الأنظمة التأديبية الكلاسيكية لتشمل استخدام الذكاء الاصطناعي
في مرحلة أولى، عالجت المؤسسات ظهور الذكاء الاصطناعي التوليدي باعتباره امتداداً لأشكال الغش الأكاديمي المعروفة، مما دفعها إلى توسيع نطاق الأنظمة التأديبية القائمة لتشمل هذه الأدوات.

1. فرنسا: الذكاء الاصطناعي كوسيلة غش أو انتحال
يستند النظام التأديبي المطبّق على مستعملي التعليم العالي في فرنسا إلى أحكام قانون التعليم المتعلقة بالغش والانتحال أثناء الامتحانات والأعمال الجامعية. وقد أكدت وزارة التعليم العالي أنّ استحواذ الطالب على نص – سواء أُنتج من قبل شخص آخر أو ناتج عن ذكاء اصطناعي – دون الإشارة إلى مصدره يمكن أن يشكّل غشّاً في معنى النصوص التنظيمية.
وتجسّد الاجتهادات القضائية الحديثة هذا التوسّع.
فقد صادقت المحكمة الإدارية في نيس سنة 2025 على عقوبة فُرضت على مترشّح للباكالوريا استعمل هاتفه المحمول لاستشارة أداة ذكاء اصطناعي خلال الامتحان في مادة الفرنسية، واعتبرت أن هذا الاستعمال يشكّل وسيلة غش بالمعنى المقصود في قانون التعليم. وبالمثل، أقرّت المحكمة الإدارية في مرسيليا، عبر أوامر عدّة صادرة سنة 2025، عقوبات ضد مرشّحين يُشتبه في لجوئهم إلى الذكاء الاصطناعي، معتبرة أنّ النظام العام للغش ينطبق تماماً على هذه الأدوات الجديدة.
وفيما يخصّ بحوث التخرج، أكدت المحكمة الإدارية في مونتروي، في حكم بتاريخ 8 أكتوبر 2025، عقوبة مسلّطة على طالبة يُشتبه في اعتمادها المكثّف على أداة ذكاء اصطناعي لصياغة بحث الماستر. واستند القاضي إلى حزمة من القرائن أهمّها:
- نتائج برنامج للكشف عن النصوص المُنشأة بواسطة الذكاء الاصطناعي، أظهر احتمالاً بنسبة 99.2٪ أن الملخّص مُولّد آليّاً؛
- تحليل الأسلوب اللغوي لل بحث؛
- مقارنة بين مستوى العمل وطريقة أداء الطالبة المعتادة؛
- التناقضات التي ظهرت أثناء المناقشات الشفوية.
ويُظهر هذا النزاع أنّ الذكاء الاصطناعي يُنظر إليه كوسيلة تقنية للغش أو الانتحال، دون حاجة لإنشاء نظام تأديبي مستقل. غير أنّه يثير أيضاً سؤالين حسّاسين: مدى مصداقية الأداة الخوارزمية المستعملة كدليل، وضرورة إبلاغ الطلبة بوضوح حول الاستخدامات المسموح بها أو المحظورة.
2. الولايات المتحدة والمغرب: منطق زجري مؤطَّر بمدونات شرف وآليات نزاهة
في الولايات المتحدة، يعتمد تنظيم النزاهة الأكاديمية في الغالب على Codes of Academic Integrity واللوائح الداخلية للجامعات، بدلاً من نصّ تشريعي موحّد. وقد عُدّلت معظم هذه المدونات لإدراج الاستخدام غير المأذون للذكاء الاصطناعي صراحةً ضمن فئة academic dishonesty، وغالباً ما يُقارَن بالانتحال.
وتعدّ قضية طالب دكتوراه في جامعة مينيسوتا إحدى القضايا البارزة؛ إذ عوقب بسبب استعماله أدوات ذكاء اصطناعي خلال امتحان دكتوراه رغم ورود تعليمات صريحة تحظر “أيّ لجوء إلى أدوات الذكاء الاصطناعي مثل ChatGPT”. وعند الطعن أمام القضاء الفدرالي، أقرّت المحكمة قرار الطرد معتبرةً أنّ المسطرة التأديبية كانت سليمة: تعليمات واضحة، جلسة استماع متناقضة، وإمكانية تقديم بحث مفصل من 35 صفحة، مع خضوع القرار لمراجعة من قِبل نائب رئيس الجامعة. وفي قضية أخرى بجامعة ييل، طعن طالب في العقوبة المسلّطة عليه بسبب شبهات في استخدام الذكاء الاصطناعي، منتقداً موثوقية أدوات الكشف وعدالة الإجراء، ما يعكس توتّراً حول الدليل وضمانات المحاكمة العادلة.
أمّا في المغرب، فقد تعزّزت مكافحة الانتحال والغش الوثائقي خلال السنوات الأخيرة من خلال اعتماد منصات لكشف الانتحال (مثل iThenticate وUrkund) ، واعتماد مواثيق للنزاهة العلمية داخل الجامعات. وقد عمّم المركز الوطني للبحث العلمي والتقني (CNRST) تعليمات تفرض إخضاع الأطروحات والبحوث لفحص منهجي ضد الانتحال، وهو ما يمهّد عملياً لإدماج الذكاء الاصطناعي في هذا الإطار، حتى وإن لم تُذكر هذه الأدوات صراحةً في جميع النصوص بعد. كما تُظهر التحذيرات بشأن مؤشرات سلامة البحث العلمي في المغرب حجم ظاهرة الانتحال وتزييف البيانات، الأمر الذي دفع جزءاً من الفقه إلى إدراج الاستخدامات المسيئة لأدوات الذكاء الاصطناعي ضمن المخاطر الكبرى التي تهدد النزاهة العلمية.
إجمالاً، تنظر الأنظمة الثلاثة في هذه المرحلة الأولى إلى الذكاء الاصطناعي من زاوية الغش والانتحال، وتوسّع تبعاً لذلك نطاق الأنظمة التأديبية القائمة. غير أنّ هذا النهج الزجري البحت يصطدم سريعاً بمتطلّبات الوضوح المعياري، ومصداقية وسائل الإثبات، وبالرغبة المتنامية في استثمار الذكاء الاصطناعي كأداة بيداغوجية، وهو ما يعكسه تطوّر اللوائح الجامعية والاجتهاد القضائي.

ثانياً: نحو تنظيم متدرّج للذكاء الاصطناعي كأداة بيداغوجية مؤطَّرة
بالتوازي مع منطق الزجر، تتبلور مقاربة أكثر توازناً تميل إلى الاعتراف بشرعية استعمال الذكاء الاصطناعي في إطار محدّد، مع تشديد الالتزامات المتعلقة بالإعلام والشفافية واحترام حقوق الدفاع.
1. توضيح القواعد وتقنين سياسات استعمال الذكاء الاصطناعي
يتمثّل أحد أهمّ الدروس المستخلصة من القرارات الحديثة، خاصة في فرنسا، في أهمية وجود قواعد داخلية واضحة تخصّ استعمال الذكاء الاصطناعي. فالأمر الاستعجالي الصادر عن المحكمة الإدارية بباريس في 12 فبراير 2026 يركّز تحديداً على غياب أيّ وثيقة تضبط استخدام الذكاء الاصطناعي من قِبل الطلبة، مما يحول دون تقدير الطابع المذنب للسلوك محل الاتهام. وينسجم هذا التشديد على مبدأ قابلية التوقّع مع قضايا أخرى يحرص فيها القضاة على التأكيد بأن الجامعات وجّهت مسبقاً تحذيرات صريحة للطلبة حول مخاطر استعمال الذكاء الاصطناعي والعقوبات المترتّبة عنه.
وفي فرنسا وكندا، اعتمدت عدة جامعات أدلّة أو خطوطاً توجيهية للاستخدام المسؤول للذكاء الاصطناعي في البحوث والأطروحات.
- ففي جامعة لافال، توضّح خطوط توجيهية مفصّلة الاستعمالات المسموح بها (المساعدة في البحث الوثائقي، المراجعة اللغوية، إعادة الصياغة) وتلك الممنوعة (كتابة أقسام كاملة، غياب المراجعة النقدية)، مع إلزام الطالب بالتصريح بأيّ استخدام جوهري للذكاء الاصطناعي.
- كما أدرجت جامعات فرنسية في لوائحها البيداغوجية وأدلّة البحوث أحكاماً تُعرّف الانتحال وتبيّن أن استحواذ الطالب على محتوى منتَج بواسطة الذكاء الاصطناعي دون إعلان أو تحكّم قد يعدّ غشّاً.
وفي الولايات المتحدة، توصي مكاتب النزاهة الأكاديمية بأن يُحدّد في كل syllabus سياسة استخدام الذكاء الاصطناعي (مسموح، مقيّد، أو ممنوع) للحد من الغموض والنزاعات. وتقوم بعض الجامعات بالتمييز بين السياقات، فتسمح بالاستخدام الحر في الأعمال التكوينية، وتمنعه في الامتحانات أو الاختبارات النهائية المعتمدة.
أما في المغرب، فتُستكمل الآليات المضادة للانتحال تدريجياً بنقاش حول الذكاء الاصطناعي، مع الدعوة إلى تبنّي مواثيق للنزاهة العلمية تُدرج صراحةً هذه الأدوات وتؤكد ضرورة تكوين الطلبة على استعمالها المسؤول. ويبدو أن تقنين سياسات داخلية واضحة يُعدّ شرطاً مسبقاً لأيّ نزاع تأديبي متماسك ومستدام.
2. الضمانات الإجرائية والاعتراف بالإمكانات البيداغوجية للذكاء الاصطناعي
يتّصل البعد الثاني لهذا التنظيم المتدرّج بالأخذ في الاعتبار، من قبل القضاء والفقه، لحقوق الطالب الإجرائية في إطار هذا النزاع المستجد. ففي فرنسا، تشدد عدة قرارات على ضرورة تأسيس ثبوت الغش على حزمة من القرائن لا على نتيجة وحيدة مقدَّمة من برنامج للكشف عن النصوص المنتَجة بواسطة الذكاء الاصطناعي، خاصة في ظل الجدل القائم حول مصداقية هذه الأدوات وشفافيتها. كما ينبه الفقه إلى أهمية احترام حق الطالب في الصمت في المسطرة التأديبية الجامعية، وحقه في الإحاطة علماً بالتهم الموجهة إليه، وإمكانية مناقشة منهجية التقارير التقنية.
وفي الولايات المتحدة، تبرز نزاعات (مينيسوتا، ييل) أن المحاكم الفدرالية تولي أهمية كبيرة لاحترام حقوق due process: إخطار واضح بالتهم، إمكانية تقديم دفاع مكتوب وشفوي، وجود هيئة تأديبية تعددية، وتوفير مسالك للطعن الداخلي. كما تكشف الجدل حول استخدام أدوات مثل GPTZero لكشف النصوص الآلية عن حذر متزايد إزاء الاعتماد على “دليل خوارزمي” في حد ذاته.
بالموازاة مع ذلك، يتطوّر الخطاب الأكاديمي في اتجاه الاعتراف بالذكاء الاصطناعي كأداة بيداغوجية مفيدة، شريطة أن يكون استعماله شفافاً وألا يحلّ محلّ التحليل الشخصي للطالب. وتؤكد التقارير البرلمانية الفرنسية حول الذكاء الاصطناعي التوليدي ومهن القانون أن هذه الأدوات يمكن أن تُستعمل في البحث والتلخيص وتحليل المعطيات الأولية، مع الإبقاء على جوهر العمل القانوني في النقد والتأويل وبناء الحجّة. كما توصي خطوط توجيهية دولية حول “الاستخدام المسؤول للذكاء الاصطناعي التوليدي” في البحوث بتحويل الذكاء الاصطناعي إلى موضوع تعلّم بحد ذاته (إتقان كتابة prompts، تقييم التحيّزات، التحقق من المصادر) بدل أن يكون أداة خفية للكتابة.
وعليه، لم يعد استعمال الذكاء الاصطناعي يُدرَك حصراً كخطر غش، بل كإشكال بيداغوجي وأخلاقي ينبغي إدماجه صراحةً في المناهج التعليمية، وأساليب التقويم، وبرامج التكوين على النزاهة العلمية.
ثالثاً: تعليق على أمر المحكمة الإدارية بباريس الصادر في 12 فبراير 2026 رقم 2600972 في ضوء القرارات المماثلة في فرنسا والولايات المتحدة والمغرب
يحتلّ الأمر الاستعجالي الصادر عن المحكمة الإدارية بباريس بتاريخ 12 فبراير 2026، بناءً على المادة L. 521‑1 من قانون القضاء الإداري، مكانة مركزية في هذا النزاع الآخذ في التشكل؛ إذ يتبنّى موقفاً ضمانياً واضحاً بشأن شروط معاقبة استعمال الذكاء الاصطناعي في بحث جامعية.
1. الوقائع والحلّ القضائي ومدى الأثر
تتلخص الوقائع في أن رئيسة جامعة باريس 1 (بانتيون – سوربون) قررت تحريك المتابعات التأديبية ضد طالبة، بحجة أنها استخدمت نظام ذكاء اصطناعي في إعداد بحث تخرجها. وقد قضت الهيئة التأديبية للمجلس الأكاديمي المختصة في شؤون الطلبة، بتاريخ 7 يناير 2026، برفض المتابعات. فطعنت الجامعة في هذا القرار أمام قاضي الاستعجال، طالبة تعليق تنفيذه استناداً، من جهة، إلى الإضرار بالمصلحة العامة المرتبطة بجودة الشهادات وسمعة الجامعة، ومن جهة أخرى، إلى وجود أخطاء في القانون والوقائع وتقدير الخطأ التأديبي.
ذكّر القاضي بشروط référé‑suspension: توفر عنصر الاستعجال ووجود وسيلة جدية من شأنها خلق شكّ جدّي في قانونية القرار المطعون فيه، طبقاً للمادة L. 521‑1 من قانون القضاء الإداري. ومن دون الخوض مطوّلاً في عنصر الاستعجال، اعتبر أن الوسائل التي تمسّكت بها الجامعة “لا تبدو، في الحالة الراهنة للملف، كفيلة بإثارة شكّ جدّي” على قانونية القرار، بسبب عنصر حاسم: أنّ الجامعة لم تقدّم “أيّ عنصر يتعلق بالقواعد المؤطرة لاستخدام الذكاء الاصطناعي من طرف الطلبة في إطار أعمالهم الأكاديمية، والتي يمكن على ضوئها تقدير الطابع المذنب للأفعال المنسوبة”. وخلص إلى رفض الطلب برمّته، بما في ذلك الشق المتعلق بالأمر باتخاذ تدابير.
وتتجلى في هذا الحلّ دلالتان أساسيتان:
- من الناحية الإجرائية، يذكّر القاضي بدوره المحدود في إطار الاستعجال، والمتمثل في البحث عن وجود شكّ جدّي دون حسم نهائي في جوهر النزاع؛
- ومن الناحية الموضوعية، يقرّر مبدأ ضرورة وجود أساس معياري داخلي مسبق: لا يمكن للجامعة أن تطلب إلغاء قرار عدم معاقبة الطالبة ما لم تُثبت أنّ لديها قواعد داخلية واضحة تنظم استعمال الذكاء الاصطناعي.
2. المقارنة مع القرارات الفرنسية والأمريكية والمغربية
بالمقارنة مع القرارات الفرنسية السابقة، يبدو أن أمر المحكمة الإدارية بباريس يتخذ موقفاً أكثر حمايةً للطلبة. ففي حين صادقت محكمة مونتروي (8 أكتوبر 2025) ومحاكم أخرى على عقوبات تأديبية في ظل وجود لوائح داخلية وعناصر إثبات متكاملة، يأتي هذا الأمر ليؤكد أن غياب أي إطار مكتوب لاستعمال الذكاء الاصطناعي يعدّ عائقاً جدياً أمام توصيف الفعل كخطأ تأديبي. فهو لا ينفي إمكانية اعتبار استخدام الذكاء الاصطناعي شكلاً من الغش، لكنه يربط ذلك بشرط وجود إطار معياري وإثباتي متين.
ويجد هذا الموقف ما يوازيه، بصورة ما، في حكم المحكمة القضائية في ليل (2024)، حيث اعتُبرت عقوبة إيقاف طالبة لمدة 18 شهراً بسبب التلاعب بالبيانات واستعمال أدوات رقمية بشكل غير سليم متناسبةً، لا سيما لأن المؤسسة سبق أن وجهت تحذيرات واضحة بشأن مخاطر الذكاء الاصطناعي والعقوبات المحتملة. في القضيتين، يحتل عنصر توقعية القاعدة وإعلام الطالب بها موقعاً محورياً.
وفي ضوء التجربة الأمريكية، يمكن النظر إلى أمر المحكمة الإدارية بباريس بوصفه قريباً، “في الاتجاه المعاكس”، من القرارات التي تثبّت العقوبات عند وجود سياسة استخدام واضحة للذكاء الاصطناعي في تعليمات الامتحان أو مدونات النزاهة. ففي قضية طالب الدكتوراه في جامعة مينيسوتا، ورد حظر صريح لأي استعمال لأدوات الذكاء الاصطناعي في تعليمات الامتحان، ما سمح للمحكمة الفدرالية باعتبار مخالفة هذه التعليمات خطأً تأديبياً ثابتاً، طالما كانت المسطرة منتظمة. أمّا النزاع في ييل فيُظهر أنّ سياسة مبهمة، مقترنة بالاعتماد على أدوات كشف مثيرة للجدل، قد تفتح المجال للطعن القضائي.
أما في المغرب، فمع أن الاجتهاد القضائي المتعلق بالذكاء الاصطناعي لا يزال محدوداً، فإن التحذيرات بشأن النزاهة العلمية واعتماد أنظمة كشف الانتحال يسلطان الضوء على أهمية المواثيق واللوائح الصريحة كشرط لتماسك النزاعات التأديبية. ويمكن قراءة أمر المحكمة الإدارية بباريس كتنبيه مفيد للجامعات المغربية: إن الرغبة في معاقبة الاستعمال المسيء للذكاء الاصطناعي يجب أن ترافقها عملية تقنين مسبق للقواعد وإعلام للطلبة، وإلا أصبحت القرارات التأديبية عرضة للمهانة القضائية.
3. تقييم نقدي
يتضح من ذلك أنّ أمر المحكمة الإدارية بباريس في 12 فبراير 2026 يشكل محطة ضمانية أساسية في هذا النزاع المتطور. فهو يذكّر، في توقيت حساس، بأن الحماس الزجري في مواجهة الانحرافات المحتملة لاستعمال الذكاء الاصطناعي لا ينبغي أن يكون على حساب المبادئ الأساسية للقانون التأديبي: شرعية الأفعال والعقوبات، قابلية التوقّع، الأمن القانوني، واحترام حقوق الدفاع.
وقد يُخشى أن يؤدي هذا التشدد، في مرحلة انتقالية، إلى بقاء بعض السلوكيات المشكِلة دون عقاب في الجامعات التي لم تُحدّث بعد لوائحها. لكنّ هذا القيد يلعب أيضاً دور محفّز على المستوى المعياري؛ إذ يدفع المؤسسات إلى الإسراع بتوضيح سياساتها المتعلقة باستعمال الذكاء الاصطناعي، وإعادة التفكير في أساليب التقويم، وإعداد الطلبة والأساتذة لاستعمال مسؤول لهذه الأدوات.
وعلى المدى الطويل، ليس الهدف المنشود هو الحظر التام للذكاء الاصطناعي، وإنما تحقيق توازن بين النزاهة الأكاديمية والابتكار البيداغوجي. ويسهم أمر المحكمة الإدارية بباريس في رسم هذا التوازن عبر إرساء شرط واضح: لا يمكن – بصورة مستدامة – معاقبة استعمال الذكاء الاصطناعي في بحوث التخرج الجامعية إلا إذا كان النظام الجامعي قد تكلّف مسبقاً بتحديد الاستخدامات المشروعة والانحرافات، ضمن إطار معياري شفاف وقابل للاحتجاج به.
خاتمة
يقع استعمال الذكاء الاصطناعي في بحوث التخرج الجامعية اليوم عند تقاطع ديناميكيتين: توسّع الأنظمة التأديبية الكلاسيكية للغش والانتحال لتشمل الأدوات الجديدة من جهة، والاعتراف المتدرّج بهذه الأدوات كوسائل بيداغوجية مشروعة من جهة أخرى شريطة تأطيرها على نحو ملائم. وتُظهر الاجتهادات القضائية الفرنسية (مرسيليا، نيس، مونتروي، ليل)، والأمريكية (مينيسوتا، ييل)، وكذلك التطورات المغربية في مجال النزاهة العلمية، هذا المنحى المزدوج الذي يجمع بين تشديد العقوبات وتقنين سياسات استعمال الذكاء الاصطناعي.
وفي هذا السياق، يحتل أمر المحكمة الإدارية بباريس الصادر في 12 فبراير 2026 موقعاً مميزاً؛ إذ لا ينكر إمكانية معاقبة الاستعمال الاحتيالي للذكاء الاصطناعي، لكنه يشدّد على ضرورة أن تستند هذه العقوبة إلى قواعد مُقرّة سلفاً ومُبلّغة للطلبة. ويدعو ذلك إلى النظر إلى الذكاء الاصطناعي لا كخطر ينبغي استئصاله، بل كظاهرة ينبغي تنظيمها بدقة، عبر إعادة صياغة اللوائح الدراسية، وأساليب التقويم، وبرامج التكوين على النزاهة الأكاديمية.
وبذلك، لا يعلن الذكاء الاصطناعي نهاية البحث الجامعي، بل يفرض إعادة تعريف ما يُنتظر من عمل البحث: أقل اعتماداً على القدرة الصرف على الكتابة، وأكثر تركيزاً على القدرة النقدية، والتحكّم في المصادر، وتحمل المسؤولية الفكرية أمام أدوات ذات قدرات متزايدة. وبهذا الشرط فقط يمكن ضمان توازن مستدام بين الابتكار التكنولوجي ومتطلبات النزاهة في الأنظمة الفرنسية والأمريكية والمغربية.
