الفريق الحركي يتقدم بمقترح قانون حول استعمال الذكاء الاصطناعي وهذه مضامينه(النص الكامل للمقترح)

الفريق الحركي يتقدم بمقترح قانون حول استعمال الذكاء الاصطناعي وهذه مضامينه(النص الكامل للمقترح)
سياسة / الثلاثاء 07 يناير 2025 14:08:00 / لا توجد تعليقات:

أنتلجنسيا المغرب:الرباط

تقدم الفريق الحركي بمجلس النواب، التابع لحزب الحركة الشعبية المحسوب على المعارضة البرلمانية، بمقترح قانون حول تنظيم استعمال الذكاء الاصطناعي.

ووفق متتبعين للشأن البرلماني، فقترح القانون المذكور والذي تقدم به كل من ادريس السنتيسي، محمد والزين، سكينة لحموش، الشرقي الشكوري، إبراهيم اعبا، وفاطمة ياسين، يضم مقترحات وشروط ستدفع نحو تنظيم العمل بالذكاء الصطناعي، واستعماله بطرق صحيحة وشرعية، وسيحد من فوضى التعامل به.

وهذا النص الكامل لمقترح القانون كما تحصلت الجريدة على نسخة منه:

مقترح قانون بشأن تنظيم استعمال الذكاء الاصطناعي 

تقدم به السيدات والسادة النواب:

ادريس السنتيسي، محمد والزين، سكينة لحموش، الشرقي الشكوري، إبراهيم اعبا، فاطمة ياسين.

رقم التسجيل

تاريخ التسجيل

مذكرة تقديمية:

  أصبحت أحدث موجات التكنولوجيا تعتمد على الذكاء الاصطناعي، حيث أن هذا الأخير دخل في صلب جميع القطاعات والمجالات. واعتبارا لما تنطوي عليه هذه الآلية التكنولوجيا الرقمية المتطورة من إيجابيات ومن سلبيات في نفس الوقت، فإن دخولها الى مجال التقنين أصبح أمرا ملحا.

  وفي هذا الإطار، واعتبارا لكون بلادنا وضعت استراتيجية تتثمل في المغرب الرقمي 2030 وفي إطار التطور الرقمي الذي انخرطت فيه بلادنا، فإن ضرورة التشريع أصبحت مطروحة بشكل كبير بغية الضبط والتنظيم، لاسيما في هذه المجالات الجديدة التي تحتاج الى قانون مواكب لعصر الرقمنة السريع والمتجدد.

      ومن هذا المنطلق، واستنادا الى الممارسات التي أصبحت شائعة من قبيل الصور والفيديوهات المفبركة والاخبار الزائفة، والاخطار المتعلقة باستخدام الذكاء الاصطناعي في مختلف مناحي الحياة (التعليم والصحة والخدمات اليومية وغيرها) وكذا استنادا الى التوصيات الدولية التي تدعو الى ضرورة التشريع لأنظمة الذكاء الاصطناعي من قبيل الأمم المتحدة: من خلال اليونسكو (منظمة الأمم المتحدة للتربية والعلم والثقافة)، والتي أصدرت توصيات بشأن أخلاقيات الذكاء الاصطناعي. في نوفمبر 2021، حيث اعتمدت الدول الأعضاء في اليونسكو اتفاقية تهدف إلى تنظيم الذكاء الاصطناعي، مع التركيز على حقوق الإنسان والأخلاقيات.

وكذا الاتحاد الأوروبي الذي قام بوضع قانون الذكاء الاصطناعي (AI Act)، والذي يتضمن تصنيف الأنظمة بناءً على مخاطرها، ويضع قواعد صارمة لأنظمة الذكاء الاصطناعي عالية المخاطر، وأيضا مجموعة العشرين (G20): والمنتدى الاقتصادي العالمي (WEF): حيث أطلق المنتدى مبادرات تهدف إلى تنظيم الذكاء الاصطناعي لضمان استخدامه بشكل عادل ومسؤول، بما يتماشى مع القيم الإنسانية والحقوق الأساسية.

بالإضافة الى منظمة التعاون والتنمية الاقتصادية (OECD): التي قدمت بدورها توصيات واقترحت سياسات لتنظيم الذكاء الاصطناعي بشكل أخلاقي، بما يضمن الشفافية، والعدالة، والمساءلة في استخدام هذه التكنولوجيا.

لكل هذه الأسباب والاعتبارات ارتأى الفريق الحركي بمجلس النواب التفعيل الحقيقي للانتقال الرقمي عبر مواكبة الثورة الرقمية من خلال التشريع للذكاء الاصطناعي بغية تتبع ومراقبة تنزيل هذه الانظمة في جميع المجالات والتي أصبح الواقع يفرضها ويحتاج إليها. 

 ويأتي هذا المقترح بمواد تتضمن التعريف وتحدد مجالات تطبيق هذه الأنظمة وتحديد المسؤوليات وإحداث لجنة وطنية لتبع تنزيل هذه الأنظمة، والتنصيص كذلك على ضرورة التقييد بالتشريعات المتعلقة بالأمن السيبراني وحماية المعطيات ذات الطابع الشخصي وحماية الملكية الفكرية والقوانين الاخرى ذات الصلة حفاظ على حقوق المواطنين في الامن والخصوصية، وكذا الحق الكوني ألا وهو حق الاختيار في التعامل مع هذه الأنظمة من عدمها.

إن الغاية من هذا المقترح قانون هي تعزيز الترسانة القانونية الوطنية بنص تشريعي ضابط وناظم للذكاء الاصطناعي، الذي يعرف تطورا متواترا في الحياة العامة، وذلك باستحضار الجوانب الإيجابية وتكريسها قانونيا، وأيضا الجوانب السلبية ومحاربتها عن طريق المنع والزجر والعقاب.

مقترح قانون بشأن تنظيم استعمال الذكاء الاصطناعي 

المادة 1: التعريف

الذكاء الاصطناعي: يشمل أي نظام أو تقنية تعتمد على الخوارزميات أو التعلم الآلي لمعالجة البيانات واتخاذ القرارات أو التوصيات.

البيانات الشخصية: جميع المعلومات المتعلقة بشخص طبيعي محدد أو يمكن تحديده بشكل مباشر أو غير مباشر.

النظام الآلي: أي جهاز أو برنامج يستخدم تقنيات الذكاء الاصطناعي لأداء وظيفة معينة دون تدخل بشري مباشر.

المادة 2: مجال التطبيق

يسري هذا القانون على جميع الأنشطة المتعلقة بتطوير واستخدام أنظمة الذكاء الاصطناعي في المغرب من قبل الأفراد، المؤسسات، الشركات، والمنظمات.

ويتم تنصيف أنظمة الذكاء الاصطناعي بين:

- أنظمة منخفضة المخاطر.

- أنظمة ذات مخاطر محدودة أو ضئيلة.

- أنظمة عالية المخاطر، وهي أنظمة يمكن أن يكون لها تأثير كبير على المستخدم. وتخضع هذه الأنظمة لالتزامات صارمة إذ يجب أن تخضع لتقييمات المطابقة قبل طرحها في السوق الوطنية.

- أنظمة ذات مخاطر غير مقبولة، والتي لا يُسمح بتسويقها في سوق الوطنية.

ويحدد نص تنظيمي مجالات تطبيق أنظمة الذكاء الاصطناعي

المادة 3: تحديد المسؤوليات

يجب على كل مؤسسة أو فرد يستخدم الذكاء الاصطناعي إعلام المستخدمين بأنهم يتعاملون مع نظام يعتمد على الذكاء الاصطناعي.

يتحمل المستخدم أو المؤسسة المسؤولية الكاملة عن أي ضرر ناتج عن قرارات أو أفعال أنظمة الذكاء الاصطناعي.

يجب تقديم تقارير دورية للسلطات المختصة حول الأنظمة المستخدمة وتأثيراتها.

المادة 4 أخلاقيات ومبادئ عامة

تتمثل اخلاقيات استعمال الذكاء الاصطناعي في:

- ضرورة الحفاظ على التدخل والإشراف البشري.

- السلامة والأمن التقني،

- الخصوصية وحفظ البيانات

- التنوع وعدم التمييز والإنصاف

- الشفافية والمصداقية

المادة 5: حماية البيانات

يجب على جميع أنظمة الذكاء الاصطناعي التي تعتمد على البيانات الشخصية الالتزام بالقانون رقم 08-09 المتعلق بحماية الأشخاص الذاتيين تجاه معالجة المعطيات ذات الطابع الشخصي وبالقوانين ذات الصلة الجاري بها العمل

يجب تأمين البيانات الشخصية وضمان عدم استخدامها إلا للأغراض المصرح بها من قبل المستخدم أو مالك البيانات.

المادة 6: اللجنة الوطنية استعمال الدكاء الاصطناعي

تحدث لجنة وطنية تحت رئاسة رئيس الحكومة يحدد أعضاؤها بنص تنظيمي

المادة 7: استخدام الذكاء الاصطناعي في الحياة العامة

الفرع الأول: 

الذكاء الاصطناعي في وسائل التواصل الاجتماعي

  يمكن استخدام الذكاء الاصطناعي في منصات التواصل الاجتماعي، خاصة في معالجة المحتوى وتقديم التوصيات، شريطة ألا يتم استخدام هذه التقنية في نشر الأخبار الزائفة أو الخطابات المسيئة أو الصور والفيديوهات المفبركة

الفرع الثاني:

 استخدام الذكاء الاصطناعي في التجارة الإلكترونية

  يمكن الاستعانة بالذكاء الاصطناعي لتقديم توضيحات أو إعلانات شخصية، ويجب على التجار الإلكترونيين إعلام العملاء بأن هذه التوضيحات أوالاعلانات مبنية على خوارزميات تعتمد على الذكاء الاصطناعي.

الفرع الثالث:

 الذكاء الاصطناعي في المجال الطبي

يمكن استعمال بعض تطبيقات الذكاء الاصطناعي التي تستخدم في التشخيص أو العلاج المرخص لها من قبل منظمة الصحة العالمية مكملة للقرار الطبي البشري ولا يجوز الاعتماد عليها كليًا.

تحدد مجالات التدخل في المجال الطبي بنص تنظيمي

الفرع الرابع:

 الذكاء الاصطناعي في التعليم

  يجوز استخدام الذكاء الاصطناعي في التعليم في البرامج التربوية التعليمية والمساهمة في تحليل البيانات الفردية للطلاب وإعداد الامتحانات.

يُمنع الاعتماد على أنظمة الذكاء الاصطناعي بشكل كامل في التقييمات النهائية للطلاب، حيث يجب أن يكون التقييم البشري جزءًا من القرار النهائي.

يحدد بنص تنظيمي طرق استخدام أنظمة الذكاء الاصطناعي في البحوث الجامعية

الفرع الخامس:

 الذكاء الاصطناعي في المنازل

  يجب أن تتوفر جميع الأجهزة المنزلية الذكية التي تعتمد على الذكاء الاصطناعي على معايير حماية وأمان عالية وأنظمة منخفضة المخاطر.

  يجب إخبار المستهلكين بشكل واضح بقدرات جمع البيانات وتحليلها في الأجهزة الذكية المنزلية، مع توفير خيارات للتحكم في هذه البيانات أو منعها.

المادة 8: الملكية الفكرية وحماية حقوق النشر

 يجب على الأنظمة التي تصنع محتوى (مثل النصوص، الفن، أو الموسيقى) أن تشير بوضوح إلى أن المحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي حماية لحقوق الملكية الفكرية.

يتعين الالتزام بالقوانين ذات الصلة الجاري بها العمل

المادة 9: المعايير التقنية لتطوير الذكاء الاصطناعي

يجب إجراء اختبارات صارمة ودورية على كل نظام ذكاء اصطناعي قبل طرحه في السوق، للتحقق من أداء النظام ودقته وخلوه من الأخطاء البرمجية الخطيرة.

البنية التحتية والامتثال الفني: يجب أن تلتزم جميع أنظمة الذكاء الاصطناعي المستخدمة بمعايير تقنية دولية مثل ISO وIEEE لضمان الجودة والأمان.

المادة 10: الأمن السيبراني وحماية الأنظمة

يجب على جميع مزودي أنظمة الذكاء الاصطناعي توفير بروتوكولات أمان متقدمة لحماية الأنظمة من الهجمات السيبرانية أو الاختراقات.

يجب تقديم تحديثات أمنية دورية لضمان قدرة هذه الأنظمة على التصدي لأي تهديدات تقنية جديدة.

يتعين الالتزام القانون رقم 20-05 المتعلق بالأمن السيبراني وبالقوانين ذات الصلة الجاري بها العمل

المادة 11: حماية البنية التحتية الحيوية

يمنع استخدام أنظمة الذكاء الاصطناعي في البنية التحتية الحيوية بدون ترخيص من لدن الادارة وتحدد بنص تنظيمي المجالات المعنية بالترخيص.

 يجب على أي جهة تستخدم الذكاء الاصطناعي في إدارة البنية التحتية الحيوية أن تقدم تقارير دورية للجنة الوطنية المشار إليها أعلاه في المادة 6 من هذا القانون حول مستوى أمان الأنظمة وآليات حماية البيانات والمعلومات

المادة 12: معايير البيانات وجودتها

يجب أن تعتمد أنظمة الذكاء الاصطناعي على بيانات عالية الجودة، دقيقة، ومنظمة. لا يجوز استخدام بيانات مشوهة أو غير متوافقة مع المعايير الدولية، بشكل يؤثر مباشرة على دقة النظام.

المادة 13: حماية الخصوصية وتحليل البيانات

يجب إخفاء هوية المستخدمين في جميع البيانات التي يتم جمعها أو تحليلها من خلال أنظمة الذكاء الاصطناعي، لتجنب إمكانية التعرف على الأفراد دون موافقتهم الصريحة.

يُلزم استخدام تقنيات تشفير متقدمة لضمان عدم وصول أي طرف غير مصرح له إلى البيانات المستخدمة في تشغيل أنظمة الذكاء الاصطناعي.

يجب استخدام خوارزميات تعلم آلي تكون مصممة لتجنب أي تسريبات بيانات أو اختراقات خلال عملية المعالجة.

المادة 14: المسؤولية عن الأخطاء التقنية

يتحمل مطورو ومنفذو أنظمة الذكاء الاصطناعي المسؤولية عن أي خطأ برمجي في النظام يتسبب في نتائج غير متوقعة أو ضارة.

في حالة حدوث أي خلل تقني أو اختراق أمان سيبراني، يجب على الشركات تقديم تقرير مفصل للجهات التنظيمية حول سبب الخطأ والإجراءات المتخذة لتصحيحه ومنع حدوثه مرة أخرى.

المادة 15: العقوبات

في حالة انتهاك أي من أحكام هذا القانون، يجوز فرض غرامات مالية تتراوح بين 50,000 درهم و500,000 درهم حسب طبيعة ومدى الانتهاك.

في حال تكرار الانتهاك أو التسبب في أضرار جسيمة، يمكن فرض عقوبات بالسجن تتراوح من 6 أشهر إلى 5 سنوات.

المادة 16: المسؤولية الجنائية

يتم تحميل الأفراد أو المؤسسات المسؤولية الجنائية في حالة الاستخدام غير المشروع أو المسيء لأنظمة الذكاء الاصطناعي، سواء كان ذلك عبر انتهاك خصوصية الأفراد أو التسبب في ضرر جسدي أو مادي.

المادة 17: أحكام انتقالية

يتم إصدار النصوص التنظيمية المدرجة في هذا القانون خلال آجل 3 أشهر

يدخل هذا القانون حيز تنفيذ ابتداء من تاريخ نشره في الجريدة الرسمية

لا توجد تعليقات:

للأسف، لا توجد تعليقات متاحة على هذا الخبر حاليًا.

أضف تعليقك