الذكاء الاصطناعي والقانون

mainThumb

25-02-2025 11:21 PM

لطالما لعبت التكنولوجيا دوراً محورياً في حياة الإنسان، حيث دخلت في مختلف المجالات مثل الطب، الهندسة، وحتى في تفاصيل الحياة اليومية. ولم يكن القانون بمنأى عن هذا التطور، إذ أصبحت الجريدة الرسمية تُنشر إلكترونياً، وصار بإمكان الباحثين الوصول إلى مختلف التشريعات عبر الإنترنت بدلاً من الاعتماد على الكتب الورقية.

ومؤخراً، أحدث الذكاء الاصطناعي ضجّةً واسعة في العالم، حيث أصبح أداة لا غنى عنها في العديد من المجالات، نظراً لقدراته المتطورة وسرعته في تحليل البيانات واتخاذ القرارات. ومع ذلك، أثار هذا التطور جدلاً قانونياً واسعاً، خاصةً فيما يتعلق بالمسؤولية القانونية عن أفعال الذكاء الاصطناعي.

على سبيل المثال، في حادثة أثارت اهتمام الرأي العام، قام أحد أنظمة الذكاء الاصطناعي بتحريض شخص على الانتحار، مما أثار تساؤلات جوهرية: من هو المسؤول قانونياً في مثل هذه الحالات؟ هل تتحمل الشركة المطورة لهذا الذكاء الاصطناعي المسؤولية؟ أم أن الذكاء الاصطناعي نفسه يجب أن يُعامل ككيان قانوني مستقل؟

في هذا المقال، سنتناول آراء الفقهاء حول هذه المسألة، ونستعرض آخر التطورات القانونية المتعلقة بمحاسبة الذكاء الاصطناعي.

أولاً: الإدراك والإرادة

لا شك أن الذكاء الاصطناعي، رغم تطوره الهائل، لا يمتلك إدراكاً أو إرادة حرة بالمعنى القانوني، فهو في النهاية مجرد خوارزميات وبرمجيات تعتمد على معالجة البيانات وفقاً للأوامر المدخلة والتعلم من الأنماط السابقة. وبناءً على ذلك، اتجه بعض الفقهاء إلى اعتبار أن الشركة المطورة هي المسؤولة عن أفعال الذكاء الاصطناعي، باعتبارها الجهة التي صممت وأدارت النظام.

لكن في المثال الذي ذكرناه في المقدمة، حيث قام نظام ذكاء اصطناعي بتحريض شخص على الانتحار، يبرز إشكال قانوني معقّد؛ فالشركة المطورة لم تكن تملك إرادة أو نية ارتكاب هذا الفعل، كما أن الذكاء الاصطناعي نفسه يعتمد على بيانات متغيرة باستمرار، مما يجعل تحميل الشركة المسؤولية الجنائية أمراً صعباً، لغياب القصد الجرمي لديها.

من هنا ظهر رأي قانوني آخر، وهو تحميل الشركة المسؤولية التقصيرية عن الضرر الناجم عن أفعال الذكاء الاصطناعي. وفقاً لهذا الرأي، حتى لو لم تكن الشركة تنوي ارتكاب الفعل، فهي تظل مسؤولة عن أي ضرر ناتج عن تقصيرها في تصميم أو مراقبة النظام.

ورغم أن هذا الرأي هو الأقرب من الناحية القانونية، إلا أنه يواجه انتقاداً أيضاً، إذ قد تتخذ الشركة جميع الاحتياطات الممكنة لمنع الذكاء الاصطناعي من ارتكاب الأخطاء، ومع ذلك، بسبب قدرته على التعلّم الذاتي وتحديث بياناته باستمرار، قد يقع الخطأ دون أي تدخل من الشركة.

ثانياً: الأساس القانوني للمسؤولية عن أفعال الذكاء الاصطناعي

1- المسؤولية المدنية

ذهبت بعض الآراء إلى اعتبار الذكاء الاصطناعي شيئاً، ويُعرَّف الشيء في القانون بأنه كل ما يمكن حيازته مادياً أو معنوياً، والانتفاع به انتفاعاً مشروعاً، ولا يخرج عن التعامل بطبيعته أو بحكم القانون، كما يصحّ أن يكون محلاً للحقوق المالية.

وتقوم المسؤولية عن حراسة الأشياء وفقاً للقانون على شرطين رئيسيين:

1. وجود حراسة فعلية على الشيء.
2. وقوع الضرر بفعل الشيء ذاته.

ورغم أن هذا الرأي يبدو صائباً من النظرة الأولى، إلا أنه يتعارض مع طبيعة الذكاء الاصطناعي، إذ إن الحراسة تفترض وجود سلطة فعلية على الشيء، في حين أن الذكاء الاصطناعي لا يخضع لحراسة جهة واحدة، بل يمكن لأي شخص استعماله، فهو عبارة عن مجموعة بيانات مخزنة في النظام يمكن الوصول إليها من قِبَل العديد من المستخدمين.

ولكن ماذا لو استُخدم الذكاء الاصطناعي لإحداث ضرر؟
في هذه الحالة، يُعتبر المستخدم هو الفاعل والمسؤول قانونياً، وليس الذكاء الاصطناعي نفسه.

أما فيما يتعلق بالمسؤولية التعاقدية، فإذا وُجد عقد بين المستخدم والشركة المصنّعة، وتسبب الذكاء الاصطناعي في ضرر ناجم عن عيب أو إهمال في تصميمه أو برمجته، فإن الشركة تكون مُلزَمة بالتعويض وفقاً لقواعد المسؤولية العقدية.

2- المسؤولية الجزائية

تفترض المسؤولية الجزائية وجود شخص طبيعي يمكن مساءلته عن الجرائم، وهو ما يطرح إشكالية قانونية عند التعامل مع الذكاء الاصطناعي، إذ إنه ليس كياناً قانونياً مستقلاً ولا يملك إرادة ذاتية.

لذلك، تنقسم الآراء القانونية بشأن المسؤولية الجزائية إلى ثلاثة اتجاهات رئيسية:

أ- إسناد المسؤولية إلى المستخدم

كما هو الحال في المسؤولية المدنية، إذا قام المستخدم باستعمال الذكاء الاصطناعي لارتكاب جريمة، فإنه يتحمل المسؤولية الكاملة عن أفعاله، تماماً كما لو كان يستخدم أداة تقليدية لارتكاب الفعل الجرمي.

ب- إسناد المسؤولية إلى الشركة المصنِّعة

في حال كان هناك عيب أو خلل أو تقصير في تصميم الذكاء الاصطناعي أدى إلى ارتكاب الجريمة، فإن الشركة المصنعة قد تُحاسَب استناداً إلى مسؤوليتها التقصيرية، وذلك إذا ثبت أنها لم تتخذ التدابير اللازمة لمنع حدوث الضرر.
ومع ذلك، فإن إثبات القصد الجرمي للشركة قد يكون تحدياً قانونياً، إذ يتطلب إثبات أن الشركة كانت على علم بإمكانية حدوث الجريمة ولم تتخذ التدابير اللازمة لمنعها.

ج- منح الذكاء الاصطناعي شخصية اعتبارية مستقلة

ذهب بعض الفقهاء إلى اقتراح منح الذكاء الاصطناعي شخصية قانونية مستقلة، مثل الشركات، بحيث يكون مسؤولاً عن أفعاله قانونياً.
إلا أن هذا الرأي يثير إشكاليات فلسفية وقانونية، إذ كيف يمكن محاسبة كيان لا يملك إدراكاً أو إرادة؟ كما أن منحه شخصية قانونية قد يفتح الباب أمام تساؤلات حول حقوقه وواجباته في النظام القانوني.

ثالثاً: توصيات للمشرع الأردني

1. وضع إطار قانوني شامل: يجب على المشرع وضع قوانين واضحة تحكم استخدام الذكاء الاصطناعي، مع التركيز على الشفافية وحماية حقوق الأفراد من الاستغلال أو التمييز.

2. تبني نماذج تشريعية دولية: من الممكن تبني بعض الأفكار من التشريعات الأوروبية أو الأمريكية مع مراعاة خصوصية التشريعات المحلية.

3. توفير التوازن بين الابتكار والأمان: يجب على المشرع ضمان بيئة تشجع على الابتكار في الذكاء الاصطناعي مع الالتزام بمعايير الأمان وحماية حقوق الإنسان.

4. إعداد آليات لمراقبة الاستخدامات: إنشاء هيئات مستقلة تُعنى بمراقبة استخدام الذكاء الاصطناعي ومعاقبة الاستخدامات الضارة.

ختاماً، إن تنظيم الذكاء الاصطناعي يعد من القضايا القانونية الحديثة التي تتطلب توازناً دقيقاً بين الابتكار والتطور التكنولوجي من جهة، وحماية الحقوق القانونية والأخلاقية للأفراد والمجتمع من جهة أخرى.



تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد