نخبة بوست – كتب: المحامي الدكتور صدام ابو عزام
بات بحكم المؤكد أن وسائل الذكاء الاصطناعي تتقاطع مع كافة مجالات العلم والمعرفة، نظراً للعديد من الميز التنافسية التي توفرها هذه الوسائل والتقدم التكنولوجي المقرون بها. فالأصل أنها جاءت لتسهيل حياة الأفراد وتسريع تقديم الخدمات من المؤسسات، وهذا بدوره يؤدي إلى تعزيز منظومة حقوق الإنسان بشكل عام ويصب بالنتيجة في تحقق التنمية بكافة مجالاتها.
قطاع العدل من القطاعات التي وظفت الذكاء الاصطناعي في محاوره، إلا أن تقييم التجارب على المستوى العالمي لا يزال قيد البحث والتحليل في مدى تأثير الذكاء الاصطناعي على الحق في إقامة العدل؛ فالذكاء الاصطناعي أحد مكونات التكنولوجيا الرقمية، ومن أهم التحديات التي لا تزال ترافق هذه التكنولوجيا على المستوى العالمي كيفية تطويرها، وكيفية عملها، ومراقبتها، والشركات المشغلة لها، ونهج تطوير الخوارزميات التي تستند إليها، وقدرتها على الاستنتاج المنطقي والتحليل العلمي، وصحة ودقة المدخلات وانعكاس ذلك على المخرجات. هذه المنظومة المعقدة يصاحبها تحديات لا بد من أخذها بعين الاعتبار.
من أبرز التحديات التي ترافق الذكاء الاصطناعي هو قدرة الخوارزميات على بناء تنبؤات حقيقية وواقعية؛ وتشير أغلب التقارير العالمية إلى أن خوارزميات الذكاء الاصطناعي احتمالية وغير مؤكدة، وتنتج خلاصات مبنية على مدخلات مسبقة تنحصر في حدودها، الأمر الذي يحدث الفارق بينها وبين العقل البشري وقدرته الاستنباطية والاستدلالية.
هذا بدوره يؤثر على عملية صنع القرار التي توصف بأنها مبهمة ولا يمكن أن تلامس الواقع؛ وإن قاربت الواقع، تظل حالة عدم اليقين تغلفها من كافة الأبعاد؛ ولعل ذلك يؤكد على ما للعقل البشري من تميز وتفوق على كل ذلك، مهما كانت التقنيات المستخدمة من الذكاء الاصطناعي.
التحدي الأكبر والأهم يكمن في عدم معرفة المستخدم طبيعة المعلومات والبيانات التي تمثل حجر الرحى في هذه التقنيات. والأمر الذي يُبنى عليه أن عملية التحليل وصنع القرار سوف تُبنى على هذه المدخلات؛ والشركات المشغلة لا تفصح في العادة عن هذه المدخلات وتعتبرها من الأسرار التي لا يمكن الإفصاح عنها، وبالتالي من الصعوبة بمكان التدقيق حول صحة المخرجات أو عمليات الاستنتاج والاستدلال المنطقي.
وفي مجال إقامة العدل، فإن عدم الكشف عن البيانات التي يتم الاستناد إليها في الإجراءات القضائية يمثل إخلالاً للحق في الإجراءات القانونية الواجبة الاتباع. إذ لا بد لمؤسسات القضاء والعدل والمؤسسات ذات العلاقة أن تكون على علم ودراية بكافة العمليات الخوارزمية التي يتم الاستناد إليها في عمليات الحصول على الأدلة، وكيفية الوصول إليها؛ وإذا كانت إعطاء النتيجة مستنداً إلى هذه التكنولوجيا، لا بد من إخضاع هذه العملية للنقاش من الأطراف. وهذا يمثل مبدأ جوهرياً لا بد من التبصر به من الأطراف ومن قاضِ الموضوع.
وعلى صعيد الأدلة الجرمية وما يرافقها من أدوات، من كاميرات وجمع بيانات وتحليلات يتم استخدامها من أجهزة إنفاذ القانون والاستجواب والاعتقال والملاحقة والمراقبة وغيرها من وسائل للحصول والوصول إلى الأدلة الجرمية أو البحث عن مرتكبي الجرائم، لا بد من التأكد من الشفافية والتناسب والمساءلة، والقدرة على المناقشة والاطلاع على كافة إجراءات بناء الدليل أو الإجراء.
لا شك في أن بعض الدول خطت خطوات غير مسبوقة في إدماج أنظمة الذكاء الاصطناعي في كافة محاور إقامة العدل، وصولاً إلى المحاكم الذكية التي غدت تصل إلى مرحلة طرح الأسئلة والاستجوابات وجمع الأدلة والمساعدة في إصدار الأحكام، حتى وصلت إلى فكرة قاضي الذكاء الاصطناعي؛ إلا أن كل ذلك لا بد أن يتم تقييمه على مؤشرات تحقيق العدالة والحق في المحاكمة العادلة، ولا سيما الإخلال بقرينة البراءة ومبدأ المجابهة بالدليل ومناقشة الشهود التي لا يمكن الاستعاضة عن العقل البشري فيها.
وفي جناح العدالة الآخر، المحامون، فإن الأمر ليس بالأمر اليسير، إذ يستند العديد من المحامين إلى أنظمة الذكاء الاصطناعي في بناء مذكراتهم ودفوعهم ومرافعاتهم وفي أعمالهم القانونية الأخرى بهدف الدفاع عن موكليهم؛ إلا أن هذه العملية أيضاً تبقى محصورة في إطار القيود الإحصائية والكلمات المفتاحية التي يتم استخدامها، وبالتالي يؤثر على فكرة الدفاع برمتها ويشكل مساساً جوهرياً فيها. فقد تصل هذه الأنظمة إلى فكرة “الهلوسة الذكية” نتيجة هذه العمليات، وبالتالي تلفق البينات أو النتائج وتصل إلى مخرجات خاطئة ومضللة، ويتم بناء اعتقادات على أنها صحيحة.
إن من أكبر دواعي القلق التي تثيرها هذه الأنظمة هو اختراق الخصوصية الأسرية والمصرفية والسجلات الجرمية والمعلومات الأمنية التي لا ترقى إلى مستوى السجلات الجرمية. ويتم بناء الملفات على أنها حقائق يتم الاستناد إليها في تشكيل القناعات، مما ينتهك الحق في الخصوصية.
وعليه، يجب عدم الاعتقاد بأن هذه الأدلة مسلمات لا يمكن تفنيدها أو مناقشتها أو استبعادها. وتشير تقارير الأمم المتحدة إلى الأمر الذي يقود إلى مسألة غاية في الأهمية تكمن في قدرة السلطة القضائية على السيطرة على هذه الأدوات التكنولوجية ومدخلاتها وأدوات الاستنتاج. وعليه، أشار تقرير الأمين العام للأمم المتحدة المقدم للجمعية العامة عام 2024، وكذلك المقررة الخاصة باستقلال السلطة القضائية، إلى أن عدم قدرة السلطة القضائية على إدارة هذه الوسائل أو السيطرة عليها أو الإشراف عليها من شأنه أن يخل بمبدأ استقلال السلطة القضائية.
وبالتالي قد نصل إلى مسألة التحييز الإلكتروني، التي من شأنها أن تخل بقدرة القاضي على الاستنتاج المنطقي المستند إلى مبدأ القناعة الوجدانية، إذ من المستحيل إعمال هذا المبدأ كون جزء منه يقوم على القدرة على تقدير الواقعة بمشاعر البشر.
الطبيعة التقنية والعملية المعقدة لأنظمة الذكاء الاصطناعي تجعل منها صناديق سوداء لا يمكن للمتخصصين فهم الأساس المنطقي للنتائج التي يتمخض عنها النظام؛ وعليه، فإن من المخاطر التي يمكن أن تمس الحق في المحاكمة العادلة في سياق الذكاء الاصطناعي تكمن في: الإخلال بمبدأ قرينة البراءة، والحق في الحصول على المعلومة الفورية وعن مصدر الاتهام وطبيعته، والقدرة على الدفاع عن النفس حضورياً، وتكافؤ وسائل الدفاع، والفرصة للطعن في البينات والأدلة المقدمة، وإتاحة الفرصة للدفاع عن النفس والاطلاع على الأدلة المقدمة ومناقشتها.
وعليه، فإن التوجه الدولي وفق معايير حقوق الإنسان لم يستقر بعد على معايير واضحة في إدماج معايير الذكاء الاصطناعي والتكنولوجيا الرقمية في أعمال القضاء، باستثناء الأعمال الإجرائية التي من شأنها أن تخفف من حدة الإجراءات البيروقراطية؛ الأمر الذي يجب حياله التأني في إدماج أي وسيلة من وسائل الذكاء الاصطناعي في أعمال القضاء، ضماناً للمحاكمة العادلة، وتلافياً لأي مساس بهذه الضوابط.