27-آذار-2024

أخلاقيات علم البيانات والذكاء الاصطناعي

قد يتعجب البعض من حقيقة أنه يوجد نحو 39 تحدياً أخلاقياً واقتصادياً للذكاء الاصطناعي حول العالم. وأبرز تلك التحديات هي:
– تكلفة الابتكار في هذا المجال.
– انعدام الثقة الكاملة في الذكاء الاصطناعي من قبل الكثيرين.
– نقص في جودة البيانات.
– اختفاء بعض الوظائف.
– الضرر على السلامة الجسدية للبشر احيانا عند التعامل مع الروبوتات.
– قلة الخصوصية خاصة حين استخدام بيانات المجالات الصحية والأمنية وغيرها.
– الظهور المفاجئ للذكاء الاصطناعي وضرورة تبنيه بشكل سريع.
– التحديات الأمنية ذات الصلة.
– مشكلات عدم النزاهة وتحيز البيانات في بعض الأحيان.
– انعدام الشفافية.
– إمكانية الاستخدام الإجرامي والضار.
– فقدان الحرية والاستقلالية الفردية نتيجة رقابة الآلة المستمرة.
– عدم السماح بوصول أنظمة الذكاء الاصطناعي إلى العديد من الخدمات العامة والحكومية.
– الحد من التواصل البشري خاصة في المجال الصحي.
– عدم وجود المساءلة والمسؤولية.
– التأثير السلبي على البيئة.
– فقدان الإنسان للقرار.
– عدم وصول البشر إلى المعلومات بسهولة.
– زيادة استخدام تكنولوجيات الذكاء الاصطناعي غير الموثوق بها في مجال إنفاذ القانون.

واليوم، توجد آليات تقنية متطورة للذكاء الاصطناعي تعمل على جمع وتحليل البيانات المختلفة، في أنظمة ذكية ترتبط بكافة مجالات الحياة، بدءاً من معلومات الأفراد الشخصية والعائلية، والمعلومات الصحية والبنكية، ووصولاً إلى معلومات التسوق الخاصة بالأفراد ، واستخدام السيارات ذاتية القيادة. وكذلك توجد البيانات الضخمة التي تتوفر من خلال شبكات الانترنت والأنظمة المختلفة في المؤسسات والهيئات الحكومية والمصانع والقطاع الخاص، وأيضا تلك الخاصة بالطاقة والموارد، والتي تُستخدم في تغذية انظمة الذكاء الاصطناعي للتعلم والتحليل والتنبؤ المستقبلي في المجالات الاقتصادية والاجتماعية والصحية والعلمية المختلفة.
وكذلك، أصبحت هناك مصادر كثيرة من الممكن خلالها الحصول على تلك البيانات واستخدامها سواء بطرق قانونية وأخلاقية، او غيرها. كما أنه لا يوجد حالياً بنية تحتية قانونية لازمة لضمان التطور الأخلاقي للتكنولوجيا الخاصة بالذكاء الاصطناعي.

ولذلك، تعتبر أخلاقيات علم البيانات والذكاء الاصطناعي هي النصوص والتشريعات التي تمكننا من معرفة ما هو الصواب وما هو الخطأ خلال التعامل مع تلك التقنية. وبالمقام الأول، أصبح هناك اهتمام بالعديد من العناصر المهمة التي تساعد في عمل تلك التشريعات، مثل حوكمة البيانات المغذية للأنظمة الذكية وتحديد ملكيتها، وتصنيفها، وخصوصيتها، وصلاحية الوصول والاستفادة منها، وكذلك حماية تلك البيانات وأمنها. ويوجد عنصر هام آخر في مجال أخلاقيات الذكاء الاصطناعي، وهو ضرورة أن تكون البيانات، المُستخدمة في تغذية الآلات الذكية، ذات جودة عالية ويمكن الوثوق والاعتماد عليها.

ومؤخرا، ‏فقد اعتمدت جميع الدول الأعضاء في ‎اليونسكو، وعددهم 193 دولة، اتفاقاً عالمياً تاريخياً يحدد المبادئ والأخلاقيات والقيم “المشتركة” اللازمة لضمان تطوير ‎الذكاء الاصطناعي بصورة سليمة، ومن أجل وضع قواعد للذكاء الاصطناعي تعود بالنفع على البشرية.

ويهدف هذا الاتفاق إلى توجيه بناء البنية التحتية القانونية اللازمة لضمان التطور الأخلاقي لهذه التكنولوجيا، وضمان الشفافية والأهلية وتحكم الأفراد في بياناتهم الشخصية. كما تحظر الاتفاقية استخدام أنظمة الذكاء الاصطناعي في التقييم الاجتماعي أو المراقبة الجماعية.

ومن توصيات تلك الاتفاقية كذلك، هو اختيار وسائل الذكاء الاصطناعي التي تتسم بالكفاءة في استخدام البيانات والطاقة والموارد، لكي تساهم في التصدي للتحديات التي يواجهها العالم، في الكثير من المجالات، والتي تشمل تغير المناخ والقضايا البيئية، والزراعة، والتصنيع، وتحقيق العدالة والمساواة، ومكافحة الفساد، وتعزيز مجال الطاقة، وزيادة الإنتاجية، والتوظيف، والتعليم.