04-أيلول-2024
صراع الهوية الرقمية.. كيف تميز بين الإنسان والآلة في الفضاء الرقمي؟
تقنيات الذكاء الاصطناعي باتت قادرة على توليد محتوى لا يمكن تمييزه عن المحتوى الذي ينتجه البشر
يشهد عالمنا الرقمي تطورًا مذهلًا في مجال الذكاء الاصطناعي وتقنيات التعلم الآلي، إذ باتت روبوتات الذكاء الاصطناعي قادرة على محاكاة السلوك البشري بدقة عالية، وقد أثار هذا التطور تساؤلات جوهرية حول طبيعة الهوية الرقمية، ودفع الباحثين إلى البحث عن آليات فعالة للتمييز بين الإنسان والآلة في الفضاء الرقمي.
أزمة التمييز بين الإنسان والآلة:
زادت المخاوف بشأن القدرة على التمييز بين الإنسان والآلة في الفضاء الرقمي في السنوات الأخيرة للعديد من الأسباب، التي من أبرزها:
تطور تقنيات الذكاء الاصطناعي: باتت تقنيات الذكاء الاصطناعي قادرة على توليد محتوى لا يمكن تمييزه عن المحتوى الذي ينتجه البشر، مثل: النصوص والصور والأصوات، بل وصل الأمر إلى محاكاة سلوكيات الإنسان بشكل مقنع، مثل: حل ألغاز أنظمة التحقق (CAPTCHA).
انتشار روبوتات الدردشة: تساهم روبوتات الدردشة المتطورة في تعقيد عملية التمييز، حيث يمكنها إجراء محادثات طبيعية ومعقدة يصعب تمييزها عن المحادثات البشرية.
تهديد الأمن السيبراني: تستغل الجهات الخبيثة تقنيات الذكاء الاصطناعي لتوليد كميات ضخمة من المحتوى المزيف بشكل مقنع بهدف نشر الشائعات وإحداث الفوضى والتلاعب بالرأي.
تطوير نظام جديد للتحقق من الهوية الرقمية:
اقترح باحثون من معهد ماساتشوستس للتكنولوجيا، وجامعات مرموقة وشركات متخصصة في الذكاء الاصطناعي، مثل: OpenAI ومايكروسوفت، في ورقة بحثية جديدة، تطوير نظام أطلقوا عليه اسم (وثيقة إثبات الهوية البشرية) PersonHood Credential – الذي يُعرف اختصارًا باسم (PHC) – بهدف التحقق من هوية مستخدمي الخدمات الرقمية بشكل قاطع وتأكيد كونهم بشرًا وليس روبوتات.
ويأتي هذا الاقتراح كحل بديل لأنظمة التحقق التقليدية مثل (CAPTCHA)، التي باتت أقل فعالية في مواجهة تطور تقنيات الذكاء الاصطناعي.
ولكن ما آلية عمل نظام (PHC) الجديد؟
يهدف النظام الجديد إلى التحقق من هوية مستخدمي الخدمات الرقمية من خلال وثيقة هوية رقمية فريدة تصدرها الحكومات أو الشركات لكل مستخدم، وتعتمد هذه الوثيقة على تقنية التشفير المعروفة باسم (إثبات المعرفة الصفرية)Zero Knowledge Proof، وهي تقنية التشفير التي تسمح بالتحقق من هوية المستخدم دون الكشف عن أي معلومات شخصية حساسة.
ويمكن للمستخدمين تخزين هذه الوثائق في أجهزتهم الشخصية، مما يوفر لهم طبقة إضافية من الحماية والخصوصية. وبذلك، يمكن لهذه الوثائق أن تحل محل الطرق التقليدية للتحقق من الهوية، مثل CAPTCHA، والقياسات البيومترية مثل بصمات الأصابع.
تحديات وتأثيرات نظام (PHC) الجديد:
يبدو نظام (PHC) حلًا واعدًا نظريًا للتحقق من الهوية الرقمية، ولكن أشار الباحثون إلى أنه يحمل في طياته العديد من التحديات، ومنها: احتمال بيع هذه الوثائق بشكل غير قانوني، مما يسهل انتشار المحتوى المزيف والتأثير في مصداقية النظام.
بالإضافة إلى ذلك، فإن الجهة المسؤولة عن إصدار هذه الوثائق ستحظى بسلطة كبيرة، وتركيز السلطة في يد جهة واحدة يجعلها هدفًا جذابًا للهجمات السيبرانية، مما يهدد أمن النظام بأكمله.
كما حذر الباحثون من أن نظام (PHC) قد يؤدي إلى تركيز السلطة في أيدي عدد محدود من الجهات – سواء الحكومات أو المؤسسات الكبيرة – التي ستكون مسؤولة عن إصدار الوثائق الرقمية، مما يثير مخاوف جدية بشأن الاحتكار الرقمي والتأثير السلبي في حقوق المستخدمين، إذ قد تستغل هذه الجهات سلطتها لتحديد كيفية استخدام هذه الوثائق، مما يحد من المنافسة ويؤثر في طبيعة التفاعل بين الأفراد والخدمات الرقمية.
وعلاوة على ذلك، قد يواجه كبار السن، الذين هم أكثر عرضة للاحتيال الإلكتروني، صعوبة في التعامل مع نظام الوثائق الجديد. لذلك يقترح الباحثون إجراء تجارب أولية على نطاق محدود لتقييم مدى ملاءمة نظام (PHC) للفئات العمرية المختلفة.
ما الذي يميز هذا النظام عن نظام Worldcoin؟
يشبه نظام وثائق الهوية المقترح، ما تسعى إليه شركات عالمية متخصصة مثل شركة (Worldcoin) – التي شارك في تأسيسها (سام ألتمان) الرئيس التنفيذي لشركة OpenAI – والتي تطور نظامًا يُسمى (World ID) للتحقق من الهوية باستخدام تقنية مسح قزحية العين. ويهدف هذا النظام إلى تمكين الأفراد من الحصول على خدمات رقمية مختلفة، مع ضمان عدم استغلال روبوتات الذكاء الاصطناعي لهذه الخدمات.
ومع ذلك، يؤكد الباحثون في الورقة البحثية للنظام الجديد، التي شارك في تأليفها باحثون من شركة (OpenAI) وهما: ستيفن أدلر وزوي هيتزيج، أن هدفهم هو تحديد المعايير الأساسية التي يجب توفرها في أي نظام من هذا النوع، وليس تأييد نظام معين مثل نظام (Worldcoin).
كما أشار الباحثون إلى أهمية وجود أنظمة متعددة للتحقق من الهوية الرقمية للأفراد، مما يضمن حصول المستخدمين على خيارات متعددة، ويحد من هيمنة أي جهة واحدة على هذه العملية.
تحويل العبء.. من المسؤول عن حماية الخصوصية الرقمية؟
يفرض نظام (PHC) عبئًا إضافيًا على المستخدمين، إذ يطلب منهم التعامل مع مشكلة سوء استغلال تقنيات الذكاء الاصطناعي التي قدمتها شركات التكنولوجيا دون تقديم حل فعال وآمن لها، بالإضافة إلى تعاملهم مع فشل تلك الشركات في معالجة مشاكل مثل انتشار البريد العشوائي والمعلومات المضللة، وهذا يتعارض مع الهدف الأساسي من تطوير مثل هذه الأنظمة، وهو تبسيط حياة المستخدمين.
فبدلًا من تحميل المستخدمين مسؤولية حماية أنفسهم من التهديدات التي تسببها التقنيات الجديدة، يجب على شركات التكنولوجيا أن تتخذ مبادرات لحل المشكلات التي تسببها منتجاتها.
وقد أكد كريس جيليارد، الباحث في مجال الخصوصية، أن النظام المقترح يعكس النهج الذي تتبعه شركات التكنولوجيا، والذي يتمثل في تحميل المجتمع عبء التكيف مع التقنيات الجديدة.
وقال جيليارد: “تستند الكثير من الأنظمة الجديدة إلى فكرة مفادها أن المجتمع والأفراد سيتعين عليهم تغيير سلوكهم بناءً على المشكلات التي تسببها الشركات في ملء الإنترنت بروبوتات الدردشة والنماذج اللغوية الكبيرة بدلًا من معالجة الجذور الحقيقية للمشكلة عن طريق تطوير تقنيات أكثر أمانًا ومسؤولية”.
كما أشار العديد من الخبراء إلى أن التحقق من الهوية الرقمية ليس حلًا شاملًا لمشكلة التمييز بين البشر والآلات، بل هو جزء من حل أكبر، لأنه لو تمكنّا من التمييز بين البشر والآلات بدقة، فإن ذلك لن يمنع الروبوتات من التأثير في المجتمع بطرق أخرى، مثل نشر المعلومات المضللة والتلاعب بالرأي العام.
الحلول المقترحة:
تبدو المبادرات التي تقترحها شركات التكنولوجيا للتمييز بين البشر والآلات جيدة على الورق، ولكنها في الواقع تُظهر مدى تهرب تلك الشركات من تحمل مسؤولية الآثار السلبية للتقنيات التي طورتها بهدف تسهيل حياة المستخدمين في حين لا لم تحقق هذا الهدف. وبدلًا من معالجة المشاكل التي تسببها نماذج الذكاء الاصطناعي، مثل انتشار المعلومات المضللة، تقوم هذه الشركات بنقل العبء إلى المستخدمين والمجتمعات.
ولكن يمكن لشركات التكنولوجيا أن تبدأ بوضع علامات مائية على المحتوى الذي تنتجه نماذج الذكاء الاصطناعي التي طورتها، أو تطور أدوات قوية للكشف عن المحتوى المزيف. ومع أن هذه الحلول ليست مثالية، ولكنها تُلقي بالمسؤولية على مصدر المشكلة.
وإذا تخلت شركات التكنولوجيا عن هذه المسؤولية، سيكون ذلك وصمة أخرى في سجل وادي السيليكون، الذي اعتاد طرح مشكلات لم يطلبها أحد، في حين يستثمر في آثارها. إذ إن تاريخ شركات التكنولوجيا حافل بأمثلة على إطلاق منتجات جديدة دون التفكير في عواقبها، ومشكلة المحتوى المزيف هي مجرد حلقة جديدة في هذه السلسلة.
وتشبه هذه المشكلة استهلاك شركات التكنولوجيا لكميات ضخمة من الكهرباء والمياه لتشغيل مراكز البيانات الخاصة بالذكاء الاصطناعي، في حين تعاني المجتمعات، خصوصًا في المناطق الجافة، نقص حاد في هذه الموارد الحيوية.
الخلاصة:
يمثل التمييز بين الإنسان والآلة تحديًا كبيرًا في عالمنا الرقمي، وفي حين يهدف نظام (PHC) المقترح إلى تقديم حل لهذه المشكلة، لكنه في الواقع يعيد نقل العبء إلى المستخدمين مرة أخرى، كما يثير في الوقت نفسه مجموعة من التساؤلات حول الخصوصية والأمن والمسؤولية.
لذلك من الضروري أن تسعى شركات التكنولوجيا إلى تطوير حلول شاملة ومستدامة تضمن الاستفادة من إمكانات الذكاء الاصطناعي مع الحفاظ على خصوصية المستخدمين دون إلقاء العبء عليهم.