تكنولوجيا صينية جديدة “تقنية التعرف على المشاعر”

0

تطبق الصين الآن تقنية التعرف على المشاعر، فالتعرف على الوجوه أصبح من الماضي، والرئيس شي جين بينغ يوليها اهتماماً خاصاً، فما قصة تلك التقنية وما خطورتها؟

إنّ تقنية التعرف على المشاعر هي التطور الأحدث في شبكة واسعة من تقنيات المراقبة، ربما يكون أقدمها جهاز كشف الكذب، الذي يبدو الآن شيئاً تاريخياً تماماً، إذ كان يعتمد على تحليل ردود الأفعال من خلال قياس المؤشرات الحيوية عند الإجابة عن الأسئلة، وصولاً إلى تقنية تحديد هوية الشخص من خلال التعرف على الوجه، وغيرها من التقنيات المستخدمة في المراقبة.

وتعتبر الصين رائدة في مجال تقنيات المراقبة لأسباب تتعلق بطبيعة النظام السياسي في البلاد، فإذا ما رأت الشرطة ضرورة لوضع كاميرات مراقبة داخل أماكن عامة لا يكون لدى الناس أي خيار سوى التعايش مع الأمر وتقبله.

لماذا تريد الحكومة الصينة التعرف على مشاعر الناس؟

تعتمد تقنية التعرف على المشاعر بشكل رئيسي على رصد تعبيرات الوجه التي تعكس شعور الشخص بالغضب أو الحزن أو السعادة أو الملل أو القلق وغيرها من المشاعر الإنسانية، إضافة إلى البيانات الحيوية الأخرى، التي تعمل التكنولوجيا على تحليلها من خلال حركات عضلات الوجه، ونبرة الصوت، ولغة الجسد، والإشارات الحيوية الأخرى.

وتتخطى هذه التقنية بمراحل كثيرة تقنية التعرف على الوجه، التي تهدف ببساطة إلى تحديد هوية شخص ما من خلال وجوه متعددة ترصدها كاميرات المراقبة، لكنها تتفق مع تقنيات المراقبة الأخرى في أنها تتطلب التغذية ببيانات شخصية للناس، تقوم على متابعتهم ورصد تحركاتهم، ومن ثم إدخال ما يتم تجميعه من بيانات إلى أجهزة تحليل رقمية تتولى فحص تعبيرات الوجه وغيرها من المؤشرات الحيوية الأخرى، للخروج بنتيجة تحدد مشاعر الشخص الخاضع للمراقبة (حزين أو غاضب أو سعيد أو راضٍ أو يشعر بالملل أو متوتر… إلخ).

وربما يبدو الأمر لأول مرة ممكناً أو بسيطاً، لكن حقيقة الأمر أكثر تعقيداً بكثير، فالإنسان قد يخطئ في قراءة تعبيرات وجه أقرب الناس إليه أحياناً، كما أن الحالة الشعورية للإنسان تتميز بالتقلب والتغير المستمر، وتختلف من إنسان لآخر، لذلك يعتبر البحث في تقنية التعرف على المشاعر أو تحديدها مجالاً حديثاً إلى حدّ ما، وتعتمد التكنولوجيا على أربعة محددات، أولها مرئي من خلال مقاطع الفيديو، والآخر سمعي من خلال ملفات صوتية، والثالث كتابي من خلال نصوص مكتوبة، والرابع نفسي من خلال تحليل ما يرتديه على سبيل المثال.

والمحدد الثالث، أي النص المكتوب الذي تتم تغذية جهاز تحديد المشاعر به يقصد به البيانات الخاصة بالشخص، كتاريخ ميلاده واسمه وتفاصيل عمله ومسكنه وعلاقاته الشخصية وغيرها، بينما المحددات الثلاثة الأخرى يتم رصدها من خلال كاميرات وأجهزة تنصت سمعية.

وهذه المحددات المطلوبة لعمل تقنيات التعرف على المشاعر هي في حد ذاتها السبب الرئيسي وراء تفوق الصين في هذا المجال، فبكين من الدول القليلة حول العالم التي لا توجد فيها قوانين صارمة تحمي خصوصية الأفراد، ولا توجد فيها قوانين تقيد وصول السلطات إلى البيانات الحيوية الخاصة بالأفراد، انطلاقاً من الأمن القومي أو السلامة العامة، وهو ما يفتح الباب على مصراعيه أمام شركات التكنولوجيا هناك للوصول إلى أي بيانات شخصية تريدها لاختبار وتطوير تقنيات المراقبة بشكل عام وتقنية تحديد المشاعر بشكل خاص.

أفضلية صينية في هذا المجال

مثل هذه التقنيات منتعشة في الصين بشكل كبير، لأنّ الشخصيات السياسية في البلاد، وعلى رأسها الرئيس الحالي شي جين بينغ، تشجع منذ عام 2012 على نشر ما يسميه الرئيس الآن “الطاقة الإيجابية” في المجتمع الصيني، كجزء من الحملة الأيديولوجية الهادفة إلى تشجيع القومية الصينية، وبالتالي تشجيع المواطنين على إظهار أنواع معينة من المشاعر وكبت أو إخفاء مشاعر أخرى.

لكن المعارضين لهذا التوجه يقولون إن تقنية التعرف على المشاعر تقوم على توظيف العلم لفرض نموذج معين على المواطنين، لا بد أن يلتزموا به، وهناك عدد متزايد من الباحثين والمحامين ونشطاء حقوقيين يعتقدون أن لتلك التقنية تداعيات على حقوق الإنسان والخصوصية وحرية التعبير، بحسب تقرير لصحيفة الغارديان البريطانية، ذكر أن تقنية التعرف على المشاعر أصبحت صناعة ضخمة يتوقع أن يصل الاستثمار فيها إلى 36 مليار دولار عام 2023، وهو ما يجعل الرافضين لها يطالبون بالتحرك لوقف تلك التقنية على الفور.

وتحدث وي تشين، مدير عام بشركة تايغوسيس المتخصصة في تقنية التعرف على المشاعر ومقرها شينزين للغارديان، حول مزايا تلك التقنية، في توقع السلوكيات الخطرة للمساجين والكشف عن مجرمين محتملين في نقاط التفتيش الشرطية والطلاب المشاغبين في المدارس وغيرها. وتم تركيب أنظمة تايغوسيس بالفعل في نحو 300 سجن ومركز احتجاز وإصلاحية في الصين، متصلة بأكثر من 600 ألف كاميرا مراقبة.

وقال تشين إن “العنف والانتحار منتشران جداً في مراكز الاحتجاز. وحتى لو أن الشرطة لا تضرب نزلاء السجون هذه الأيام فإن الحراس يرهقون النزلاء بمنعهم من النوم، والنتيجة تعرض النزلاء لانهيارات عقلية تدفعهم للانتحار، وسوف تساعد أنظمتنا على منع ذلك من الحدوث”.

ويقول تشين أيضاً إنه بما أن السجناء يعرفون أنهم عرضة للمراقبة على مدار الساعة، فإنهم سيكونون أكثر حرصاً في تصرفاتهم، وهو أمر إيجابي للسلطات لأكثر من سبب: “لأنهم إن عرفوا ما يقوم به نظام التعرف على المشاعر سيتوقفون عن محاولة خرق قواعد معينة بصورة واعية”. كما تم تركيب أنظمة تايغوسيس في المدارس لمراقبة المدرسين والتلاميذ والإداريين وفي دار رعاية المسنين لمراقبة التغيرات السلوكية، وتم تركيبها أيضاً في بعض مراكز التسوق ومواقف السيارات.

معارضة كبيرة لهذه التقنية

على الجانب الآخر، يرى الرافضون لتلك التقنية أن الفوائد المرجوة من وراء تطبيقها لا يمكن مقارنتها بالتداعيات الخطيرة الناجمة عنها، وهذا ما عبرت عنه للغاردين فيدوشي ماردا، مديرة البرنامج الرقمي في منظمة حقوق الإنسان البريطانية، بقولها إن “الحديث عن إيجابيات تلك التقنية هو نفسه الحديث البراق الذي يصاحب ظهور التقنيات اللامعة التي يتم الترويج لها تحت مظلة السلامة العامة أو الأمن القومي”.

وأضافت أن تقنيات المراقبة عبر الكاميرات بأشكالها لم تمنع التهديدات للأمن العام: “كثير من المراقبة الحيوية مرتبطة من الأصل بفكرة الترهيب والرقابة، وأعتقد أن تقنية التعرف على المشاعر أبرز مثال على هذا”.

وقد أظهر تقرير حديث أن 27 شركة صينية تعمل بالفعل في مجال تقنية التعرف على المشاعر، ما يشير إلى النمو السريع لتلك الصناعة، دون مراعاة لوضع ضوابط ضد إساءة استخدامها، خصوصاً في قطاعي التعليم والأمن العام.

بالإضافة إلى وجود إشكالية أساسية تتعلق بتقنية التعرف على المشاعر من الأصل، وهي تتعلق بأن من يعرف أن أمامه كاميرا ترصد تعبيرات وجهه يمكنه أن يرسم تعبيرات محددة، وليس بالضرورة ما يشعر به بالفعل، إضافة إلى أن قراءة تعبيرات الوجه ولغة الجسد تختلف من ثقافة لأخرى. وإضافة إلى ذلك فإن تطبيق تلك التقنية داخل الصين يختلف عن تطبيقها خارجها، نظراً للتنوع العرقي الذي يختلف من بلد لآخر.

والخلاصة أن المعارضين لذلك التوسع في توظيف التكنولوجيا كأداة للمراقبة والترصد يرون أن تقنية التعرف على المشاعر تمثل خطراً بليغاً على الحرية الشخصية وحقوق الإنسان بشكل عام، ويطالبون بحظرها بشكل كامل قبل فوات الأوان.

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.