تتعامل الشركات الكبرى مثل ميتا وأكس مع هذه المشكلة عبر استخدام خوارزميات متقدمة لمراقبة المحتوى وحذف المواد المسيئة والمضللة. يعتمد هذا على بنود الاتفاقيات التي يقبلها المستخدمون عند إنشاء حساباتهم، والتي تسمح للشركات بحذف المنشورات تلقائيًا في حالة انتهاكها للقوانين أو السياسات المحددة.
تعتمد عملية تحديد المحتوى على مجموعة متنوعة من العوامل، حيث تستخدم الخوارزميات الذكاء الاصطناعي للتعرف على المحتوى الغير مناسب، ولكن مع ذلك، قد تظل هناك تحديات تتعلق بفهم السياقات الثقافية والفروق الدقيقة بين المحتوى المختلف.
وفيما يتعلق بالمعايير والشروط لحذف المنشورات، تظل هناك تحديات تتعلق بتحديد ما يعتبر محتوى مخالفًا ومضللًا. يشير الخبراء إلى أنه يجب تطوير خوارزميات أكثر تطورًا وقدرة على التعرف على المعلومات المضللة بشكل أفضل، وأيضًا توسيع نطاق أنظمة الإبلاغ عن المستخدم وتحسين التفاهم الثقافي واللغوي.
بالإضافة إلى ذلك، يشير الخبراء إلى أن هذه الأزمة تسلط الضوء على ضرورة تعزيز جهود مكافحة المعلومات المضللة والتلاعب بوسائل التواصل الاجتماعي في السياقات الاستراتيجية والسياسية الهامة مثل النزاعات والأحداث العالمية الكبرى.
لخبير التكنولوجي، سلوم الدحداح، أن “هذه الشركات تعمل وفق آلية محددة تخضع لاتفاقية الأحكام والشروط التي يوافق عليها المستخدم قبل إنشاء الحساب عادة”.
وأوضح الدحداح، في حديث لموقع “الحرة”، أن “هذه الاتفاقية تتضمن عادة بنودا تسمح للشركات بحذف المنشورات تلقائيا في حال المخالفة”، مشيرا إلى أن “أغلب المستخدمين لا يدققون بتفاصيل بنود الشروط والأحكام الموافق عليها من قبلهم”.
وأكد أن “الشركات يمكن أن تحذف أي منشور بشكل تلقائي دون الرجوع إلى المستخدم، واليوم هناك العديد من القوانين الدولية المنظمة للمنشورات تجرم شركات وسائل التواصل الاجتماعي في حال وجود محتوى غير مقبول”.
وعن آلية عمل الخوارزميات، فهي تستخدم مجموعة متنوعة من العوامل لتحديد المحتوى الذي سيتم عرضه للمستخدمين، والمحتوى الذي يجب حذفه.
ويوضح الدحداح أن الخوارزميات “تعمل تلقائيا لإظهار المواضيع التي يهتم المستخدم بها عادة”، مضيفا أن “هناك إمكانية لدى الشركات للتحكم بها، لإظهار ما يريدون إظهاره للمستخدمين بحسب اهتماماتهم وتوجهاتهم”.
ويقول الخبير التكنولوجي، عمرو سامي، إن هناك عاملان أساسيان يتحكمان في آلية مراقبة المحتوى وعمل الخوارزميات.
ويوضح في حديثه لموقع “الحرة” أن “معظم وسائل التواصل الاجتماعي تستخدم الذكاء الاصطناعي للتعرف على المحتوى غير المناسب، وهذا هو العامل الأول”.
أما العامل الثاني بحسب سامي “موقف عشرات آلاف الموظفين الذين تم توظيفهم خصيصا لمراقبة المحتوى، سواء كان يتضمن خطاب كراهية أو تعرض للأطفال أو أي مواد مخالفة”.
وعن السبب الذي يؤدي لحذف المنشور الذي يعتبر صاحبه أنه غير مخالف للقوانين، أوضح مركز الدراسات الاستراتيجية والدولية (CSIS) أن “الخوارزميات الحالية غير كاملة فهي تفتقر إلى الفهم الإنساني للسياقات الثقافية والفروق الدقيقة والمعاني الكامنة وراء أنماط الكلمات أو ارتباطاتها”.
وأضاف المركز أن “معدل الدقة ينخفض بشكل أكبر عند مواجهة الخوارزميات للصور أو مقاطع الفيديو والبث المباشر في الوقت الفعلي، واللغات غير الإنكليزية”.
من جهتها، ذكرت الشركات المالكة لفيسبوك ويوتيوب، في 10 أكتوبر الجاري، أنها تعتمد على مراجعي محتوى بالعبرية والعربية وسط الصراع المستمر بين إسرائيل وحركة “حماس”.
واعتبر المركز أن “منصات التواصل الاجتماعي لم تكن مستعدة للتعامل مع طوفان المحتوى الكاذب والضار، ولتجنب ذلك، تحتاج شركات التكنولوجيا إلى ترقية خوارزميات الإشراف على المحتوى بشكل كبير، وتوسيع نطاق أنظمة الإبلاغ عن المستخدم، وتوسيع الكفاءة الثقافية واللغوية، وزيادة مستويات التوظيف الإجمالية”.
شروط الحذف
ولدى سؤاله عن المعايير والشروط المتبعة لحذف المنشورات، يقول سامي إن “هناك مشكلة ومعضلة حقيقية بهذا الشأن”.
وأوضح أن “هذه المشكلة لم يجدوا (الشركات) لها حلا، وتساءل ما الذي يحكم على المحتوى إن كان يدعو للكراهية مثلا أو كان خطابا سياسيا؟، هل هذه حرية رأي أم تطرف؟”.
من جهتها، أوضحت شركة ميتا، الجمعة، إنها تتخذ خطوات لإزالة بعض المنشورات بعدما وبخ الاتحاد الأوروبي شركات التواصل الاجتماعي على عدم فعل ما يكفي لمعالجة ما يعتبره “معلومات مضللة”.
وقالت ميتا: “منذ الهجمات الإرهابية التي شنتها حماس على إسرائيل السبت، ورد فعل إسرائيل في غزة، تعمل فرق الخبراء من جميع أنحاء شركتنا على مدار الساعة لمراقبة منصاتنا، مع حماية قدرة الأشخاص على استخدام تطبيقاتنا لتسليط الضوء على التطورات المهمة”.
وأكدت ميتا أنه “في الأيام الثلاثة التالية للهجوم الذي شنته حماس في السابع من أكتوبر، أزالت أو أضافت علامة تميز المحتوى المقلق على أكثر من 795 ألف منشور باللغتين العربية والعبرية”.
المصدر: الحرة