أنباء وآراء

علوم اجتماعية: ديناميكيات خطاب الكراهية على الإنترنت

تحليلٌ لديناميكيات مجموعات خطاب الكراهية على منصّات التواصل الاجتماعي على الإنترنت، يكشف سبب فشل الأساليب الحالية لحظر خطاب الكراهية، ويطرح أسس أربع استراتيجيات محتملة لمكافحة هذا الخطاب على الإنترنت.

نوييمي دِرسي
  • Published online:
شكل 1 | مشرفو منصة «فيسبوك» وهم يعملون على إزالة المحتوى المحرض على الكراهية. دَرَس جونسون وزملاؤه1ديناميكيات مجموعات خطاب الكراهية الموجودة على الإنترنت على منصة «فيسبوك» ومنصة تواصل اجتماعي أخرى، هي «فكونتاكتي». واستخدموا نتائجهم لاقتراح أربع سياسات لمكافحة خطاب الكراهية على الإنترنت.

شكل 1 | مشرفو منصة «فيسبوك» وهم يعملون على إزالة المحتوى المحرض على الكراهية. دَرَس جونسون وزملاؤه1ديناميكيات مجموعات خطاب الكراهية الموجودة على الإنترنت على منصة «فيسبوك» ومنصة تواصل اجتماعي أخرى، هي «فكونتاكتي». واستخدموا نتائجهم لاقتراح أربع سياسات لمكافحة خطاب الكراهية على الإنترنت.

GORDON WE LTERS/NYT/RE DUX/EYEVINE

كيف تصمد منظومة خطاب الكراهية على منصّات التواصل الاجتماعي على الإنترنت؟ وما هي التدابير التي يمكن اتخاذها؛ للحدّ بفعالية من وجودها؟ في بحثٍ نُشر مؤخرًا في دورية Nature، تناول الباحث نيل جونسون وزملاؤه1 هذه الأسئلة، عبر تقريرٍ يجذب الاهتمام عن سلوك مجتمعات خطاب الكراهية على الإنترنت، الموجودة على عددٍ من منصّات التواصل الاجتماعي المختلفة. ويُسلط المؤلفون الضوء على بِنْية مجموعات خطاب الكراهية الموجودة على الإنترنت، وديناميكياتها، ويقترحون أربع سياسات، بناءً على النتائج التي توصلوا إليها، للحدّ من المحتوى المحرض على الكراهية على منصات التواصل الاجتماعي الموجودة على الإنترنت.

نعيش حاليًّا في عصرٍ يتسم بزيادة التواصل الاجتماعي عبر الإنترنت. ونتيجةً لذلك، لا تبقى الآراء المشارِكة في منطقةٍ جغرافية واحدة منحصرةً داخلها، بل يمكن لها أن تنتشر سريعًا في جميع أنحاء العالم، بفضل وسائط التواصل الاجتماعي على الإنترنت. وتمثل السرعة الكبيرة لهذا الانتشار تحديات لأولئك القائمين على مراقبة خطاب الكراهية ومكافحته، كما تخلق فرصًا للمنظمات الخبيثة لمشاركة رسائلها، وتوسيع نطاق جهودها الرامية إلى اجتذاب أعضاءٍ جدد، بحيث تمتد هذه الجهود إلى جميع أنحاء العالم. وعندما تنعدم فعالية جهود مراقبة وسائل التواصل الاجتماعي، يمكن لبيئة الإنترنت أن تصبح أداةً قوية لنشر الأفكار المتطرفة2. وبالتالي، من الضروري فهْم الآليات التي تحكم ديناميكيات مجتمعات خطاب الكراهية، لاقتراح تدابير فعالة لمكافحة مثل تلك المنظمات في ساحة المعركة الإلكترونية هذه.

وقد درس جونسون وباحثون آخرون ديناميكيات تكتلات الكراهية على منصّتَي تواصل اجتماعي، هما:  «فيسبوك» Facebook، و«فكونتاكتي» VKontakte، وذلك على مدى بضعة أشهر. وقد عُرِّفت هذه التكتلات بأنَّها صفحاتٌ أو مجموعاتٌ على الإنترنت، تنظِّم الأفراد الذين يشتركون في الآراء، أو الاهتمامات، أو الأغراض المعلنة نفسها في مجتمعات. وتتضمن هذه الصفحات أو المجموعات الموجودة على منصات التواصل الاجتماعي روابط لتكتلاتٍ أخرى تشبهها في المحتوى، ويمكن للمستخدمين الانضمام إليها. ومن خلال هذه الروابط، حدد مؤلفو البحث الصلات الشبكية بين التكتلات، وتمكنوا من تتبُّع كيفية انضمام أعضاء تكتلٍ ما إلى تكتلاتٍ أخرى. وافترضوا وجود تواصلٍ بين أي تكتُّلَين (مجموعتين، أو صفحتين) إذا تضمن كلٌّ منهما روابط تقود إلى الآخَر. وتميَّز النهج الذي اتبعه المؤلفون بكونه لا يتطلب أي معلوماتٍ عن المستخدمين الأعضاء في التكتلات.

ويوضح جونسون وزملاؤه أنَّ مجموعات خطاب الكراهية على الإنترنت منظمة في تكتلاتٍ شديدة المرونة. والمستخدمون في هذه التكتلات لا يتركزون في منطقةٍ جغرافية واحدة، لكنَّهم مترابطون في جميع أنحاء العالم، من خلال «طرق سريعة» تُسهِّل انتشار خطاب الكراهية على الإنترنت عبر مختلف الدول والقارات واللغات. وعندما تتعرض هذه التكتلات للهجوم - على سبيل المثال، عندما يحذف مديرو منصة التواصل الاجتماعي مجموعات الكراهية (شكل 1) - تعيد سريعًا تنظيم ذاتها وإصلاحها، وتُكوّن روابطَ قوية بين بعضها بعضًا، يشكلها المستخدمون المشتركون بينها، على نحو يشبه الروابط الكيميائية التساهمية. وفي بعض الحالات، يمكن لتكتلين صغيرين أو أكثر الاندماج؛ لتكوين تكتلٍ أكبر، في عمليةٍ يشبِّهها المؤلفون باندماج نواتَي ذَرَّتين. وأثبت المؤلفون - باستخدام نموذجهم الرياضي - أنَّ حظر المحتوى المحرض على الكراهية على منصةٍ واحدة يُفاقم خطورة منظومات خطاب الكراهية الموجودة على الإنترنت، إذ يعزز إنشاء تكتلاتٍ لا يمكن اكتشافها بمراقبة المحتوى على المنصات، يُسميها المؤلفون «المستنقعات المظلمة»، ويمكن فيها للمحتوى المحرض على الكراهية أن ينتشر بلا حدود.

ومن الصعب تنظيم منصّات التواصل الاجتماعي الموجودة على الإنترنت، فقد كافح صانعو السياسات لاقتراح طرقٍ ممكنة وفعالة؛ للحدّ من خطاب الكراهية على الإنترنت، لكن تبيَّن أنَّ الجهود المبذولة لحظر المحتوى المحرض على الكراهية وإزالته من على الإنترنت غير فعالة3،4. فعلى مدى السنوات القليلة الماضية، ارتفع معدل الإبلاغ عن خطابات الكراهية على الإنترنت5، وهو ما يشير إلى أنَّ المنصّات تخوض معركةً خاسرة ضد انتشار المحتوى المحرض على الكراهية، وهو اتجاهٌ مثير للقلق فيما يخص رخاء مجتمعاتنا وأمنها. وبالإضافة إلى ذلك.. كان قد أُشير من قبل إلى أنَّ التعرض لخطاب الكراهية على منصّات التواصل الاجتماعي، والتفاعل معه، يعززان العدائية خارج الإنترنت6، وأُفيد بأنَّ بعض مرتكبي جرائم الكراهية العنيفة قد تفاعلوا مع هذا المحتوى7.

وقد نظرت الدراسات السابقة (على سبيل المثال، المرجع رقم 8) إلى مجموعات خطاب الكراهية كشبكاتٍ مستقلة، أو اعتبرت التكتلات المترابطة شبكةٍ عالمية واحدة، لكنّ جونسون وزملاءه درسوا في نهجهم الجديد البِنْية المترابطة لمجتمعٍ من تكتلات الكراهية، باعتباره «شبكةً مؤلفة من شبكات»9–11، تُعَد فيها التكتلات شبكاتٍ مترابطة من خلال «طرقٍ سريعة». وبالإضافة إلى ذلك، يقترح الباحثون أربع سياساتٍ للتدخل الفعال، تستند إلى الآليات التي كشفت دراستهم أنَّها تنظِّم بِنْية منظومة خطاب الكراهية الموجودة على الإنترنت، وديناميكياتها.

في الوقت الحالي، يتعين على شركات منصات التواصل الاجتماعي تحديد المحتوى الذي ينبغي حظره، لكنَّها تضطر - في كثير من الأحيان - إلى التصدي لكمياتٍ هائلة من المحتوى، وعديدٍ من القيود القانونية والتنظيمية في مختلف الدول. والتدابير الأربعة التي يوصي بها جونسون وزملاؤه (السياسات من الأولى إلى الرابعة) تأخذ في الحسبان الاعتبارات القانونية المرتبطة بحظر المجموعات والمستخدمين. وجديرٌ بالذكر أنَّ جميع السياسات التي اقترحها المؤلفون يمكن تطبيقها بصورةٍ مستقلة في منصاتٍ مختلفة، دون الحاجة إلى تبادل معلوماتٍ حساسة فيما بينها، إذ إنَّ هذا في معظم الحالات غير مسموحٍ به قانونًا، دون موافقةٍ صريحة من المستخدِم.

وفي السياسة الأولى، يقترح المؤلفون حظر تكتلات الكراهية الصغيرة نسبيًّا، بدلًا من حذف التكتل الأكبر على الإنترنت. وتستغل هذه السياسة ما توصل إليه المؤلفون من أنَّ توزيع أحجام تكتلات الكراهية الموجودة على الإنترنت يتبع منحنًى أُسيًّا، يكون فيه معظم التكتلات صغيرة الحجم، وعددٌ قليل للغاية منها كبير الحجم. ومن المتوقع أن يؤدي حظر أكبر تكتل كراهية إلى تكوُّن تكتلٍ كبير جديد من التكتلات الصغيرة التي لا حصر لها. وعلى النقيض من ذلك، فإنَّ التكتلات الصغيرة عالية الوفرة، وهو ما يعني أنَّه من السهل نسبيًّا العثور عليها، والقضاء عليها يمنع ظهور تكتلاتٍ كبيرة أخرى.

ويمكن أن يؤدي حظر مجموعاتٍ كاملة من المستخدمين - بغض النظر عن حجم هذه المجموعات - إلى غضبٍ شديد في مجتمع خطاب الكراهية، واتهاماتٍ لمنصّات التواصل الاجتماعي بقَمْع حقوق حرية التعبير12. ولتجنُّب ذلك، توصي السياسة الثانية - بدلًا من ذلك - بحظر عددٍ قليل من المستخدِمين المختارين عشوائيًّا من تكتلات الكراهية الموجودة على الإنترنت. ولا يتطلب نهج الاستهداف العشوائي هذا تمركُز المستخدمين في منطقةٍ جغرافية معينة، ولا يستلزم استخدام معلوماتٍ حساسة من ملف تعريف المستخدم (وهي معلومات لا يمكن توظيفها لاستهداف مستخدمين محددين)، وهكذا تتجنب المنصّات الانتهاكات المحتملة للقواعد المنظمة لخصوصية المستخدمين، لكنَّ فعالية هذا النهج تعتمد بشدة على بِنْية الشبكة الاجتماعية، لأنَّ الخصائص الطوبولوجية للشبكات تشكل - بدرجةٍ كبيرة - قدرتها على تحمل الكبوات العشوائية، أو الهجمات الموجهة.

أمَّا السياسة الثالثة، فتستغل النتيجة التي توصل إليها الباحثون بأنَّ التكتلات تُنظِّم نفسها من مجموعةٍ من المستخدمين غير المنظمين في البداية. وتوصي تلك السياسة بأنَّ يدعم مديرو المنصات تنظيم تكتلاتٍ من المستخدمين المناهضين لخطابات الكراهية. وهذه يمكن أن تكون بمثابة «نظامٍ مناعي بشري» لمكافحة تكتلات الكراهية، والتصدي لها. وتستغل السياسة الرابعة حقيقة وجود آراءٍ متعارضة في أوساط عديدٍ من مجموعات خطاب الكراهية الموجودة على الإنترنت. وتقترح أن يدسّ مديرو المنصات مجموعةً اصطناعية من المستخدمين، لتشجيع التفاعل بين تكتلات الكراهية ذات الآراء المتعارضة، وبالتالي تتناحر تلك التكتلات فيما بينها لتسوية خلافاتها. وأوضحت نماذج المؤلفين أنَّ مثل تلك المواجهات ستقضي بفعالية على تكتلات الكراهية الكبيرة ذات الآراء المتعارضة. وبمجرد بدء تطبيق السياستين الثالثة والرابعة، ستتطلبان قدرًا صغيرًا من التدخل المباشر من جانب مديري المنصّات، لكنَّ تحريض التكتلات المتعارضة ضد بعضها سوف يتطلب تخطيطًا شديد الدقة.

ويوصي المؤلفون بتوخي الحذر في تقييم مزايا وعيوب تبنِّي كل سياسة، لأنَّ جدوى تنفيذ سياسةٍ ما ستعتمد على الموارد الحاسوبية والبشرية المتاحة، والقيود القانونية المتعلقة بالخصوصية. وإضافةً إلى ذلك.. لا بد أن تُتخذ أي قراراتٍ بشأن تنفيذ سياسةٍ دون غيرها بناءً على التحليل التجريبي، والبيانات المجموعة، من خلال مراقبة هذه التكتلات عن كثب.

وعلى مر السنين، أصبح من الواضح أنَّ الحلول الفعالة للتعامل مع خطابات الكراهية على الإنترنت، والقضايا القانونية، وقضايا الخصوصية التي تثيرها منصّات التواصل الاجتماعي الموجودة على الإنترنت، لا يمكن أن تضعها قطاعات الصناعة منفردةً، لكنَّها - بدلًا من ذلك - ستتطلب جهودًا مشتركة من شركات التكنولوجيا، وواضعي السياسات، والباحثين. وتوفر دراسة جونسون وزملائه رؤًى قَيِّمة، ويمكن أن تكون سياساتهم المقترحة بمثابة توجيهاتٍ للجهود المستقبلية.

References

  1. Johnson, N. F. et al. Nature 573, 261–265 (2019). | article
  2. Hernandez, D. & Olson, P. Wall Street J. (5 July 2019); available at go.nature.com/2oxoqdw
  3. Wakefield, J. BBC News (15 March 2019); available at go.nature.com/2kabi2p
  4. O’Brien, S. A. CNN Business (28 February 2019); available at go.nature.com/31c2nny
  5. BBC News (17 March 2018); available at go.nature.com/2h04gci 
  6. SELMA (23 April 2019); available at go.nature.com/2ygkhs1
  7. Benner, K. & Spencer, H. New York Times (27 June 2019). | article
  8. Mathew, B., Dutt, R., Goyal, P. & Mukherjee, A. Proc. 10th ACM Conf. Web Sci. 173–182 (2019). | article
  9. Havlin, S., Kenett, D. Y., Bashan, A., Gao, J. & Stanley, H. E. Eur. Phys. J. Spec. Top. 223, 2087–2106 (2014).| article
  10. Palla, G., Barabasi, A. L. & Vicsek, T. Nature 446, 664–667 (2007). | article
  11. Jarrett, T. C., Ashton, D. J., Fricker, M. & Johnson, N. F. Phys. Rev. E 74, 026116 (2006).| article
  12. Coaston, J. Vox (14 May 2019).  | article

نوييمي درسي تعمل في منظمة علم البيانات وأبحاث الذكاء الاصطناعي بمختبرات «إيه تي آند تي» بمدينة نيويورك، نيويورك 10007، الولايات المتحدة الأمريكية.       

 البريد الإلكتروني: noemiderzsy@gmail.com