رؤية كونية

كيف يُحْدِث الذكاء الاصطناعي تحولات في توازُن القوى؟

ينبغي لمن قد يتعرضون للاستغلال عن طريق أنظمة الذكاء الاصطناعي أن يصيغوا مشروعاتها.

براتيوشا كالوري
  • Published online:

PRATYUSHA KALLURI

تَستخدم جهات إنفاذ القانون، وجهات التسويق، والمستشفيات، وغيرها من الهيئات الذكاءَ الاصطناعي، لاتخاذ قرارات في مسائل محددة، على غرار: مَن يُصنف مجرمًا؟ ومَن يُحتمل أن يبتاع منتَجًا ما بسعر محدد؟ ومَن ينبغي أن يحصل على العلاج الطبي؟ ومَن ينبغي تعيينه في وظيفة ما؟ إذ تراقب تلك الجهات سلوكياتنا، وتتنبأ بها على نحو متزايد، وفي الأغلب بدافع فرْض سيطرتها، وجَنْي الأرباح.

من هنا، كثيرًا ما يتساءل خبراء الذكاء الاصطناعي عما إذا كانت هذه التقنية "محمودة"، أو "منصفة"، أم لا، لكنّ هاتين الصفتين يتسع نطاقهما بلا نهاية، بحيث يمكّن أن تتسعا لتشملا أي نظام ذكاء اصطناعي. ولذا، فالتساؤل الذي ينبغي طرحه هو: كيف يُحْدِث الذكاء الاصطناعي تحولًا في توازُن القوى؟

اعتبارًا من الثاني عشر من يوليو الماضي، عقد آلاف من الباحثين اجتماعات افتراضية على شبكة الإنترنت في إطار "المؤتمر الدولي حول تعلُّم الآلة" International Conference on Machine Learning، الذي استمر لمدة أسبوع، وعُدّ واحدًا من أكبر الاجتماعات في مجال الذكاء الاصطناعي في العالم. ويَعتقِد كثيرٌ من الباحثين أن تقنية الذكاء الاصطناعي تتسم بالحيادية، وأنها محمودة الأثر في أغلب الأحيان، ولا يفسد عملها سوى البيانات المنحازة المستقاة من مجتمع غير منصف، لكن حيادية المجالات -في الواقع- تصب في خدمة أصحاب القوة.

وأرى أنّ على مَن يعملون في مجال الذكاء الاصطناعي الإعلاء من شأن مَن استُبعِدوا مِن تشكيله. وتحقيق ذلك سيتطلب منهم الحد من علاقاتهم مع المؤسسات ذات النفوذ، التي تنتفع من مراقبة الأفراد. كما يجب على الباحثين أن يعيروا آذانًا صاغية للفئات التي عانت من وطأة مراقبة تقنيات الذكاء الاصطناعي لها، وأن يدعموا تلك الفئات، ويتعاونوا معها، ويستشهدوا بتجاربها، وهي -في الأغلب- من النساء، والسود، والسكان الأصليين، ومجتمع الميم، إضافة إلى الفقراء، أو المعاقين. ويجب أن تفسح المؤتمرات والمؤسسات البحثية وقتًا وأماكن وأدوارًا قيادية، وتوفِّر تمويلات لصالح أعضاء من هذه المجتمعات. وفوق ذلك، ينبغي أن يكون النِّقاش حول كيفية إسهام الأبحاث في تغيُّر توازن القوى مطلوبًا عند النظر في طلبات الحصول على المِنَح والإصدارات البحثية، ويجب أن يخضع إسهام الأبحاث في هذا الصدد للتقييم.

قبل عام، أنشأتُ -بالتعاون مع زملائي- «شبكة الذكاء الاصطناعي الجذرية» Radical AI Network بالاعتماد على أبحاث مَن سبقونا. أمّا ما أَلْهَمَ مجموعتنا البحثية لذلك، فهو ملاحظةٌ أَوْرَدَتْها الباحثة النسوية السوداء أنجيلا دايفيز، مفادها أن "كلمة (جذري) تعني -ببساطة- الوصول إلى جذور الأشياء"، وأن جذر المشكلة هو اللامساواة في توزيع القوة. وتُشَدِّد شبكتنا على ضرورة الاستماع إلى أولئك الذين تضرروا وهُمِّشوا بفعل تقنيات الذكاء الاصطناعي، ومُناصَرَة التقنيات المعادية للقَمْع.

ولتتأمل -على سبيل المثال- الذكاء الاصطناعي المستخدَم في تصنيف الصور، حيث يدرِّب بعضُ الخبراء هذا النظامَ على اكتشاف أنماط في الصور الفوتوغرافية، ربما للتعرف على نوع أحد الأشخاص، أو تحديد أفعاله، أو للعثور على وجه مطابِق في قاعدة بيانات تضم مجموعة من الأفراد. و"المشاركون في قواعد البيانات" –وأعنى بهذا المصطلح الأفراد الذين يجري تتبُّع بياناتهم، دون موافقتهم، في أغلب الأحيان، إلى جانب أولئك الذين يصنفون الصور الفوتوغرافية يدويًّا، بغرض تدريب نظام الذكاء الاصطناعي، لقاء أجور زهيدة في المعتاد- كثيرًا ما يتعرضون للاستغلال من قِبَل مشروع نظام الذكاء الاصطناعي، ويخضعون لتقييمه.

"نتحمل مسؤولية الوعي بتحيزاتنا، والاستماع إلى أولئك الذين يتضررون من برامج الذكاء الاصطناعي".

يركز الباحثون في مجال الذكاء الاصطناعي -بشكل كبير- على تقديم معلومات عالية الدقة لصانعي القرارات. ومن اللافت للنظر أن القليل من الأبحاث يركز على تقديم خدمات للمشاركين في قواعد البيانات. وما نحتاجه هو طُرُق تمكّن أولئك الأفراد من دراسة أنظمة الذكاء الاصطناعي، ومعارضتها، أو التأثير فيها، أو حتى تقويضها. وعلى سبيل المثال، تطرح مجموعة الضغط المعروفة باسم "كيانات بياناتنا" Our Data Bodies طرقًا لحماية البيانات الشخصية عند التفاعل مع خدمات الإسكان العادل وحماية الأطفال في الولايات المتحدة الأمريكية. ورغم ذلك، لا تحظى تلك الجهود سوى بالقليل من الاهتمام، في حين تسود الأبحاث التي تبتكر أنظمة يتطلب تدريبها تكلفة باهظة، وهو ما يعزز سطوة المؤسسات ذات القوة والنفوذ، بدءًا من شركة "أمازون"، و"جوجل"، و"فيسبوك"، وصولًا إلى برامج المراقبة المحلية، والبرامج العسكرية.

ويصعب على الكثير من الباحثين إدراك أن إسهامهم الفكري في برامج الذكاء الاصطناعي يفاقم هذه اللامساواة. فالباحثون مثلي يقضون أيامهم في العمل على ما يعدُّونه أنظمة مفيدة تنم عن إبداع رياضي رائع، وفي سماع قصص نجاح أنظمة الذكاء الاصطناعي، على غرار فوزها في بطولات لعبة "جو" Go، أو احتمالية نجاحها في الكشف عن السرطان. ونحن نتحمل مسؤولية إدراك تَحَيُّزنا، والاستماع إلى أولئك الذين يتضررون من برامج الذكاء الاصطناعي".

وإذا تأملنا الموقف على صعيد توازن القوى، فمن المحتمل أن نفهم لِمَ لا تحقق أنظمة الذكاء الاصطناعي النفع للجميع، وهي  التي تتسم بالدقة، والكفاءة، والقابلية للتعميم. ففي أيدي الشركات الاستغلالية، أو جهات إنفاذ القانون القمعية، يصبح نظامٌ أَدَقُّ للتعرف على الوجوه نظامًا ضارًّا. وقد استجاب بعض المنظمات لتلك القضايا بتعهدات بتصميم أنظمة "منصفة"، تتسم بـ"الشفافية"، لكننا نتساءل عادلة وشفافة بالنسبة إلى مَن؟ هذه الأنظمة تخفف الضرر أحيانًا، لكنها تخضع لسيطرة مؤسسات ذات نفوذ، تتبنى أجندات خاصة بها. وفي أحسن الأحوال، لا يمكن الاعتماد على هذه الأنظمة، وفي أسوأها نجد أنها تستتر بغطاء زائف يزعم تحقيق النفع للجميع، بينما يرسخ للظلم.

وقد بدأ بعض الباحثين بالفعل في كشف إخفاقات هذه الأنظمة، ومَواطن قصورها الخفية. وتتخلل نتائج أبحاثهم دعوات تؤيد وضع لوائح تنظم تصميم تقنيات الذكاء الاصطناعي. وتتضمن أبحاثهم كذلك نقدًا للـ"إصلاحات" التكنولوجية غير الكافية، في حين أخذ باحثون آخرون يشرحون لعموم الأفراد كيف يُستفاد من الموارد الطبيعية، والبيانات، والجهد البشري، لأجل ابتكار أنظمة الذكاء الاصطناعي.

وقد شجعتنا روها بينجامين -الباحثة في مجال العلاقة بين العِرْق والتكنولوجيا بجامعة برينستون في ولاية نيوجيرسي- على "الحرص على تخيل العوالم التي لا نستطيع العيش دونها، وتصميمها على النحو نفسه الذي نقوض به العوالم التي لا نستطيع العيش بها." ومن هذا المنطلق، حان الوقت لوضع المجتمعات المُهَمَّشة والمتضررة في قلب أبحاث الذكاء الاصطناعي، حيث ينبغي لاحتياجات أفراد هذه المجتمعات، ومعارفهم، وأحلامهم أن توجه تطوير هذه الأنظمة. وفي هذا العام -على سبيل المثال- عقدتُ أنا وزملائي ورشة عمل، أتاحت لمجموعة من الحاضرين من مختلف الأطياف مشاركة أحلامهم فيما يخص المستقبل الذي نتمناه للذكاء الاصطناعي. وطرحنا وصفًا لأنظمة ذكاء اصطناعي تلتزم بتلبية احتياجات المشاركين في قواعد البيانات، وتتيح لهم حرية الانسحاب منها.

وعندما يفطن مجال الذكاء الاصطناعي إلى حِياديّته، فإنه يخفق في ملاحظة تحيُّز بياناته، ويصمِّم أنظمةً تكرِّس الوضعَ القائم، وتدعم تحقيق مصالح أصحاب القوة والنفوذ. وما نحتاجه هو مجال يفضح وينتقد هذه الأنظمة التي تركِّز القوة في أيدي فئات بعينها، بينما يتعاون مع المجتمعات المتضررة لخلق أنظمة جديدة؛ أنظمة ذكاء اصطناعي صُممت بأيدي الجميع، ولأجْلهم. 

براتيوشا كالوري مؤسس مشارك في «شبكة الذكاء الاصطناعي الجذرية»، وباحثة في مجال الذكاء الاصطناعي من جامعة ستانفورد في كاليفورنيا، الولايات المتحدة الأمريكية.

البريد الإلكتروني: pkalluri@stanford.edu