كتب وفنون

هل يمكننا تطوير ذكاء اصطناعي بقيم بشرية؟

رئيسة سابقة لمجلس الأبحاث الأوروبي تدعو إلى إعمال التفكير النقدي في الخوارزميات التي ترسم ملامح حياتنا ومجتمعاتنا.

ريما باتيل
  • Published online:
رجل أمن يرتدي نظارات تستخدِم تقنية الواقع المعزز لقياس درجة حرارة أجسام المواطنين في مدينة هانجتشو بالصين.

رجل أمن يرتدي نظارات تستخدِم تقنية الواقع المعزز لقياس درجة حرارة أجسام المواطنين في مدينة هانجتشو بالصين.

Credit: Wang Gang/China News Service/Getty

"بالذكاء الاصطناعي نثق: القوة والوهم والتحكم في الخوارزميات التنبؤية" In AI We Trust: Power, Illusion and Control of Predictive Algorithms

هيلجا نوفوتني

دار نشر "بوليتي" (2021) 

في ثمانينيات القرن الماضي، وتحديدًا في مركز جونسون للفضاء التابع لوكالة ناسا في مدينة هيوستن بولاية تكساس الأمريكية، عُلِّقت لوحة معدنية تحمل الجملة التالية: "بالله وحده، والبيانات نثق". مَن يعرف هذه المقولة المنسوبة إلى عالِم الإحصاء دبليو إدواردز ديمينج قد يظن، أنَّ هيلجا نوفوتني قد اقتبست الجزء الأول منها، فتلاعبتْ بالألفاظ ليخرج عنوانها بالصورة التالية: «بالذكاء الاصطناعي نثق» In AI We Trust. لكن، كتاب نوفوتني، يتمحور حول الجزء الثاني من هذه المقولة.

تطرح نوفوتني في كتابها عدة أسئلة، من بينها: إلى أين سينتهي بنا الحال إذا وظَّفنا تقنيات الذكاء الاصطناعي في حياتنا دون التحقق من فعّاليتها، وانسقنا وراء ثقتنا بما يقال لنا حول كون هذه التقنيات "فعالة"؟ وماذا سيحدث لو عجزنا عن تبني نهج يستند إلى البيانات في التعامل مع قضايا تستند في حد ذاتها إلى البيانات؟ وما العمل إذا كان تصميم تقنيات الذكاء الاصطناعي والعوامل التي تؤثر فيه ينبعان من التحيزات البشرية؟ فمن الوارد أن تفتقر البيانات، التي نعتمد عليها، إلى الدقة أو الجودة، بل قد يتعذر الحصول عليها من الأساس. وكما تُذكِّرنا نوفوتني، فإن جميع التقنيات "ترتبط ارتباطًا وثيقًا بتحيزات البشر، سواء عن وعي أو غير وعي؛ إذ إنها تعكس أشكالَ عدم المساواة والممارسات التمييزية القائمة بالفعل في أي مجتمع".

وتملك نوفوتني، وهي عضو مؤسس ورئيسة سابقة لمجلس البحوث الأوروبي، تاريخًا حافلًا بمواقف فكرية صريحة، حول الطرق التي ينبغي بها للمجتمع أن يتعامل مع الابتكارات، وهي تطرح، في كتابها الأخير، تحليلًا مُقنِعًا للمخاطر والتحديات ذات الصلة بأنظمة الذكاء الاصطناعي التي اجتاحت حياتنا. كما تسُوق حججًا قوية دفاعًا عن علوم الإنسانيات الرقمية. على سبيل المثال، تقول في هذا الصدد: "ينبغي أن تكون القيم والرؤى الإنسانية نقطة الانطلاق" التي يبدأ من عندها تصميم أي نظام رقمي "يدّعي مطوِّروه أنه يخدم الإنسانية".

والمفارقة تكمن هنا في الفكرة الآتية: إن هذه التقنيات، بداية من برامج التعرف على الوجوه، وحتى برامج حساب أقساط القروض، تلعب على وتر رغبة البشر في الوصول إلى اليقين، وتَشوقِهم للفهم والتنبؤ بالمستقبل. ولنا شاهد على ذلك في الإقبال السريع على دمج استخدام الخوارزميات في مجالات التعليم والخدمات العامة والتسويق. من ناحية أخرى، فهذه التقنيات تؤثر فينا وتشكلنا على نحو قد يسلبنا جزءًا من إرادتنا وقوتنا وسيطرتنا على مجريات الأمور. فقدرة نُظُم الذكاء الاصطناعي على التنبؤ بسلوكياتنا، تعني أن هذه النُّظُم تستطيع تغييرها في نهاية المطاف. وهناك مثال حي على ذلك، تقدمه تقنيات مجال الإعلان، التي تجمع البيانات حول ما نحبه ونفضله، بهدف التنبؤ بما نريد شراءه، ومن ثم، تصوغ قراراتنا بطريقة تتوقف في تأثيرها على النزعات الاستهلاكية.

وترى نوفوتني أنه يتعين على الحكمة الإنسانية أن تستعيد زمام الأمور، بدلًا من ترك المستقبل لسيطرة ما أطلقتْ عليه عالِمة البيانات كاثي أونيل "أسلحة الدمار الحسابية". وتوضح نوفوتني، في كتابها، عواقبَ الانسياق وراء الذكاء الاصطناعي دون تبني نهج نقدي لعدد من القضايا، مثل التداعيات المترتبة على تنامي ظاهرة المراقبة التي لا تخضع للمساءلة، أو التي تكون حدودها أو الغرض منها ضبابيًا. وتدعونا المؤلِّفة أيضًا إلى التفكير في الغرض من تتبُّع ورصد نقاط البيانات (كما يحدث في حال استخدام تقنيات التعرف على الوجوه، وتحديد المواقع، وعِلم الجينوم، والقياسات الحيوية)؛ فهي تحاجج بأن لبناء "عالَم آخر، يطابق عالَمنا كأنه انعكاس في المرآة" - حيث يكون لكل امرئ نظير رقمي - تأثيرًا سلبيًّا على إدراك المرء لِذاته في سياق علاقاته مع الآخرين. فالحياة عبر وسيط، هو الذكاء الاصطناعي، تخلق حالة من القلق إزاء الهوية، نصبح فيها "غير متأكدين تمامًا ما إذا كنا نرى أنفسنا على حقيقتها الأصلية، أم نرى نسخة زائفة منها". ومن الأمثلة على ذلك، التقارير الإخبارية، التي صدرتْ في شهر سبتمبر الماضي، عن أبحاث أظهرت التأثير المدمر لمواقع مشاركة الصور على الصحة العقلية للفتيات المراهقات.

ويفرد الكتاب مساحة للتدقيق في صحة القصص التي تُبشّر بإمكانات الذكاء الاصطناعي. وتستقي نوفوتني من أعمال المؤرِّخ يوفال هراري والاقتصادي روبرت شيلر أمثلةً على قدرة هذه القصص على الانتشار بصورة تشبه الإصابة بالعدوى. ففي هذا الصدد، تسلط الكاتبة الضوء على ترسخ السردية القائلة بأن التكنولوجيا تكون دائمًا مفيدة للجميع، حتى لو تعارض ذلك مع الواقع الذي نعيشه ونشهده. وتتساءل نوفوتني: "إذا كان نصف رجال الطبقة العاملة في الولايات المتحدة اليوم يكسبون قدرًا أقل من المال مقارنة بما كان آباؤهم يجنونه في العمر نفسه، فماذا يعني التقدم بالنسبة لهم في هذه الحالة؟". وتتناول نوفوتني في كتابها الطريقة التي نكوّن من خلالها تصوراتنا عن البيانات نفسها. وتوضح أنه لا ينبغي التعامل مع البيانات بوصفها سلعة، كما يجب عدم التكتُّم عليها، أو حجزها خلف جدران تصوراتنا عن حقوق الملكية، بل ينبغي النظر إليها باعتبارها منفعة اجتماعية.

بيد أن إعمال الحكمة البشرية، في إطار هذا التصور، ينبغي ألا يكون مجرد حل تقني بسيط. على سبيل المثال، كثيرًا ما يتردد مصطلح «القابلية للتفسير»، في سياق اقتراح حل شافٍ لمعضلات الذكاء الاصطناعي كافة، ويُقصَد بهذا المصطلح التأكد من أن الذكاء الاصطناعي يتخذ القرارات بشفافية، لا بطريقة تبدو وكأن العمليات تُجرى بصورة غامضة داخل «صندوق أسود» لا يمكن الكشف عن محتوياته، لكن الخبير الاقتصادي ديان كويل وعالِم الحاسوب أدريان ويلر اكتشفا أن هذا الحل بدوره يُحتمل أن يثير توترات جديدة، نظرًا إلى غياب الاتساق الضروري بين طبيعة عمل الخوارزميات والمنطق البشري. فحتمية نتائج الخوارزميات تفرض على مصمميها توضيح القيم والخيارات السياسية التي ستخدمها تلك الخوارزميات. وبالمقارنة، نجد أن عمليات صنع السياسات التي يجريها البشر يكتنفها غموض تحركه طريقة تفاوض البشر فيما بينهم للوصول إلى مفاضَلات محددة. ومن الصعب التحدث بوضوح عن هذه الخيارات الضمنية. فكِّر مثلًا في الضجة التي حدثت العام الماضي، حول التحيزات المتأصِّلة في خوارزمية استُخدِمت في أثناء الجائحة، للتنبؤ بنتائج امتحانات تلاميذ المدارس في المملكة المتحدة، استنادًا إلى بياناتهم السابقة.

ويطرح هذا الكتاب نظرة تأملية مشوقة، نحن أحوج ما نكون إليها، وتذهب نوفوتني في سعيها إلى خلق جسور تصل بين علوم الاقتصاد والفلسفة والقانون والعلوم والدراسات التقنية، بل والتاريخ وعلوم الاجتماع، في محاولة منها للتصدي لإمكانات الذكاء الاصطناعي والتقنيات القائمة على البيانات ومخاطرهما. وهي في خضم ذلك، تطرح أسئلة مثيرة للتفكر، دون أن تفرض منظورها. وهي بالتأكيد علامة الكتاب الجيّد.

References

  1. Reference 1 | article

ريما باتيل: هي مديرة مُشارِكة في معهد آدا لوفلايس في لندن، وهي أحد الخبراء ضمن مجموعة عمل منوط بها إشراك الجمهور في التصدي لجائحة «كوفيد-19»، تتبع الحكومة الإسكتلندية.

البريد الإلكتروني: rpatel@adalovelaceinstitute.org