افتتاحيات

أبحاث التعرُّف على الوجه بحاجة إلى تقييمٍ أخلاقي

تواجه مجالات علوم الحاسب والذكاء الاصطناعي طائفةً من التحديات الأخلاقية، تتعلق بالمقاييس الحيوية. وعلى المؤسسات البحثية أن تتعاطى مع تلك التحديات. 

  • Published online:

على مدى الثمانية عشر شهرًا الماضية، عكف عددٌ من الجامعات والشركات على إزالة مجموعات بياناتٍ كانت متاحة على شبكة الإنترنت، تضمُّ آلافًا -أو ربما ملايين- من صور الوجوه، التي تُستَخدَم لتطوير خوارزميات التعرُّف على الوجه. حصل الباحثون على هذه الصور من شبكة الإنترنت في أغلب الحالات. وقد كانت الصور متاحةً للجميع، ولا يبدو أنَّ جمْعها قد أثار حفيظة مجالس المراجعة المؤسسية (IRBs)، أو غيرها من الهيئات المعنية بأخلاقيات البحث العلمي، على الرغم من أنَّ أحدًا لم يطلب إذنًا من الأشخاص الموجودين في تلك الصور، بل إنَّ منهم مَن كان غير راضٍ عن الطريقة التي استُخدِمَت بها وجوههم.

وقد التفتَتْ الأنظار إلى هذه المشكلة بفضل أعمال آدم هارفي، الفنان والباحث المقيم في مدينة برلين الألمانية، الذي أوضح كيف تَستخدِم الشركات مجموعات البيانات العامة لتطوير البرمجيات المرتبطة بعمليات المراقبة، كما أسهم الصحفيون الذين كتبوا عن أعمال هارفي في إبراز هذه القضية. والملاحَظ أن الكثيرين من الباحثين في مجالات علوم الحاسب والذكاء الاصطناعي (AI)، وكذلك من المسؤولين عن عمليات المراجعة الأخلاقية المؤسسية ذات الصلة، لم يروا ضررًا يُذكر في استخدام البيانات العامة، دون الحصول على موافقة أصحابها، إلا أنَّ هذا الأمر في سبيله إلى التغيُّر؛ فهو أحد الموضوعات العديدة التي ينبغي أن تُطرح على طاولة النقاش، للنظر في كيفية التحلِّي بقدرٍ أكبر من المسؤولية لدى إجراء الأبحاث الخاصة بالتعرُّف على الوجه، وغيرها الكثير من أبحاث الذكاء الاصطناعي الأخرى.

وحسبما أفادت دورية Nature في سلسلة تحقيقاتٍ عن أبحاث التعرُّف على الوجه في الأسبوع الثالث من شهر نوفمبر الماضي، يعتري القلق الكثيرين ممن يعملون في هذا المجال بشأن كيفية استخدام هذه التقنيات، وهُم مُحقُّون في ذلك. كما يحلل بعض العلماء في تلك التحقيقات مَواطن الخطأ والتحيُّز في هذه التقنيات، ويحذرون من ممارسات التمييز فيها، ويشاركون النشطاء في مطالبتهم بوضْع لوائح أكثر صرامة، وتَبَنِّي نهجٍ أكثر شفافية، والتشاور مع المجتمعات المراقَبة بالكاميرات، وتعليق استخدام هذه التقنيات ريثما يعيد المُشرِّعون النظر في فوائدها ومخاطرها.

دراساتٌ مسؤولة

وهناك مِن العلماء مَن يدعو إلى إعادة النظر في أخلاقيات البحث العلمي في مجال تقنيَّات التعرُّف على الوجه. فهم يرون، مثلًا، أنَّ على الباحثين الامتناع عن إجراء أنواع معينة من الدراسات. وقد أعرب الكثيرون منهم عن غضبهم من الأوراق البحثية الأكاديمية التي حاولت دراسة وجوه أشخاصٍ ينتمون إلى الفئات المستضعَفة، مثل مجموعة الإيجور في الصين، التي أخضعتها الحكومة للمراقبة، واحتجزت عددًا كبيرًا من أفرادها.

كما أدان آخرون الأوراق البحثية التي حاولت تصنيف الوجوه وفقًا لمقاييس علمية وأخلاقية تدعو إلى الارتياب، مثل سمة الإجرام.

وقد أجرت دورية Nature استطلاعًا لفهم المزيد عن آراء العلماء في أخلاقيات تقنية التعرُّف على الوجه وأبحاثها. وأعرب كثيرٌ من المشاركين عن رغبتهم في أن تُجرِي المؤتمرات مراجعاتٍ أخلاقية للدراسات الخاصة بالمقاييس الحيوية. وقد بدأت رغبتهم هذه تدخل حيز التنفيذ؛ فعلى سبيل المثال، قرر مؤتمر أنظمة معالجة المعلومات العصبية (NeurIPS)، المقرر عقده خلال الشهر الحالي، أن يُلزِم العلماء لأول مرة بمناقشة المخاوف الأخلاقية، والتداعيات المحتملة لأعمالهم. كما بدأت دورية "نيتشر ماشين إنتيليجنس" Nature Machine Intelligence تطالب الباحثين بكتابة بيانٍ يصف التأثيرات الناجمة عن أنواعٍ معينة من أبحاث الذكاء الاصطناعي. وهذه خطواتٌ مهمة، إلا أنَّ الدوريات، وجهات التمويل، والمؤسسات البحثية ما زال في وسعها اتخاذ مزيدٍ من الإجراءات.

فعلى سبيل المثال، يحتاج الباحثون أن توفر لهم المؤسسات مزيدًا من التوجيهات بخصوص أنواع الدراسات المقبولة. فقد كشف استطلاع دورية Nature عن أن مشاعر القلق بشأن أخلاقيات دراسات التعرُّف على الوجه تنتاب قطاعًا عريضًا من الباحثين، وأنَّهم منقسمون بشأنها انقسامًا كبيرًا، كما أنَّ لديهم مخاوفَ من أنَّ مجالس المراجعة المؤسسية قد لا تكون مؤهلةً لتوفير التوجيهات الكافية.

"ينبغي ألا يُقْدِم العلماء على جمْع البيانات الشخصية وتحليلها، لا لشيءٍ إلا لأنّ ذلك يقع في حدود استطاعتهم".

تجدُرُ الإشارة إلى أنَّ هناك توجيهاتٍ أخلاقية عامة معمولًا بها في مجال أبحاث الذكاء الاصطناعي. فقد دعمت جهات التمويل في أمريكا وأوروبا الجهود المبذولة لدراسة تحديات الأبحاث الخاصة بالمقاييس الحيوية، وأوصت بإعادة النظر في مفهوم البيانات "العامة"، وكذلك أوصت العلماء بأن يأخذوا في الحُسبان التأثيرات المحتملة للدراسات على المجتمع. فالأفراد يُشكِّلون جزءًا لا يتجزَّأ من أبحاث المقاييس الحيوية، وينبغي ألا يُقْدِم العلماء على جمع البيانات الشخصية وتحليلها، لا لشيءٍ، إلا لأنّ ذلك يقع في حدود استطاعتهم. ولذا، فإنَّ المشورة العامة تمثِّل عنصرًا محوريًّا في هذا المضمار، كما يتعيَّن على العلماء أن يستشيروا الأشخاص الذين تشملهم تلك البيانات. وإذا تعذَّر ذلك، فعليهم أن يحاولوا التواصل مع لجنةٍ من ممثلي هؤلاء الأشخاص، يمكنها التحدث نيابةً عنهم.

وثمة مشكلةٌ تتصل بالتوجيهات الأخلاقية في مجال الذكاء الاصطناعي، وهي أنَّها عادةً ما تتألف من مبادئ يصعب تطبيقها على أرض الواقع. ففي العام الماضي، أشار الفيلسوف برنت ميتلشتات -من جامعة أكسفورد بالمملكة المتحدة- إلى أنَّ عدد مبادرات أخلاقيات المجال التي وضعت مبادئ رفيعة لتطوير أنظمته واستخدامها على نحوٍ أخلاقي قد بلغت ما لا يقل عن 84 مبادرة (B. Mittelstadt Nature Mach. Intell. 1, 501–507; 2019). وقد تمحورت هذه المبادئ حول مفاهيم أخلاقيات مجال الطب، مثل احترام الاستقلالية البشرية، ومنع الأذى، والحرص على العدالة والوضوح (أو الشفافية)، لكنَّ ميتلشتات أشار إلى أنَّ الثقافات المختلفة، على أرض الواقع، لا تتفق في الأساس على فحوى بعض المبادئ، مثل "الصراحة"، أو "احترام الاستقلالية". ويرى ميتشلتات أنه بينما توجد في مجال الطب أعرافٌ متفَق عليها دوليًّا لمنع الإضرار بالمرضى، وآليات مساءلة صارمة، يفتقر مجال الذكاء الاصطناعي إلى مثل هذه المحدِّدات. ومن ثمَّ، فسوف يكون من الأجدى عند وضْع تلك التوجيهات الأخلاقية أن نُتِيح دراسات حالة محددة، وبعض الأمثلة العملية، حتى لا تصبح تلك التوجيهات مجرد إجراءٍ صوري لتحسين صورة تلك الأبحاث.

وهناك مشكلةٌ أخرى، تتمثل في أنَّ كثيرًا من الباحثين يعتمدون على الشركات من أجل التمويل وجمْع البيانات. ورغم أنَّ غالبية الشركات تهتم بالمسائل الأخلاقية المتعلقة بطريقة دراسة تقنية المقاييس الحيوية واستخدامها، فإنَّ آراءها ستكون في أغلب الظن متضاربة، نظرًا إلى أنَّ هدفها النهائي يتمثل في زيادة المبيعات.

وليس في مقدور الباحثين وحدهم منع الشركات والحكومات من استخدام تقنيات التعرُّف على الوجه وأدوات التحليل على نحوٍ غير أخلاقي، لكنْ بإمكانهم رفْع أصواتهم بمعارضتها، والدعوة إلى مزيدٍ من الشفافية، وإلى وضع قواعد أكثر صرامة لتنظيم استخدام تلك التقنيات. كما يمكنهم أيضًا التفكير مليًّا في الأسباب التي تدفعهم إلى إجراء أبحاثهم، وفي كيفية الحصول على مجموعات البيانات الخاصة بهم، وفيما إذا كانت الفئات التي يتوقعون أن تعود عليها دراساتهم بالنفع ترغب حقًّا في إجراء تلك الأبحاث، أم لا. وعليهم أيضًا أن يُقدِّروا التداعيات المحتملة لهذه الدراسات.