تعليقات

أربع أولويات أخلاقية للتقنيات العصبية والذكاء الاصطناعي

يرى رافاييل يوستي، وسارا جويرنج، وزملاؤهما أن الذكاء الاصطناعي وواجهات الدماغ الحاسوبية يجب أن تَحترِم خصوصية الأفراد، وهويّاتهم، وأدوارهم الفاعلة، والمساواة فيما بينهم.

رافاييل يوستي، وسارا جويرنج، وزملاؤهما
  • Published online:
رجل يعاني من إصابة في الحبل الشوكي (على اليمين) يستعد لسباق درجات هوائية افتراضي، يقود فيه المتسابقون "أفاتار" دراجات باستخدام إشارات الدماغ.

رجل يعاني من إصابة في الحبل الشوكي (على اليمين) يستعد لسباق درجات هوائية افتراضي، يقود فيه المتسابقون "أفاتار" دراجات باستخدام إشارات الدماغ.

BSIP/UIG/Getty

تَخيّلْ هذا السيناريو: رجل مصاب بالشلل، يشارك في تجربة إكلينيكية تَستخدِم واجهة دماغ حاسوبية. بُرمِج حاسوب متصل برقاقة في دماغ الرجل على تفسير النشاط العصبي الناتج عن تدريباته الذهنية على فعل معين. ويُصدِر هذا الحاسوب أوامر تُحرِّك ذراعًا روبوتية. ذات يوم، شعر الرجل بالإحباط من فريق الباحثين. ولاحقًا، سحقت الذراع الروبوتية التي يحركها قدحًا بعد تناوله من أحد المساعدين في الفريق؛ ما تسبب في إيذاء المساعد. وعندما اعتذر الرجل عما وصفه بأنه عطل حتمًا في الذراع، تساءل عما إذا كان لشعوره بالإحباط من الفريق دور فيما حدث، أم لا.

 هذا السيناريو افتراضي، لكنه يوضح بعض التحديات التي قد تواجه المجتمع في المستقبل.

 تركِّز تقنية واجهة الدماغ الحاسوبية الحالية بشكل أساسي على أهداف علاجية، مثل مساعدة مَن يعانون من إصابات في الحبل الشوكي. وهي تمكِّن بالفعل مَن يستخدمونها من تنفيذ مهام حركية بسيطة نسبيًّا، مثل تحريك مؤشر حاسوب، أو التحكم في كرسي متحرك آلي. وإضافة إلى ذلك، يستطيع الباحثون بالفعل تفسير النشاط العصبي لشخص ما من صور الرنين المغناطيسي الوظيفي بصورة أولية1؛ فيعرفون - على سبيل المثال - أنه يفكر في شخص، لا في سيارة.

 قد يستغرق الأمر سنوات، بل وربما عقودًا، حتى تصبح واجهات الدماغ الحاسوبية وغيرها من التقنيات العصبية جزءًا من حياتنا اليومية، لكن التطورات التكنولوجية تعني أننا في طريقنا إلى عالَم سوف يمكن فيه فكّ تشفير العمليات الذهنية للأشخاص، والتلاعب مباشرة في آليات الدماغ التي تكمن وراء مقاصدهم، ومشاعرهم، وقراراتهم؛ عالَم يتواصل فيه الناس مع الآخرين بالتفكير فقط، وتيسِّر فيه النظم الحاسوبية القوية المتصلة مباشرة بأدمغة البشر تفاعلات هؤلاء البشر مع العالم الخارجي؛ ما يؤدي إلى تحسُّن كبير في قدراتهم البدنية والعقلية.

 من شأن هذه التطورات إحداث ثورة في علاج الكثير من الأمراض - بدءًا من إصابات الدماغ، والشلل، وصولًا إلى الصرع، والفُصام - وتحويل حياة البشر إلى الأفضل، لكنها - في الوقت نفسه - يمكن أن تؤدي إلى تفاقم التفاوت الاجتماعي، وإتاحة طرق جديدة للشركات، وقراصنة الحاسب، والحكومات، وأيّ جهة أخرى لاستغلال الناس والتلاعب بهم. وقد تؤدي إلى تغيير عميق في بعض السمات البشرية الجوهرية، مثل الحياة الذهنية الخاصة، والدور الفاعل الفردي، وفهم الأفراد ككيانات مرتبطة بأجسامهم.

 من الضروري للغاية التفكير في العواقب المحتمَلة من الآن.

 تتألف مجموعة "مورنينج سايد جروب" من علماء أعصاب، وخبراء في التقنيات العصبية، وأطباء إكلينيكيين، وإخصائيين في علم الأخلاق، ومهندسين متخصصين في الذكاء الاصطناعي. وتضم ممثلين من شركتي جوجل، وكيرنيل - وهي شركة تقنيات عصبية ناشئة في لوس أنجيليس بولاية كاليفورنيا - ومن مشروعات دولية تركز على الدماغ، ومن مؤسسات أكاديمية وبحثية في الولايات المتحدة، وكندا، وأوروبا، وإسرائيل، والصين، واليابان، وأستراليا. وقد التقينا في ورشة عمل ترعاها مؤسسة العلوم الوطنية الأمريكية في جامعة كولومبيا بولاية نيويورك في مايو 2017؛ لمناقشة أخلاقيات التقنيات العصبية والذكاء الاصطناعي.

 نعتقد أن المبادئ التوجيهية الأخلاقية الحالية غير كافية لمواكبة هذا الواقع2. وتشمل هذه المبادئ "إعلان هِلْسِنكي"، وهو بيان مبادئ أخلاقية، تم إقرارها لأول مرة في عام 1964 للأبحاث الطبية على البشر (go.nature.com/2z262ag)، وتقرير بلمونت، وهو بيان أعدته في عام 1979 اللجنة الوطنية الأمريكية لحماية البشر المشاركين في الأبحاث الطبية الحيوية والسلوكية (go.nature.com/2hrezmb)، وبيان أسيولمار للمبادئ التحذيرية المتعلقة بالذكاء الاصطناعي، الذي نُشِر في مطلع عام 2017، ووقّعه قادة شركات وباحثو ذكاء اصطناعي، إلخ (go.nature.com/2ihnqac).

 وللبدء في سدِّ هذا العجز، نقدم في السطور التالية بعض التوصيات المرتبطة بأربعة جوانب: الخصوصية والموافقة؛ والدور الفاعل والهوية؛ وتعزيز القدرات؛ والانحياز. ولا شك أن الدول والناس - باختلاف أديانهم، وأعراقهم، وخلفياتهم الاجتماعية والاقتصادية - لهم احتياجات وتوقعات مستقبلية متباينة. وبناءً على ذلك، يجب على الحكومات إنشاء كيانات تشاورية؛ لتنسيق حوار مفتوح، يشارك فيه ممثلون من كافة أطياف المجتمع، ولتقرير كيف تُصاغ هذه المبادئ التوجيهية في صورة سياسة تشمل قوانين ولوائح محددة.

استثمارات ذكية

يراهن بعض من أغنى المستثمرين في العالم على التأثير المتبادَل بين العلوم العصبية، والذكاء الاصطناعي. وتستثمر حوالي ما يزيد على اثنتي عشرة شركة حول العالم - منها شركة كيرنيل، وشركة نيورالينك الناشئة، التي أسسها إيلون ماسك، وأطلقها في عام 2017 - في ابتكار الأجهزة التي يمكنها "قراءة" نشاط الدماغ البشري، و"كتابة" المعلومات العصبية في الدماغ. ووفقًا لتقديراتنا، تجاوز الإنفاق الحالي للشركات الساعية للأرباح على التكنولوجيا العصبية مبلغ 100 مليون دولار بالفعل، ويتزايد هذا المبلغ بوتيرة سريعة.

بعد زرع الأقطاب الكهربائية في الأدمغة؛ لتحفيز النشاط العصبي، قال بعض الناس إنهم شعروا باختلاف في إحساسهم بهَوِيّاتهم.

بعد زرع الأقطاب الكهربائية في الأدمغة؛ لتحفيز النشاط العصبي، قال بعض الناس إنهم شعروا باختلاف في إحساسهم بهَوِيّاتهم.

BSIP/UIG/GETTY

 ولا تقل استثمارات القطاعات الأخرى ضخامة عن ذلك. فمنذ عام 2013، استُثمِر أكثر من 500 مليون دولار من الأموال الفيدرالية في تطوير التكنولوجيا العصبية، في إطار مبادرة "الدماغ" الأمريكية وحدها.

 تُعَد الإمكانات الحالية مبهِرة حقًّا. فقد استخدَم عالِم أعصاب مصاب بالتصلب الجانبي الضموري (الذي يُعرَف أيضًا باسم مرض "لو جيرج"، أو مرض الأعصاب الحركية) واجهة دماغ حاسوبية؛ لتشغيل مختبره، وكتابة طلبات المِنَح، وإرسال رسائل البريد الإلكتروني3. وفي الوقت نفسه، أثبت باحثون في جامعة ديوك في دورهام بولاية كارولينا الشمالية أن ثلاثة قردة زُرِعت في أدمغتها أقطاب كهربائية تستطيع أن تعمل بوصفها "شبكة دماغية"، وتتعاون معًا4 في تحريك ذراع "أفاتار". ويمكن أن تعمل هذه الأجهزة عبر مسافة تصل إلى آلاف الكيلومترات، إذا كانت الإشارة تنتقل لاسلكيًّا عبر الإنترنت.

 وسيظهر قريبًا ما يفوق هذه الأجهزة غير المصقولة، التي يمكنها - على الأكثر - تحفيز نشاط خلايا عصبية معدودة، وقراءته. ففي مطلع عام 2017، أطلقت وكالة مشروعات البحوث المتطورة الدفاعية الأمريكية (DARPA) مشروعًا أسمته "تصميم النظام الهندسي العصبي". وتتطلع الوكالة للحصول على موافقة إدارة الغذاء والدواء الأمريكية خلال أربع سنوات على جهاز لاسلكي للدماغ البشري، يستطيع مراقبة نشاط الدماغ باستخدام مليون قطب كهربائي على نحو متزامن، وتحفيز خلايا عصبية بعينها، بحد أقصى يصل إلى 100 ألف خلية.

 وفي الوقت نفسه، تعمل شركات جوجل، وآي بي إم، ومايكروسوفت، وفيسبوك، وآبل، وشركات ناشئة عديدة على بناء شبكات عصبية صناعية متقدمة بكثير عن الأجيال السابقة، ويمكنها أن تتفوق بالفعل على البشر في المهام التي لها معطيات ومخرجات محددة بدقة.

 في العام الماضي، على سبيل المثال، أثبت باحثون في جامعة واشنطن بمدينة سياتل قدرة نظام "فيس نِت" - التابع لجوجل - على تمييز وجه بعينه من بين مليون وجه آخر. وتفوَّق نظام آخر من أنظمة جوجل، له تصميم مشابه لبِنْية الشبكة العصبية، على البشر المخضرمين في السفر في تخمين أي بقعة من العالم التُقِطت فيها صورة فوتوغرافية بخلفية شارع معين، ما يثبت عمومية التقنية. وفي أغسطس، أعلنت شركة مايكروسوفت أنه في إطار مقاييس معينة، يمكن لشبكتها العصبية للتعرف على الحديث التحاوري أن تضاهي قدرات المحترفين المدربين الذين لديهم خيار إعادة تشغيل المحادثات، وتكرار الاستماع إلى الكلمات المستخدَمة في سياقها. وفي جامعة فرايبورج بألمانيا، أثبت الباحثون باستخدام بيانات الرسم الكهربائي للدماغ إمكانية استخدام الشبكات العصبية في فك ترميز نشاط المخ، المرتبط بالتخطيط؛ ومن ثم التحكم في الروبوتات5.

 إنّ الشبكات العصبية المستقبلية، التي تَعتمِد على فَهْم أفضل لعمل الشبكات العصبية الحقيقية، سوف تكون أقوى وأفضل بكثير - على الأرجح - من هذه النماذج التي ذكرناها آنفًا. فالشبكات العصبية المستخدَمة حاليًّا مستلهَمة من نماذج لدوائر الدماغ، مضى عليها أكثر من 50 عامًا، وتَعتمِد على تسجيل نشاط الخلايا العصبية الفردية في الحيوانات المخدَّرة6. أما في مختبرات العلوم العصبية الحالية، فيستطيع الباحثون مراقبة وتعديل نشاط آلاف الخلايا العصبية في الحيوانات في أثناء استيقاظها ونشاطها، بفضل التقدم في التقنيات البصرية، والحوسبة، والهندسة الجزيئية، والإلكترونيات الدقيقة.

"يراهن بعض مِن أغنى المستثمرين في العالم على التأثير المتبادَل بين العلوم العصبية، والذكاء الاصطناعي".

 تَجْمَع الإنسان بالفعل علاقة وطيدة مع آلاته؛ فقد قَدَّر الباحثون في جوجل في عام 2017 أن المستخدم العادي يلمس هاتفه نحو مليون مرة سنويًّا (بيانات غير منشورة). ويتحكم الدماغ البشري في جهازي السمع والبصر؛ من أجل فكّ تشفير الأصوات والصور، ويُصْدِر الأوامر للأطراف؛ لإمساك الأدوات والتحكم فيها، لكنّ التقاء التطورات في التقنيات العصبية والذكاء الاصطناعي سيثمر عن شيء مختلف نوعيًّا؛ ألا وهو الربط المباشر بين الدماغ البشري، وذكاء الآلة، وتجاوز الوظائف الحسية الحركية الطبيعية للدماغ والجسم.

 أربعة مخاوف

لكي تنتشر التقنيات العصبية في أسواق المستهلكين العامة، يجب أن تكون الأجهزة غير باضعة، ومحدودة المخاطر، وأقل تكلفة في تركيبها بكثير من عمليات الجراحة العصبية الحالية. ومع ذلك، حتى في الوقت الحالي، يجب أن تتحمل الشركات التي تُطَوِّر هذه الأجهزة المسؤولية عن منتجاتها، وأن تسترشد بمعايير محددة، وممارسات مُثْلَى، وأعراف أخلاقية.

 وسنسلط الضوء فيما يلي على أربعة جوانب للمخاوف، تتطلب العمل الفوري. ورغم أننا نطرح هذه المخاوف في سياق الحديث عن التكنولوجيا العصبية، فإنها تنطبق أيضًا على الذكاء الاصطناعي.

 الخصوصية والموافقة

يمكن الحصول بالفعل حاليًّا على قدر هائل من المعلومات الشخصية من مسارات بيانات الأفراد. فقد اكتشف باحثون في معهد ماساتشوستس للتكنولوجيا في كامبريدج - على سبيل المثال - في عام 2015 أن التحليل الدقيق لسلوك الأفراد الحركي، الذي كشفت عنه أنماط كتابتهم على لوحة المفاتيح على الأجهزة الشخصية، من الممكن أن يساعد على التشخيص المبكر لأعراض مرض باركنسون7. وتوصلت دراسة أُجريت في عام 2017 إلى إمكانية استخدام قياسات أنماط الحركة، كتلك التي يتم الحصول عليها من الأفراد الذين يحملون هواتف ذكية خلال أنشطتهم اليومية العادية، في تشخيص العلامات المبكرة للإعاقة الإدراكية الناجمة عن مرض ألزهايمر8.

 وستزيد فعالية اللوغاريتمات التي تُستخدَم في استهداف الدعاية، أو حساب أقساط التأمين، أو المواءمة بين الشركاء المحتمَلين، إذا اعتمدت على معلومات عصبية، مثل أنماط النشاط في الخلايا العصبية المقترنة بحالات معينة من الانتباه. وتتيح كذلك الأجهزة العصبية المتصلة بالإنترنت للأفراد أو المؤسسات (قراصنة الحاسب، أو الشركات، أو الهيئات الحكومية) إمكانية تتبُّع خبرات المرء الذهنية والعقلية، بل والتلاعب بها أيضًا.

 في رأْيِنا، ينبغي أن تكون للمواطنين القدرة على الحفاظ على خصوصية بياناتهم العصبية، بل والحق في ذلك (انظر: "الدور الفاعل، والهوية"). ونقترح الخطوات التالية لضمان تحقيق ذلك.

 فيما يخص جميع البيانات العصبية، يجب أن تكون القدرة على اختيار عدم المشاركة هي الخيار الافتراضي، وينبغي حماية ذلك بدأب وإصرار؛ إذ يتخلى الناس طواعية عن حقوقهم في الخصوصية لمزودي الخدمات التجارية، مثل تصفح الإنترنت، أو مواقع التواصل الاجتماعي، أو الترفيه، دون أن يعوا تمامًا ما يتنازلون عنه. وعندما يكون الاختيار الافتراضي هو عدم المشاركة، فذلك يعني أن البيانات العصبية تُعامَل بالطريقة نفسها، مثل الأعضاء أو الأنسجة في أغلب الدول. فيجب أن يقدِّم الأفراد موافقة صريحة على مشاركة بياناتهم العصبية من أي جهاز، على أن يتضمن ذلك عملية آمنة ومحمية، تشمل إجراء للموافقة، يُحَدِّد بوضوح مَن يستخدم البيانات، وفي أي غرض، ولأيّ مدة.

 حتى مع هذا المنهج، يمكن استخدام البيانات العصبية المُقدَّمة من الأعداد الكبيرة من الأشخاص الذين يقبلون مشاركتها، بالإضافة إلى الكميات الهائلة من البيانات غير العصبية (المستقاة من عمليات البحث على الإنترنت، وشاشات مراقبة اللياقة، وغيرها)، في التوصل إلى نتائج "لا بأس بها" عن الأفراد الذين يقررون عدم مشاركة بياناتهم. وللحدِّ من هذه المشكلة، نقترح أن يخضع بيع البيانات الذهنية ونقلها واستخدامها تجاريًّا للوائح صارمة. وهذه اللوائح - التي ستحدّ أيضًا من إمكانية تخلي الأفراد عن بياناتهم العصبية، أو كتابة النشاط العصبي مباشرة في أدمغتهم؛ من أجل الحصول على عائد مالي - قد تكون مناظرة للتشريعات التي تحظر بيع الأعضاء البشرية، مثل القانون الوطني الأمريكي لزراعة الأعضاء لعام 1984.

 من تدابير الحماية الأخرى، تقييد المعالجة المركزية للبيانات العصبية. فنحن نؤيد استخدام التقنيات الحاسوبية، مثل الخصوصية التفاضلية، أو "التعلّم الموحد"؛ لحماية خصوصية المستخدِمين (انظر: "حماية الخصوصية"). ويساعد أيضًا استخدام التقنيات الأخرى المُصمَّمة خصيصًا لحماية بيانات الأفراد. فعلى سبيل المثال، تتيح التقنيات المعتمِدة على سلاسل الكتل (بلوك تشين) تتبُّع البيانات، وتدقيقها، ويمكن أن تسمح كذلك "العقود الذكية" بالتحكم بشفافيةٍ في كيفية استخدام البيانات، دون الحاجة إلى سلطة مركزية. وفي النهاية، ستتيح صيغ البيانات المفتوحة والأكواد مفتوحة المصدر شفافية أكبر بشأن ما هو خاص، وما يمكن تناقله.

حماية الخصوصية: التعلّم الموحد

عندما تستخدم شركات التكنولوجيا تعلّم الآلة لتحسين برامجها، فإنها تجمع عادةً معلومات المستخدمين على خوادمها؛ لتحليل كيفية استخدام خدمة معينة، ثم تُدرِّب لوغاريتمات جديدة على البيانات المُجمَّعة. يجرب الباحثون في شركة جوجل طريقة بديلة لتدريب الذكاء الاصطناعي، تُسمَّى "التعلّم الموحد". وفيها تحدث عملية التعليم على جهاز كل مستخدِم، دون وضع البيانات في مكان مركزي؛ والدروس التي يتم استخلاصها من البيانات (على سبيل المثال، معرفة أن كلمة "أسبوعيًّا" تُستخدَم كصفة، وحال) تُرسَل مرة أخرى إلى خوادم جوجل، لكن رسائل البريد الإلكتروني الفعلية، والنصوص، وغيرها، تظل على هاتف المستخدم. وتَستكشِف مجموعات أخرى أفكارًا مشابهة. وبذلك، يمكن استخدام نظم المعلومات ذات التصميمات المُحسَّنة؛ لتعزيز مِلْكية المستخدمين لبياناتهم الشخصية وخصوصيتهم، مع تسهيل الحسابات القيّمة لهذه البيانات في الوقت نفسه.

 الدور الفاعل، والهوية

بعض الذين خضعوا لتحفيز عميق للدماغ - من خلال الأقطاب الكهربائية المزروعة في أدمغتهم - قالوا إنهم شعروا بإحساس مختلف بأدوارهم الفاعلة، وهويّاتهم. وفي دراسة أُجريت في عام 2016، قال رجل استخدَم محفزًا دماغيًّا لمعالجة الاكتئاب الذي كان يعاني منه لمدة سبع سنوات، ضمن مشاركته في مجموعة دراسة9، إنه بدأ يتساءل عما إذا كانت الطريقة التي يتعامل بها مع الآخرين - على سبيل المثال، قول شيء، اعتقَد بعد قوله أنه غير ملائم - ترجع إلى جهاز التحفيز، أم الاكتئاب، أم أنها تعكس شيئًا أعمق عن ذاته. وقال: "كل شيء غير واضح حتى أنني أصبحت لست متأكدًا ... بكل صراحة، مَن أنا".

  من الواضح أن التقنيات العصبية يمكن أن تُسبّب اضطرابًا في إحساس الأفراد بهويّاتهم، وأدوارهم الفاعلة، وتزعزع الافتراضات الجوهرية حول طبيعة الذات، والمسؤولية الشخصية القانونية أو المعنوية.

 من الممكن أن ينتهي الأمر بالأفراد إلى التصرف بطرق يجدون صعوبة في ادعاء أنها صادرة عنهم، إذا كانت أجهزة التعلّم الآلة وواجهات الدماغ الحاسوبية تساعد على التحويل السريع بين النية والفعل، ربما باستخدام وظيفة "الإكمال التلقائي"، أو "التصحيح التلقائي". وإذا استطاع الأفراد التحكم في الأجهزة، من خلال أفكارهم على نطاق مسافات كبيرة، أو إذا تم توصيل عدة عقول معًا، لكي تتعاون مع بعضها البعض، فسيسبب ذلك اضطرابًا في فَهْم مَن نحن، وأين نقوم بأفعالنا.

 ومع تطور التقنيات العصبية، وشروع الشركات والحكومات وغيرها في منح الناس إمكانات جديدة، يجب حماية هوية الفرد (أي سلامته البدنية والعقلية)، ودوره الفاعل (أي قدرته على اختيار أفعاله)، باعتبارهما من حقوق الإنسان الأساسية.

 نوصى بإضافة بنود تحمي هذه الحقوق (ولْتُسَمَّى "الحقوق العصبية") إلى المعاهدات الدولية، مثل الإعلان العالمي لحقوق الإنسان في عام 1948، غير أن ذلك قد لا يكفي؛ فالإعلانات والقوانين الدولية ما هي إلا اتفاقيات بين الدول، وحتى الإعلان العالمي لحقوق الإنسان ليس مُلْزِمًا من الناحية القانونية. ولهذا، نحث على إبرام اتفاقية دولية لتعريف الأفعال المحظورة المرتبطة بالتكنولوجيا العصبية والذكاء الاصطناعي، على غرار المحظورات المدرَجة في الاتفاقية الدولية لحماية جميع الأشخاص من الاختفاء القسري لعام 2010. ويمكن أن يراجع فريق عمل تابع للأمم المتحدة امتثال الدول المُوَقِّعة بهذه الاتفاقية، ويوصي بتوقيع عقوبات عند الضرورة.

 يجب أن تحمي هذه الإعلانات أيضًا حقوق الناس في الحصول على توعية بالآثار الإدراكية والعاطفية المحتمَلة للتقنيات العصبية. ففي الوقت الحالي، تركز نماذج الموافقة فقط على المَخاطر البدنية للجراحة، بدلًا من الآثار المحتمَلة للجهاز على المزاج، أو الشخصية، أو الإحساس بالذات.

 تعزيز القدرات

يواجه الأفراد عادةً تحيّزًا عندما تكون أجسامهم أو عقولهم مختلفة عن غالبية الناس10. ومن المحتمل أن يؤدي الضغط لتطبيق التقنيات العصبية المُعزِّزَة للقدرات البشرية - مثل تلك التي تتيح للأفراد تحسين قدرتهم على التحمل، أو وظائفهم الحسية، أو الذهنية، على نحو جذري - إلى تغيّر في الأعراف المجتمعية، وإثارة قضايا المساواة في الحصول عليها، وظهور أنماط جديدة من التمييز.

 وفضلًا عن ذلك، من السهل أن نتصور أن يندلع سباق في تطوير أسلحة تعزيز القدرات العصبية. ففي السنوات الأخيرة، سمعنا موظفين في "وكالة البحوث المتطورة الدفاعية"، و"وكالة نشاط مشروعات أبحاث المخابرات المتقدمة" الأمريكية يناقشون خططًا لتزويد الجنود والمحلِّلين بقدرات ذهنية معززة ("عملاء بذكاء خارق"). وقد تُستخدَم هذه القدرات في القتال، وتحسين فكّ تشفير تدفق البيانات.

 إنّ أيّ حدود ستُوضَع ستكون حتمًا غير واضحة، نظرًا إلى صعوبة التنبؤ بالتقنيات التي ستكون لها آثار سلبية على حياة البشرية، لكننا نحث على صياغة مبادئ توجيهية على المستويين الوطني والدولي؛ من أجل وضع قيود على التقنيات العصبية المُعزِّزة التي يمكن تطبيقها، ولتحديد السياقات التي يمكن استخدامها فيها، كما هو الحال مع تحرير الجينات في البشر.

 هناك ثقافات تَحترِم قيمة الخصوصية والفردية أكثر من غيرها. ولهذا، يجب اتخاذ القرارات التشريعية في السياق الثقافي لها، مع احترام الحقوق والمبادئ التوجيهية العالمية في الوقت نفسه. وإضافة إلى ذلك، فإن الحظر التام لتقنيات بعينها سيؤدي إلى استخدامها سرًّا على نحو غير رسمي، ومن ثمَّ يجب أن تتضمن الجهود المبذولة لوضع قوانين ولوائح محددة إنشاء منتديات منظَّمة؛ لإتاحة النقاش المتعمق والمفتوح.

"الحظر التام لتقنيات بعينها سيؤدي إلى استخدامها سرًّا على نحو غير رسمي".

 وينبغي أن تَعتمِد هذه الجهود على السوابق العديدة في تشكيل إجماع دولي، ومراعاة الرأي العام المحلي في اتخاذ القرارات العلمية11. على سبيل المثال، بعد الحرب العالمية الأولى، أدى مؤتمر عُقِد في عام 1925 إلى وضع بروتوكول جنيف وإقراره، وهو معاهدة تحظر استخدام الأسلحة الكيميائية والبيولوجية. وبالمثل، بعد الحرب العالمية الثانية، أُنشِئت "لجنة الطاقة الذرية" في الأمم المتحدة؛ للتعامل مع استخدام الطاقة الذرية لأغراض سلمية، والحدّ من انتشار الأسلحة النووية.

نوصي، تحديدًا، بخضوع استخدام التكنولوجيا العصبية للأغراض العسكرية للوائح صارمة. فلأسباب بديهية؛ يجب أن يكون أي حظر من هذا النوع عالميًّا، وترعاه لجنة تقودها الأمم المتحدة. وعلى الرغم من أن مثل هذه اللجان وغيرها من الجهود المماثلة قد لا تحسم كل قضايا التعزيز، فإنها توفر أفضل نموذج متاح لإقرار الحاجة إلى الحظر على نحو معلن، وتوفير نطاق واسع من المعطيات لتطوير تقنية معينة، وتنفيذها.

 الانحياز

عندما تَعتمِد القرارات العلمية أو التكنولوجية على مجموعة محددة من المفاهيم والأعراف النظامية، أو البنيوية، أو الاجتماعية، فإن التكنولوجيا الناتجة قد تنفع البعض، وتضر البعض الآخر. وتوصلت دراسة12 أُجريت في عام 2015 إلى أن الوظائف التي يعرضها لوغاريتم جوجل للإعلانات للإناث تقدِّم أجرًا أقل من الوظائف المعروضة للذكور. وبالمثل، كشف تحقيق صحفي أُجري على موقع "بروبابليكا" في العام الماضي أن اللوغاريتمات التي تَستخدِمها هيئات تطبيق القانون الأمريكية تخطئ في توقعاتها بأن المتهمين السود أكثر عرضة لتكرار الجريمة من المتهمين البيض الذين لديهم سجل جنائيّ مشابه (go.nature.com/29aznyw). ويمكن أن تصبح مثل هذه الانحيازات جزءًا من بِنْية الأجهزة العصبية. وأظهر الباحثون الذين فحصوا هذه الأنواع من الحالات أن تعريف الإنصاف بطريقة رياضية صارمة أمر صعب للغاية (انظر:  go.nature.com/2ztfjt9).

 وتناقش الجهات الصناعية والأكاديمية بالفعل في الوقت الحالي الخطوات العملية لمواجهة الانحياز في التقنيات. ومثل هذه الحوارات والنقاشات العامة المستمرة أمر ضروري لصياغة تعريفات للانحيازات المثيرة للمشكلات، وتعريف الحالة الطبيعية بصفة عامة.

 وندعو إلى أن تصبح الإجراءات المضادة لمكافحة الانحياز هي العُرف السائد في تعلم الآلة. ونوصي أيضًا بأن يكون لمجموعات المستخدِمين المحتمَلين (خاصة الذين تعرضوا بالفعل للتهميش) رأي في تصميم اللوغاريتمات والأجهزة، كوسيلة أخرى لضمان مواجهة الانحيازات في مهد تطوير التقنية.

 الهندسة العصبية المسؤولة

تكمن وراء الكثير من التوصيات التي طرحناها دعوة نوجهها إلى الجهات الصناعية والباحثين الأكاديميين؛ لتحمُّل المسؤوليات المرتبطة بابتكار أجهزة ونُظُم قادرة على إحداث مثل هذا التغيير. ولكي يفعلوا ذلك، يمكنهم الاستناد إلى الأطر التي وُضِعت بالفعل للابتكار المسؤول.

 وإلى جانب المبادئ التوجيهية التي ذكرناها، يقدّم مجلس أبحاث العلوم الهندسية والفيزيائية بالمملكة المتحدة - على سبيل المثال - إطارًا لتشجيع المبتكرِين على "التطلع، والتأمل، والمشارَكة، والتصرف" بطرق من شأنها "تعزيز ... فرص العلم والابتكار المرغوب بها اجتماعيًّا، وتكون في الصالح العام". ومن بين الجهود العديدة المبذولة في هذا الشأن في مجال الذكاء الاصطناعي مبادرة أخلاق عالمية أطلقتها الرابطة المعنية بالمعايير التابعة لمعهد مهندسي الكهرباء والإلكترونيات في إبريل 2016؛ بهدف دمج الأخلاقيات في تصميم عمليات نظم الذكاء الاصطناعي، والنظم ذاتية التشغيل.

 يشير التاريخ إلى أن السعي وراء الربح يطغى غالبًا على المسؤولية الاجتماعية في عالَم الشركات. وحتى على المستوى الفردي، إذا سعى أغلب مبتكري التكنولوجيا إلى إفادة البشرية، فيمكن أن يصطدموا بأزمات أخلاقية معقدة، غير مستعدين لها. وفي رأْيِنا، من الممكن تغيير العقليات، وتأهيل منتجي الأجهزة بصورة أفضل، من خلال دمج المواثيق الأخلاقية للسلوك في المجالين الصناعي والأكاديمي.

 والخطوة الأولى لتحقيق ذلك هي تعريف المهندسين ومطوِّري التكنولوجيا الآخرين والمتدربين في مجال الأبحاث الأكاديمية بالأخلاقيات، في إطار التدريب المعياري لهم عند الانضمام إلى الشركة، أو المختبر. ويمكن تعليم الموظفين التفكير بمزيد من العمق في كيفية السعي وراء التطورات، وتطبيق الاستراتيجيات التي من شأنها الإسهام على نحو بَنّاء في المجتمع، بدلًا من تفتيته.

 إنّ هذا النهج سيحاكي في الأساس مثيله المستخدَم في مهنة الطب. فطلاب الطب يتعلمون أخلاقيات سرية المرضى، وعدم إلحاق الضرر بالمريض، ودورهم في تحقيق المنفعة والإنصاف، ويلزم عليهم تأدية "قَسَم أبقراط" للالتزام بأعلى المعايير المهنية.

 إنّ المزايا الإكلينيكية والمجتمعية الممكنة للتقنيات العصبية هائلة. ولاغتنامها، ينبغي أن نوجه تطويرها بطريقة تَحترِم أفضل ما في البشر، وتحميه، وتمكِّنه.

References

  1. Kay, K. N., Naselaris, T., Prenger, R. J. & Gallant, J. L. Nature 452, 352–355 (2008). | article
  2. Goering, S. & Yuste, R. Cell 167, 882–885 (2016). | article
  3. Sellers, E. W., Vaughan, T. M. & Wolpaw, J. R. Amyotrophic Lateral Sclerosis 11, 449–455 (2010). | article
  4. Ramakrishnan, A. et al. Sci. Rep. 5, 10767 (2015).  | article
  5. Burget, F. et al. Preprint at http://arxiv.org/ abs/1707.06633 (2017).  | article
  6. Hubel, D. H. & Wiesel, T. N. J. Physiol. (Lond.) 160, 106–154 (1962). | article
  7. Giancardo, L., Sánchez-Ferro, A., Butterworth, I., Mendoza, C. S. & Hooker, J. M. Sci. Rep. 5, 9678 (2015). | article
  8. Nieto-Reyes, A., Duque, R., Montana, J. L. & Lage, C. Sensors 17, 1679 (2017). | article
  9. Klein, E. et al. Brain-Computer Interfaces 3, 140–148 (2016). | article
  10. Parens, E. Shaping Our Selves: On Technology, Flourishing, and a Habit of Thinking (Oxford Univ. Press, 2014).   | article
  11. Kitcher, P. Science in a Democratic Society (Prometheus, 2011)  | article
  12. Datta, A., Tschantz, M. C. & Datta, A. Proc. Priv. Enhancing Technol. 2015, 92–112 (2015).  | article

رافاييل يوستي أستاذ علوم بيولوجية في «جامعة كولومبيا» في مدينة نيويورك بولاية نيويورك الأمريكية. سارا جويرينج أستاذة مشاركة في الفلسفة بـ«جامعة واشنطن» في ولاية سياتل الأمريكية. (تحتوي نسخة المقال المنشور على الإنترنت على قائمة من 25 مؤلِّفًا مشارِكًا من مجموعة "مورنينج سايد جروب").

البريد الإلكتروني: rafaelyuste@columbia.edu و sgoering@uw.edu

 يمكن الاطلاع على قائمة كاملة بكُتّاب المقال على الرابط التالي: go.nature.com/2ij9bqt