رؤية كونية

زوِّدوا الذكاء الاصطناعي بالأخلاق الحميدة

يقول جيم دَيفيز إنّ المخاوف من أنْ يمثل الذكاء الاصطناعي خطرًا إذا طوَّر وعيًا ذاتيًّا، هي مخاوف في غير محلها.

جِيم ديفيز
  • Published online:

Daniel Thompson

ما الذي يجعلنا نقلق من الذكاء الاصطناعي؟ لقد كان البيت الأبيض آخِر ما تَدَخَّل في مناقشة التهديدات الممكنة التي تمثِّلها الآلات الذكية، وذلك في تقرير صدر في أكتوبر الماضي. فبعد أن كتب اثنان من المعنيِّين تعليقًا نُشر في دورية Nature، يمكن لتركيز الاهتمام العلمي والسياسي في المخاطر المستقبلية الشديدة للذكاء الاصطناعي أنْ يصرف انتباهنا عن مشكلاته القائمة بالفعل.

يأتي جزء من أسباب هذا التركيز على التهديدات الوجودية الخطرة للذكاء الاصطناعي من الخوف غير المبرَّر من إمكانية أن تطوِّر تكنولوجيا من هذا النوع وعيًا ذاتيًّا. وتوحي عناوين الأخبار الرئيسة الأخيرة بأنّ مفكِّرين مرموقين ـ من أمثال بيل جيتس، وستيفن هوكينج ـ قلقون مِن أن تصبح الآلات الذكية ذاتية الوعي. ففي لحظة ما، سوف "تستيقظ" قطعة من البرمجيات، وتُولِي رغباتها أفضلية على غيرها، وتهدد وجود البشرية.

وعندما نتخوَّف من الذكاء الاصطناعي، فإن وعي الآلة ليس بالأهمية التي يحسبها الناس. وفي الواقع، فإن القراءة المتأنية لتحذيرات جيتس، وهوكينج، وغيرهما تُظْهِر أنهم لم يذكروا الوعي قط. يُضاف إلى ذلك أن التخوُّف من الوعي الذاتي يشوِّش النِّقاش العام؛ فالذكاء الاصطناعي يصبح معرَّفًا بأنه خطر، أو بأنه لا يقوم كليةً على كونه واعيًا، أم لا، بينما علينا أن ندرك أن مَنْع الذكاء الاصطناعي من تطوير وَعْي، ليس كمَنْعه من تطوير المقدرة على إحداث أذى.

من أين أتى هذا القلق مِن وعي الآلة؟ يبدو أن مصدره عامة الناس، والصحفيون. ابحث عن مقالات إخبارية حول تهديدات الذكاء الاصطناعي؛ وستجد دائمًا أن الصحفيين هم الذين يتحدثون عن وعي الآلة.. فمع أننا نفعل الكثير من دون وعي، مثل إدراكنا للمَشاهد المرئية، وتكويننا للجُمَل التي نقولها، يبدو أن الناس يُقْرِنون الخطط المعقدة بالتفكير الواعي المتعمَّد. ويبدو من غير المعقول أن تفعل شيئًا معقدًا، كالسيطرة على العالم من دون تفكير واعٍ. ولذا.. قد يكون من الصعب على الناس تخيُّل أن الذكاء الاصطناعي يمكن أن يمثل تهديدًا وجوديًّا، إلا إذا كان يتمتع بتفكير واع.

ويرى بعض الباحثين أن الوعي جزء مهم من الإدراك البشري (برغم أنهم لا يتفقون على ماهية وظائفه)، ويرد بعضهم على ذلك بأنه لا يقوم بأي وظيفة على الإطلاق، لكنْ إذا كان الوعي مهمًّا جدًّا للذكاء البشري، فليس واضحًا إنْ كان مهمًّا أيضًا لأي ذكاء يمكن تخيله من قبيل ذاك المبرمج في الحواسيب، أم لا. إننا لا نعرف ما يكفي عن دور الوعي، سواء أكان بشريًّا، أم حيوانيًّا، أم برمجيًّا، كي نعرف ما إذا كان ضروريًّا للتفكير المعقد، أم لا.

وقد يكون الأمر هو أنّ الوعي، أو إدراكنا له، يأتي مع الذكاء الفائق تلقائيًّا، أي أن الطريقة التي نحكم بها على شيء ما بأنه واع، أو غير واع، يمكن أن تقوم على تفاعلاتنا معه. فالآلات فائقة الذكاء يمكن أن تكون قادرة على التكلم معنا، وعلى التوليد الحاسوبي لوجوه ذات تعبيرات عاطفية، كما لو أنها شخص ما تخاطبه عبر "سكايب"، وهكذا. ويمكنها بسهولة أن تمتلك جميع الدلالات الخارجية على الوعي. وقد يكون أيضًا من المستحيل تطوير ذكاء اصطناعي عام، دون وعي.

وجدير بالذكر أن الآلات فائقة الذكاء الواعية يمكن أن تكون أقل خطرًا من الآلات فائقة الذكاء غير الواعية، لأن العملية التي تكبح السلوك غير الأخلاقي ـ لدى البشر على الأقل ـ هي "التعاطف الوجداني"، أي العدوى العاطفية التي تجعل المرء يشعر بما يرى أن شخصًا آخر يشعر به. وربما يهتم الذكاء الاصطناعي الواعي بنا أكثر مما يمكن لذكاء اصطناعي غير واع أن يفعل.

وفي كلتا الحالتين، علينا أن نتذكر أن الآلة يمكن أن تكون ذكية بقدر كاف، لتمثل تهديدًا حقيقيًّا، حتى من دون أن تكون واعية. وعالَمنا زاخر بأمثلة من الظواهر الخطرة غير الواعية؛ فالفيروسات لا تمتلك أي وعي، أو حتى ذكاء، ويمكن للبعض أن يجادلوا بأنها ليست حية أيضًا.  

ويذكر نِكْ بوستروم ـ الباحث في جامعة أكسفورد ـ في كتابه "الذكاء الفائق" (Superintelligence, Oxford University Press, 2014) أمثلة كثيرة على إمكانية أن يكون الذكاء الاصطناعي خطرًا. وأحد تلك الأمثلة هو آلة ذكية، طموحها الأساسي صُنْع الكثير والكثير من ملاقط الأوراق. فبوجود ذكاء متطوِّر فيها من دون قِيَم أخرى، يمكن أن يجعلها تجنح إلى السيطرة على موارد العالم؛ سعيًا وراء هدفها، دون اكتراث بما سوف يحدث للبشرية. وثمة سيناريو آخر عن آلة ذكية، يُطلب منها حساب سلسلة الأرقام اللانهائية للعدد π؛ فتستعمل كل مواد الأرض كموارد حاسوبية. وربما تحاول آلة ذكية ذات أهداف أكثر نبلًا ـ من قبيل تقليص المعاناة ـ محو البشرية لمصلحة بقية الحياة على الأرض. إنّ هذه الآلات الافتراضية غير المسيطَر عليها خطرة، لا لأنها واعية، بل لأنها مصنوعة بدون أخلاقيات محددة ومعقدة.

لذا، وبدلًا من الانشغال بوعي الذكاء الاصطناعي، علينا بذل مزيد من الجهد في سبيل أهداف البرمجة، والقيم، والقواعد الأخلاقية. وثمة سباق عالمي قائم لتطوير الذكاء الاصطناعي، وثمة إمكانية لأنْ تكون الآلة فائقة الذكاء الأولى هي الآلة الوحيدة التي يمكن صُنْعها على الإطلاق، لأنها عندما ستظهر إلى الوجود، سواء أكانت واعية، أم لا؛ فإنها ستستطيع تحسين نفسها؛ وستبدأ في تغيير العالَم، وفقًا لقِيَمها الخاصة.

وبمجرد أن تُصنع، سوف يكون من الصعب السيطرة عليها. ولذا فإن أحد الإجراءات الوقائية تجاه ذلك هو تمويل مشروع يهدف إلى ضمان أن تكون أول آلة فائقة الذكاء ودودةً، ويهدف كذلك إلى القضاء على أي آلة ذكية خبيثة. وبوجود مجموعة جيدة التمويل من المبرمِجين والباحثين ذوي التفكير الأخلاقي، مِن الجائز أن يُحالفنا الحظ.