الكرسيّ الرّسوليّ: لاستخدام الذّكاء الاصطناعيّ فقط كأداة مكمّلة للذّكاء البشريّ وليس كبديلٍ لغناه
وفي التّفاصيل، وكما نشر موقع "فاتيكان نيوز"، فـ"هي مذكّرة حول العلاقة بين الذّكاء الاصطناعيّ والذّكاء البشريّ النّاتجة عن التّفكير المتبادل بين دائرة عقيدة الإيمان ودائرة الثّقافة والتّربية. وثيقة موجّهة إلى جميع المدعوّين إلى التّربية ونقل الإيمان، وإنّما أيضًا إلى الّذين يشاركون في الحاجة إلى تطوّر علميّ وتكنولوجيّ "في خدمة الإنسان والخير العامّ" [٥]. في ١١٧ فقرة، تسلّط المذكّرة "Antiqua et nova"، الضّوء على تحدّيات وفرص تطوّر الذّكاء الاصطناعيّ في مجالات التّعليم والاقتصاد والعمل والصّحّة والعلاقات وسياقات الحرب. في هذا المجال الأخير، على سبيل المثال، يمكن أن تؤدّي إمكانات الذّكاء الاصطناعيّ إلى زيادة موارد الحرب "إلى ما هو أبعد من متناول البشر"، الأمر الّذي يسرِّع "سباق تسلّح مزعزع للاستقرار مع عواقب مدمّرة لحقوق الإنسان" [٩٩].
بشكل مفصَّل، تسرد الوثيقة مخاطر الذّكاء الاصطناعيّ وإنّما أيضًا التّقدّم الّذي يشجّعه باعتباره "جزءًا من تعاون" الإنسان مع الله [٢]. ولكنّها مع ذلك، لا تخفي القلق الّذي يرافق جميع الابتكارات الّتي لا يمكن التّنبّؤ بآثارها. تمّ تخصيص عدّة فقرات من المذكّرة للتّمييز بين الذّكاء الاصطناعيّ والذّكاء البشريّ. ومن "المُضلِّل"، كما نقرأ، استخدام كلمة "ذكاء" في الإشارة إلى الذّكاء الاصطناعيّ لأنّه ليس "شكلًا اصطناعيًّا من أشكال الذّكاء"، بل هو "أحد منتجاته" [٣٥]. ومثل أيّ منتج من منتجات الإبداع البشريّ، يمكن للذّكاء الاصطناعيّ أيضًا أن يكون موجّهًا نحو "غايات إيجابيّة أو سلبيّة". يمكن للذّكاء الاصطناعيّ أن يقدّم "ابتكارات مهمّة" [٤٨] ولكنّه أيضًا قد يؤدّي إلى تفاقم حالات التّمييز والفقر والفجوة الرّقميّة وعدم المساواة الاجتماعيّة [٥٢]. ما يثير "المخاوف الأخلاقيّة" هو حقيقة أنّ "الجزء الأكبر من السّلطة على التّطبيقات الرّئيسيّة للذّكاء الاصطناعيّ تتركّز في أيدي عدد قليل من الشّركات القويّة" [٥٣]، وهكذا ينتهي الأمر بالتّلاعب بهذه التّكنولوجيا من أجل تحقيق "مكاسب شخصيّة أو مكاسب الشّركات" [٥٣].
بالإشارة إلى الحروب، تسلّط المذكّرة الضّوء على أنّ أنظمة الأسلحة المستقلّة والفتّاكة القادرة على "تحديد الأهداف وضربها بدون تدخل بشريّ مباشر" هي "سبب خطير للقلق الأخلاقيّ" [١٠٠]. في الواقع، دعا البابا فرنسيس إلى حظر استخدامها لأنّها تشكّل تهديدًا حقيقيًّا "لبقاء البشريّة أو مناطق بأكملها" [١٠١]. إنّ هذه التّقنيّات، كما تُندِّد المذكّرة "Antiqua et nova"، "تمنح الحرب قوّة تدميريّة لا يمكن السّيطرة عليها وتؤثّر على العديد من المدنيّين الأبرياء، بدون أن تستثني حتّى الأطفال". وفيما يتعلّق بالعلاقات الإنسانيّة، تشير الوثيقة إلى أنّ الذّكاء الاصطناعيّ يمكنه أن يقود إلى "عزلة ضارّة" [٥٨]، وأنّ "تشبيه الذّكاء الاصطناعيّ بالإنسان" يطرح مشاكل لنموّ الأطفال [٦٠] وأنّ تمثيل الذّكاء الاصطناعيّ كشخص هو "انتهاك أخلاقيّ خطير" إذا ما استخدم ذلك لأغراض احتياليّة. تمامًا كما أنّ استخدام الذّكاء الاصطناعيّ للخداع في سياقات مثل التّعليم والعلاقات والجنس هو أمر "غير أخلاقيّ ويتطلّب يقظة حذرة" [٦٢].
هذه اليقظة عينها تُطلب في المجال الاقتصاديّ والماليّ. في مجال العمل بشكل خاصّ، يمكننا أن نلاحظ أنّه في حين أنّ الذّكاء الاصطناعيّ لديه "إمكانيّة" زيادة المهارات والإنتاجيّة من ناحية، يمكنه من ناحية أخرى أن "ينقص من مهارات العمّال، ويخضعهم للمراقبة الآليّة ويحيلهم إلى وظائف جامدة ومتكرّرة" [٦٧]. كذلك تخصّص المذكّرة "Antiqua et nova"، مساحة واسعة لمسألة الرّعاية الصّحّيّة. مع التّذكير بالإمكانات الهائلة في مختلف التّطبيقات في المجال الطّبّيّ، وتحذِّر المذكّرة في هذا السّياق من أنّه إذا حلّ الذّكاء الاصطناعيّ محلّ العلاقة بين الطّبيب والمريض، فسيخاطر "بتفاقم" الوحدة الّتي غالبًا ما ترافق المرض. كما تنبّه المذكّرة أيضًا من تعزيز "طبٍّ للأغنياء"، يستفيد فيه الأشخاص الّذين لديهم إمكانيّات ماليّة من الأدوات المتقدّمة، بينما لا يستطيع الآخرون الحصول حتّى على الخدمات الأساسيّة.
وتبرز المخاطر أيضًا في مجال التّعليم. إذا تمّ استخدام الذّكاء الاصطناعيّ بحذر، يمكن للذّكاء الاصطناعيّ أن يحسّن الحصول على التّعليم ويقدّم "إجابات فوريّة" للطّلّاب [٨٠]. وتكمن المشكلة في أنّ العديد من البرامج "لا تقدّم سوى إجابات بدلًا من أن تدفع الطّلّاب إلى البحث عنها بأنفسهم، أو كتابة النّصوص بأنفسهم"؛ الأمر الّذي يؤدّي إلى عدم تطوير فكرٍ نقديّ [٨٢]. ناهيك عن كمّيّة "المعلومات المشوّهة أو المفبركة" و"الأخبار المزيّفة" الّتي يمكن أن تولّدها بعض البرامج [٨٤]. وفيما يتعلّق بموضوع الأخبار المزيّفة، تحذّر المذكّرة من الخطر الجسيم المتمثّل في "توليد الذّكاء الاصطناعيّ لمحتوى تمّ التّلاعب به ومعلومات كاذبة" [٨٥]، والّتي يتمّ نشرها بعد ذلك "للخداع أو الإضرار" [٨٧]. وجاء النّداء في هذا السّياق "للحرص دائمًا على التّحقّق من صحّة" ما يتمّ نشره وتجنّب "مشاركة الكلمات والصّور الّتي تحطّ من قدر الإنسان"، واستثناء "ما يؤجّج الكراهيّة والتّعصّب" أو يحطّ من "حميميّة الجنس" [٨٩].
فيما يتعلّق بالخصوصيّة والرّقابة، تشير المذكّرة إلى أنّ بعض أنواع البيانات يمكنها أن تصل إلى حدّ "المساس حتّى بضمير الشّخص" [٩٠]، مع خطر أن يصبح كلّ شيء "نوعًا من المشاهد الّتي يمكن التّجسّس عليها" [٩٢]. كما "يمكن استخدام المراقبة الرّقميّة لممارسة السيطرة على حياة المؤمنين وتعبيرهم عن إيمانهم" [٩٠]. أمّا فيما يتعلّق بموضوع الخليقة، فتُعتبر تطبيقات الذّكاء الاصطناعيّ لتحسين العلاقة مع البيت المشترك "واعدة". في الوقت عينه، تتطلّب نماذج الذّكاء الاصطناعيّ الحاليّة "كمّيّات هائلة من الطّاقة والمياه وتساهم بشكل كبير في انبعاثات ثاني أكسيد الكربون، فضلًا عن كونها كثيفة الاستخدام للموارد". وأخيرًا، تحذّر المذكّرة من خطر أن يصبح البشر "عبيدًا لعملهم". ومن هنا تأتي التّوصية: "ينبغي استخدام الذّكاء الاصطناعيّ فقط كأداة مكمّلة للذّكاء البشريّ وليس كبديلٍ لغناه" [١١٢]."