نقاط أساسيّة حول المذكّرة الخاصّة بالعلاقة بين الذّكاء الاصطناعيّ والذّكاء البشريّ
وكتب تورنييلي بحسب "فاتيكان نيوز": "إنَّ أوّل ما يثير الالتباس هو الاسم نفسه. فمفهوم "الذّكاء الاصطناعيّ" يمثل أحد تلك الحالات الّتي يكون فيها للاسم تأثير كبير في تشكيل التّصوّر العامّ للظّاهرة. تشير المذكّرة "Antiqua et nova" الّتي صدرت عن دائرة عقيدة الإيمان بالتّعاون مع دائرة الثّقافة والتّربية إلى أنّ الذّكاء الاصطناعيّ هو مجرّد أداة: ينفّذ مهامًا ولكنّه لا يفكّر، لا بل ليس لديه القدرة على التّفكير. لهذا، يُعدّ من المضلّل إضفاء خصائص إنسانيّة عليه، لأنّه في جوهره "آلة" تبقى محدودة ضمن نطاق المنطق والرّياضيّات. هو لا يملك فهمًا معنويًّا للواقع ولا قدرة حقيقيّة على الإبداع أو الحدس. كما لا يمكنه اتّخاذ قرارات أخلاقيّة أو التّفاعل المفتوح مع ما هو حقيقيّ وجميل وخيّر، بعيدًا عن أيّ منفعة شخصيّة. بعبارة أخرى، هو يفتقر إلى كلّ ما هو إنسانيّ جوهريّ وعميق.
إنَّ الذّكاء البشريّ في الواقع يتميّز بكونه فرديّ واجتماعيّ في الوقت عينه، عقلانيّ وعاطفيّ، ويعيش من خلال علاقات مستمرّة يتوسّطها حضور الجسم الإنسانيّ الّذي لا يمكن الاستغناء عنه. لذلك، ينبغي استخدام الذّكاء الاصطناعيّ كأداة مكمّلة للذّكاء البشريّ، وليس كبديل له. ورغم التّقدّم المتواصل في البحث وتطبيقاته المختلفة، يبقى الذّكاء الاصطناعيّ "آلة" لا تتحمّل مسؤوليّة أخلاقيّة؛ إذ تقع هذه المسؤوليّة على عاتق الّذين يصمّمونه ويستخدمونه. ولهذا تؤكّد الوثيقة على أهمّيّة محاسبة الّذين يتّخذون قرارات بناءً على الذّكاء الاصطناعيّ، وضمان إمكانيّة المساءلة في جميع مراحل العمليّة. كذلك يجب تقييم الأهداف والوسائل المستخدمة في تطبيقات الذّكاء الاصطناعيّ لضمان احترام الكرامة الإنسانيّة وتعزيز الخير العامّ. وهذا التّقييم هو معيار أخلاقيّ أساسيّ للتّمييز بين الاستخدام المشروع وغير المشروع للذّكاء الاصطناعيّ.
تُشير المذكّرة إلى أنّ معيارًا آخر للتّقييم الأخلاقيّ يتعلّق بقدرة الذّكاء الاصطناعيّ على تعزيز الإيجابيّة في علاقات الإنسان مع بيئته الطّبيعيّة والاجتماعيّة، وتشجيع المسؤوليّة المشتركة تجاه الخير العامّ. ولكي نحقّق هذه الأهداف، من الضّروريّ أن نذهب أبعد من مجرّد تراكم البيانات والمعرفة، وأن نسعى لبلوغ "حكمة القلب" كما يشير البابا فرنسيس، لكي يسهم الذّكاء الاصطناعيّ في مساعدة البشر على أن يصبحوا أفضل. وفي هذا السّياق، تحذّر الوثيقة من الخضوع التّامّ للتّكنولوجيا، مشيرة إلى ضرورة استخدامها لتحسين الخدمات والعلاقات الإنسانيّة بدلًا من استبدال العمل البشريّ بشكل تدريجيّ، الأمر الّذي قد يؤدّي إلى ظهور أشكال جديدة من التّهميش وعدم المساواة الاجتماعيّة. كما يمكن الاستعانة بها لفهم الأمور المعقّدة والمساعدة في البحث عن الحقيقة. ولذلك فإنَّ التّصدّي للمعلومات المضلّلة الّتي تنتجها تقنيّات الذّكاء الاصطناعيّ ليس مهمّة مقتصرة على الخبراء فحسب، بل هو يتطلّب جهود الجميع. من الضّروريّ أيضًا تجنّب استغلال الذّكاء الاصطناعيّ للحدّ من حرّيّة الأفراد أو لاستفادة قلّة على حساب الأغلبيّة. كما لا يمكن قبوله كوسيلة للسّيطرة الاجتماعيّة أو تقليص الإنسان إلى مجرّد مجموعة بيانات.
أمّا في المجال العسكريّ، خلص مدير التّحرير في الدّائرة الفاتيكانيّة للاتّصالات إلى القول فإنّ إسناد قرار سلب حياة إنسان إلى آلة هو أمر غير مقبول. لقد رأينا للأسف، حجم الدّمار الّذي تتسبّب فيه الأسلحة الّتي يقودها الذّكاء الاصطناعيّ، كما ظهر بشكل مأساويّ في العديد من الصّراعات الحاليّة."