معضلة التكنولوجيا والأخلاق
يعرب "ستيفن أندرسون" هنا عن أسفه لغياب البصيرة الأخلاقية عند قادة التقدم التكنولوجى.
بعد مدة تربو على القرن من الزمان، كان الكوفيد-١٩، هو أول جائحة عالمية تمثل لحظة فاصلة للإنسانية. ذلك أنه يمكن القول وبشكل معقول أن تلك الأزمة هى نتيجة مباشرة لأبحاث علمية محفوفة بالمخاطر جرت لدراسة الفيروسات.
كان من المفترض أن يكون هذا إنجازًا تكنولوجيًا هائلاً، ولكنه تحول فى النهاية الى إنجاز مشؤوم. وسيصبح أيضًا مثالًا عالميًا لما يمكن حدوثه عندما تفتقر القدرات التقنية البشرية للحس الأخلاقى بشكلٍ كاف.
ولم تكن تلك هى المرة الأولى التى نلحظ فيها مدى الرعب الذى يمكن أن يتسبب فيه العقل البشرى.
يمكن إعادة التذكير بتصريح "روبرت أوبنهايمر" الشهير عندما تم تفجير القنبلة النووية الأولى، "الآن أصبحت الموت، مدمر العوالم". لم يكن يمزح. فبفضل مساعدته، أصبحنا الآن قادرين بالفعل على تدمير كل أشكال الحياة على هذا الكوكب.
لذلك فلا أحد منا يشك الآن فى أن العالم بأسره أصبح لديه مصلحة فى رؤية التكنولوجيا وهى تُدار بشكل جيد ومسئول.
تذكرتُ هذا الأمر وأنا أقرأ كتابين عن الذكاء الاصطناعى: كتاب "الذكاء الاصطناعى" (2020) لمايكل كانان، وكتاب "2084" (2024) ل"جون لينوكس". القلق الرئيسى فى كلا الكتابين ينصب على الفجوة بين التأثير الهائل لتقنيات الحاسوب العالمية والأخلاقيات المطلوبة لإدارتها.
يبدى "كانان" تفاؤلاً حذراً إزاء إمكانات الذكاء الاصطناعى، بينما بدا "لينوكس" أقل حماسة، لكن كلاهما يُعبِّران عن تحفُّظات جادّة متشابهة تجاه الوجهة التى قد يأخذنا إليها الذكاء الاصطناعى.
يحدث حاليًّا تطورٌ سريع وكثيف فى هذا المجال. فاليوم، تُستخدم خوارزميات الذكاء الاصطناعى لتوجيه الإعلانات الشخصية، وتأمين المناطق الحساسة ضد الغزو، والتعرف على المسافرين فى المطارات والحدود، وغير ذلك. لكن التطبيقات المستقبلية هى الأكثر إثارة للقلق، بما فيها قدرة الذكاء الاصطناعى على تنظيم النسل، وقمع حرية التعبير، وتقييد الفرص الاقتصادية، ومطاردة المعارضين، وترسيخ الأنظمة الاستبدادية. لقد عبر "فلاديمير بوتين" مؤخراً عن ذلك الامر حين صرَّح قائلًا: "الذكاء الاصطناعى هو المستقبل، ليس لروسيا فحسب، بل للبشرية جمعاء. إنه يحمل فرصًا هائلة، لكنه ينطوى أيضًا على تهديدات يصعب توقعها. من يهيمن على هذا المجال سيصبح حاكم العالم".
ولكن عندما نتعمق أكثر فيما يمكن أن يفعله الذكاء الاصطناعى بالفعل، وما يبدو أنه على استعداد للقيام به، فإن مثل هذه التصريحات تبدو أقرب إلى الحقيقة منها إلى الخيال العلمى. هذه تكنولوجيا قوية بشكل لا يُصدق، ومصيرها أن تُحدث تحولًا فى كل جوانب الحياة بطرق لا نستطيع حتى تخيلها الآن.
فكرة أن التكنولوجيا لها جانبان – جانب ايجابى وجانب سلبى فى الوقت نفسه – ليست جديدة. ففى عام 1929، تساءل "سيجموند فرويد" فى كتابه "الحضارة وسخطها" عما إذا كانت الحياة الحديثة تجعل الناس أكثر سعادة حقًا. وأشار إلى أن كل ابتكار يحمل فى طياته جانبًا سلبيًّا. فالقدرة على السفر والتواصل الهاتفى، قد تساهم فى تفكك وضعف المجتمعات. والتقدم الطبى وانتشار النظافة قد يؤدى إلى الاكتظاظ السكانى. ولو عاش فرويد فترة أطول، لربما أضاف أن تنظيم النسل قد يقود إلى التحرر الجنسى المفرط، وإلى تحويل النساء إلى أدوات جنسية بيد الرجال.
فلكل ميزة تجلبها التكنولوجيا، تولد حتمًا عيب مقابِل. ورغم أن هذه السلبيات لا توازن الإيجابيات دائمًا، فإن السيطرة على تكنولوجياتنا تتطلب فهم الجانبين معًا: علينا موازنة المنافع المتوقعة مع السلبيات المحتملة، واتخاذ خيارات أخلاقية فى كيفية تعاطينا معها.
إن مثل هذه الاتجاه هو أكثر إلحاحاً الأن من أى وقت مضى؛ وهذا خبر سار لفلاسفة الأخلاق. فالتقنيات الجديدة تظهر باستمرار، وتتزايد معها المخاطر ، بما يجعل من المستحيل إدارة قدراتنا التقنية المتزايدة دون الاهتمام بتداعياتها الأخلاقية.
ومن ثم، تبدو الحاجة ملحة أن يتمتع فلاسفة الأخلاق على وجه الخصوص بأهمية ومكانة متزايدة فى الساحة العامة. لكن من الواضح أن هذا لا يحدث. تستمر التقنيات الجديدة فى الظهور بوتيرة سريعة، دون أن يواكبها البعد الاخلاقى المطلوب. وهو ما يترك لدى الكثير منا الانطباع بالوقوع فى قبضة آلة خرجت عن السيطرة.
ويبدو أن الحل الذى يقدمه مطوروا التكنولوجيا مجرد نصائح معلبة من قبيل: فلنفكر بجدية أكبر، أو دعونا نكون أكثر تشككا، ولنحاول ممارسة أخلاقيات أفضل. لكن مثل هذه النصائح المبتذلة لن تلبى التحديات.
لقد أصبحت الأخلاق والتكنولوجيا منفصلتين بشكل خطير، ولم يعد بوسعنا أن نتحمل التعامل مع هذا الأمر باعتباره أمراً لا مفر منه. ولكن إصلاح هذا الوضع لن يكون بالأمر السهل.
التناقض الأخلاقى:
المشكلة الرئيسية باختصار: إن عالم التكنولوجيا ليس عالم أخلاق، وعالم الأخلاق ليس عالم تكنولوجيا.
إن عالم الكمبيوتر هو الأقدر على معرفة ما ستكون عليه تكنولوجيا الذكاء الاصطناعى الجديدة وما تفعله بالفعل. إنه يفهم التفاصيل الفنية لكل ما يجرى فيها. ولكنه لايمتلك الحس الفلسفى لعلم الاخلاق، ولم يتلقى بشكل خاص دراسة متعمقة عن اهميته واثره، لذا فلن يفهم هذا الجانب من التفاعل بشكل كامل.
وهذا لا يعنى بالطبع أنه شخص سيئ: أو حتى يشير إلى أنه يفتقر إلى الفضائل الأخلاقية الحميدة. كل ما أعنيه هو أن تركيزه ينصب على الجوانب الفنية. إنه لا يمتلك معرفة الفيلسوف الأخلاقى لهذا الموضوع.
من ناحية أخرى، قد يعرف الفيلسوف الأطر الأخلاقية التي يمكن تطبيقها، وما هى الرؤى التى من المرجح أن يقدمها "كانطى" جديد، أو "نفعى"، أو "براجماتى" جديد، أو أى شىء آخر. ولكنه مهما كان ما قد اكتسبه من معرفة بالتكنولوجيا، فإنه لا يتمتع بالخبرة الكاملة التى يتمتع بها عالم التكنولوجيا. وربما نستطيع أن نضعها هكذا: فالفيلسوف الأخلاقى لديه مثلا "الجبر" الأخلاقى، والخبير التكنولوجى لديه "الأرقام" التي يمكن إدخالها فى المعادلة، ولكن بما أنهما ليسا نفس الشخص، فإن كل منهما يفتقر إلى جزء أساسى ضرورى للحصول على معادلة حساب أخلاقية دقيقة.
ومما يزيد الأمور سوءاً أن مجال الأخلاق نفسه غير حاسم من الأساس. ففى داخله أطر أخلاقية مختلفة ومتنوعة وغير قابلة للقياس ـ أى أنها لا تتفق مع بعضها البعض.
فعلم الأخلاق فى واقع الأمر عبارة عن صخب من الأصوات المتضاربة، وليس صوتاً واحداً. وهذا ليس فقط على مستوى العمليات الفكرية، بل وأيضاً على مستوى الاستنتاجات. لذلك لا يمكن للمرء أن يقول بدقة أن التفكير الأخلاقى قد وصل إلى إجماع على أن شيئًا ما أخلاقى أو غير أخلاقى؛ فقط قدم مجال الأخلاق آراءً متنوعة حول ما قد يكون صحيحًا فى موقف معين، مع كون أى استنتاج قائمًا على رأى شبه مستنير فقط حول أى نظرية أخلاقية صحيحة فى المقام الأول.
ولنعد الآن إلى الجانب التكنولوجى من المشكلة، فالعلماء والمهندسين يميلوا إلى التركيز على إنجاز المهمة التى بين أيديهم، بدلاً من التشكيك فى النزاهة الأخلاقية لما ينفذونه أو محاولة توقع كيف قد يسىء الناس فى المستقبل تطبيق هذه التكنولوجيا. إن مبتكر التكنولوجيات الجديدة يرى فى المقام الأول الجانب الإيجابى لعمله، وإلا فإنه سيتوقف عن محاولة القيام به.
ويكون عادة مفتونًا بالاحتمالات الإيجابية لاكتشافه، وليس منخرطًا فى البحث عن السلبيات المحتملة، لأنه يعتقد أن ابتكاره سيكون جيدًا بالنسبة له، وسيوفر أيضاً نتائج إيجابية للبشرية. وفى معظم الحالات، يرى بأن المخاوف الأخلاقية سابقة لأوانها وهى مجرد تكهنات. أو كما قال أوبنهايمر بدقة: "عندما ترى شيئًا رائعًا من الناحية الفنية، فإنك تمضى قدمًا وتفعله ولا تتجادل حول ما يجب عليك فعله بشأنه إلا بعد أن تحقق نجاحك التقنى". ويضيف: "هذه هى الطريقة التى تمت بها صناعة القنبلة الذرية".
وهنا بالضبط تكمن المشكلة:
فبمجرد إنجاز العمل التكنولوجى، يبدأ التفكير فى أبعاده الأخلاقية. فالفعل قد تم؛ والتكنولوجيا أصبحت موجودة؛ فأين هى إذن القوة التى يمتلكها التفكير الأخلاقى لمنعنا من تطبيقها، لمجرد بعض المخاوف النظرية حول إساءة استخدامها المحتملة؟
إننا نمتلك الهواتف المحمولة، وهي تفعل أشياء رائعة؛ وكم كان سيكون من الممل أن نبدأ فى التفكير فى عواقبها البغيضة على الشباب!
أو يمكننا استنساخ الأغنام. وبما أننا قادرون من حيث المبدأ على استنساخ شخص أيضاً، فلماذا لا نفعل ذلك؟
ألا تتطور الأشياء، أليست تكنولوجياتنا نتاجاً لهذا التطور؟ ولماذا نفترض أن التفكير الأخلاقى لن يواكب ذلك التطور؟
كما أن خبراء التكنولوجيا يؤكدون لنا أن الأخلاقيات موجودة فى نطاق عملهم بالفعل.
ففيما يتعلق بالذكاء الاصطناعى، توجد هناك المبادئ التوجيهية الأخلاقية للاتحاد الأوروبى للذكاء الاصطناعى الجديرة بالثقة (2019)، وبروتوكولات وكالة مشاريع البحوث الدفاعية المتقدمة الأميركية، وتقرير المملكة المتحدة "المستعدون والراغبون والقادرون" (2018)، وخطة قمة الذكاء الاصطناعى من أجل الإنسانية في فرنسا (2018)، وإطار أخلاقيات الذكاء الاصطناعى فى أستراليا (2019)، وهلم جرا.
ولكن يبقى السؤال أى أخلاقيات نطبقها؟ وإذا كانت مجموعة واحدة كافية، فلماذا يوجد الكثير من الاتفاقيات المتنوعة بشأن أخلاقيات الذكاء الاصطناعى؟ لماذا لا يشمل أى منها روسيا أو الصين أو المملكة العربية السعودية. على أية حال، سيتم بطريقة أو بأخرى إنجاز الأعمال التقنيه قبل أن تكون هناك استعدادات أخلاقية كافية.
ولكن حتى لا نتصور أن خبراء التكنولوجيا هم مجموعة من عديمى المبادئ، الذين يتعمدون خداعنا، دعونى أضيف تحذيرا: حتى هؤلاء لا يعرفون ما هى الاستخدامات التي ستستخدم فيها التكنولوجيا التى يخترعونها. عندما تم ابتكار الإنترنت، كان ذلك فقط بهدف تبادل المعلومات العلمية والطبية.
من من بين مخترعيها كان يتخيل أنها ستصبح منصة تجارية ومنصة ألعاب وشبكة تواصل اجتماعى، ناهيك عن محرك قوى للمعلنين ومنتجى المواد الإباحية وتجار الجنس فى جميع أنحاء العالم؟ وهل لو كانوا يعرفون، هل كانوا ليخترعوها؟
الواقع أنه بمجرد إنتاج التكنولوجيا، تميل استخداماتها للتماشى مع الاحتياجات الأكثر وضوحاً، دون أى مراعاة لنوايا المخترعين، وبشكل خاص دون أى مراعاة للأخلاقيات.
تعمل الأشياء تلقائيا ــ حيث يقدم المخترعون والمهندسون هذه الإبتكارات إلى العالم؛ ونادراً ما يكونوا قادرين على معرفة التشابكات الأخلاقية التى قد تواجهها تكنولوجيتهم مسبقاً. وبحلول الوقت الذى نكتشف فيه ذلك، يكون الأوان قد فات: فالتكنولوجيا أصبحت قيد الاستخدام، وتفعل كل ما فى وسعها، بصرف النظر عما نعتقد الآن أنها ينبغى لها أن تفعله.
ربما يجدر هنا الإشارة إلى معضلة إضافية: فاذا افترضنا وجود ما يسمى "التطور الاخلاقى البشرى" (والأدلة التاريخية لوجوده ليست جيدة)، فهو فى كل الأحوال يتم من خلال عملية تطورية بطيئة للغاية.
وعلى النقيض من ذلك، يحدث التطور التكنولوجى اليوم بسرعة هائلة. ومن المحتم إذن أن تتجاوز وتيرة الابتكار التكنولوجى أى امكانيه ان تواكبه الفلسفة الأخلاقية. لذا يتعين علينا أن نعرف على وجه اليقين أنه لا يوجد معايير أخلاقية كافية لتكنولوجيتنا.
كل ما سبق يعنى أن التكنولوجيا سوف تفعل بنا كل ما تستطيع فعله، وأن البشر لم يعودوا قادرين على التحكم فيما يخترعونه.
ففى اندفاعنا لاغتنام الفوائد، أصبحنا عاجزين عن تجنب الأضرار...
فما هى الحجة التى أحاول تقديمها إذن؟؟
إننى فقط أطالب بوجود ادراك عام واسع للأساسيات الآتية:
أولاً: أن أى ثقة فى أن التقدم التكنولوجى والاخلاقى يسيران بنفس السرعة جنباً إلى جنب، هى ثقة ساذجة إلى حد خطير.
ثانياً: أننا لا نستطيع أن نكون على ثقة على الإطلاق من أن الآليات الحكومية المختلفة التى يُفترض أنها تدير أخلاقيات التكنولوجيا سوف تؤدى هذه المهمة على النحو اللائق. فلا توجد قوى عليا حميدة تراقب وتدير الابتكارات بحكمة. وإذا نجحت مثل هذه التدابير في تحقيق أى شىء، فمن المؤكد أن ذلك سيكون لفترة قصيرة؛ ثم يأتى التنفيذ الواسع للتكنولوجيا، سواء تم حل القضايا الأخلاقية أم لا.
إن استجابتنا لكل هذا لابد وأن تتم على جانبين، جانب شخصى، وجانب عام.
على الصعيد الشخصى، علينا أن نتحمل مسؤولية أكبر فيما يتعلق بنوعية التكنولوجيا المسموح بها فى حياتنا، ومن المرجح أن يشمل هذا احيانا الاستعداد لرفض بعض التكنولوجيات حتى لو تبناها آخرون، فما يحدث لك ولى فى نهاية المطاف متروك لك ولى.
وعلى المستوى العام، من الواضح أن الأمر يتطلب شيئاً أفضل من المعادلة الأخلاقية العامة السائدة الحالية ("أنت تفعل ما تريد") .
والواقع أن فكرة أن كل الأخلاقيات يمكن التعامل معها باعتبارها مجرد خيارات، وأن كل موقف، من أخلاق الفضيلة إلى البراجماتية إلى العدمية، هى كلها بشكلٍ ما صحيحة، لا تستطيع أن تشكل الاستجابات السياسية التى نحتاج إليها بشدة الآن.
فنحن فى احتياج لتدابير سياسية تتمحور حول بعض أخلاقيات التكنولوجيا المفردة والمقبولة على نطاق واسع. وأن يتم ذلك فى سياق ديمقراطى، ولابد من إضفاء الشرعية على مثل هذه الإرادة.
فالآن هناك تحدٍ حقيقى يستحق أن نواجهه!
ولكن كيف يمكن أن يتم هذا؟
إننا فى احتياج إلى مناقشة أخلاقية عامة، تحكمها قواعد العقل والجدل الفكرى والافكار المتنوعة والمتنافسة فى الوقت نفسه. ومخرجات مثل هذا الجدل المجتمعى العالمى يجب ان ينتج عنها خيارات محددة، وأن نحدد طبقاً لها السياسات العامة التى يتم الاتفاق عليها.
وإذا كنا راغبين فى الحصول على فلسفه أخلاقية ذات قيمة تواكب التقدم التكنولوجى، فلابد أن نقبل بأن تلك المناقشات سوف تسفر عن فائزين وخاسرين، وهو ما يعنى أن الأخلاق لابد وأن تُعامَل بقدر أعظم كثيراً من الجدية والاهتمام أكثر من أى وقت مضى.
إن مجرد الاستسلام للمحتوم ليس خياراً وارداً. ولن تنقذنا الأفكار الأخلاقية الحالية التى تسود الثقافة الغربية من الكوارث التكنولوجية المستقبلية والتى تبدو ضاغطة علينا بشكل متزايد. لقد عاد النقاش الأخلاقى العام الجاد الحقيقى الذي يتناول القضايا الأخلاقية بجدية وموضوعية إلى الواجهة من جديد. ولم يعد بوسعنا أن ننظر إلى الفلسفة الأخلاقية باعتبارها طريقاً مسدوداً عقيماً: فقد أصبحت الآن مجالاً رئيسياً من مجالات الاهتمام، مع وجود هذه التكنولوجيات الحديثة.
وسواء أحببنا ذلك أم لا، يمكننا أن نرى أن المستقبل قادم سواء رجعنا إلى الفلسفة الأخلاقية أو لم نرجع.
فهل يمكننا تحمل ذلك المجهول القادم دون حماية أخلاقية تواكبه؟
فى عصر الذكاء الاصطناعى والأوبئة والتهديد النووى والمستقبل البيئى غير المؤكد، لم يعد لدينا ترف البقاء غير مبالين بأخلاقيات التكنولوجيا.
ستيفن أندرسون مدرس فلسفة متقاعد في لندن، أونتاريو.
تعليقات