من (العقل ككمبيوتر) إلى (آلي كالبشر): هل تغيّر هذه الاستعارات من الأخلاق؟

الوضع الليلي الوضع المضيء

على مدى السنوات الثلاث الماضية، عدت إلى سؤال واحد مرارًا وتكرارًا: كيف تعيد التقنية تشكيل معتقداتنا وممارساتنا الأخلاقية؟

 في دراسته الكلاسيكية تقنيات العصور الوسطى ، يجادل لين وايت جونيور في أن التغييرات التقنية البسيطة يمكن أن يكون لها تأثير عميق على النظم الأخلاقية الاجتماعية. ضع في اعتبارك الرِّكاب في سرج الخيل مثلاً، قبل اختراعه، كان على المحاربين الفرسان الاعتماد إلى حد كبير على قوتهم ("ضغط ركبهم") لشن هجوم أثناء ركوب الخيل. كان وضع المحارب فوق الحصان محفوفًا بالمخاطر وكان يقتصر على إطلاق القوس والسهم أو رمي الرمح.

 غير الرِّكاب في سرج الخيل كل ذلك:

من خلال تقديم الدعم الجانبي بالإضافة إلى الدعم الأمامي والخلفي المقدم من المقبض و القربوس (الحنو الخلفي) ، قام الرِّكاب  بدمج الحصان والراكب بشكل فعالّ في وحدة قتالية واحدة قادرة على العنف دون سابق إنذار. لم تعد يد المقاتل تقوم بالضربة، بل هي فقط توجهها. وهكذا استبدل الرِّكاب الطاقة البشرية بقوة الحيوان، وزاد بشكل كبير من قدرة المحارب على إلحاق الضرر بعدوه. على الفور، من دون خطوات تمهيدية، جعلت من الممكن شن معركة صدمة حاسمة أو ما يسمى بسلاح الفرسان، وهي طريقة ثورية جديدة لخوض المعركة. (وايت ، 1962 2).

كان لهذا آثار مضاعفة كبيرة. حولت الفرسان إلى محور جيش العصور الوسطى. ونظرًا لأن بقاء ونمو مجتمع القرون الوسطى كان يعتمد بشكل كبير على البراعة العسكرية، كان هؤلاء الفرسان بحاجة إلى التدريب والانضباط المستمر مما يتطلب الكثير من الموارد. وفقًا لوايت، تم إنشاء نظام الضيع الإقطاعية، بما يرتبط به من معايير قانونية وأخلاقية تتعلق بالملكية والتسلسل الهرمي الاجتماعي والشرف والفروسية، من أجل تزويد الفرسان بهذه الموارد.

هذا مثال مثير للاهتمام للتغيير الأخلاقي الاجتماعي الناجم عن التقنية. أتاح إنشاء تقنية جديدة ظهور نوع جديد من القتال (سلاح الفرسان) الذي كان له عواقب أخلاقية كبيرة على المجتمع. كانت التقنية بحاجة إلى الدعم والاستمرار، ولكنها أيضًا اتخذت معاني ثقافية جديدة. أصبح الفرسان الخيالة رموزًا للقوة والشجاعة والشرف والواجب وما إلى ذلك. تم الاحتفال بهم ومكافأتهم. تم إعادة توجيه نظام الإنتاج الاجتماعي بأكمله لتلبية احتياجاتهم. هناك خط مباشر يمكن تتبعه من التقنية إلى هذه البنية الفوقية الأيديولوجية الجديدة.

هل يمكن أن يحدث شيء مشابه مع التقنيات المعاصرة؟ هل هو يحدث بالفعل؟ 

في الجزء المتبقي من هذا المقال، أرغب في النظر في دراسة حالة معينة. أريد أن ألقي نظرة على الروبوتات الاجتماعية والتغييرات التي قد تحدثها في ممارساتنا الأخلاقية. أريد أن أزعم أن هناك آلية معينة يمكنهم من خلالها تغيير ممارساتنا الأخلاقية التي تكون دقيقة للغاية ولكنها مهمة. على عكس حالة الرِّكاب - حيث غيرت الأداة النظام الأخلاقي الاجتماعي بسبب الاحتمالات الجديدة لأسلوب القتال الذي أتاحته - أريد أن أزعم أن الروبوتات الاجتماعية قد تغير النظام الأخلاقي الاجتماعي عن طريق تغيير الاستعارات التي يستخدمها البشر لفهم أنفسهم. على وجه الخصوص، أريد أن أزعم أنه كلما زاد عدد البشر الذين ينظرون إلى أنفسهم على أنهم يشبهون الروبوتات (على عكس الروبوتات التي يُنظر إليها على أنها شبيهة بالإنسان)، كلما زاد احتمال أن نتبنى أسلوب النفعية في التفكير الأخلاقي. أقيم هذه الحجة على نظرية الوساطة الأخلاقية التأويلية وبعض النتائج الحديثة في التفاعلات بين الإنسان والروبوت. هذه الحجة تخمينية للغاية، لكنني أعتقد أنها تستحق النظر فيها.

تعريف المصطلحات

روبوت: أي عامل اصطناعي متجسد لديه القدرة على تفسير المعلومات من بيئته والتصرف استجابة لتلك المعلومات. 

الروبوت الاجتماعي: أي روبوت يتم دمجه في الممارسات الاجتماعية البشرية ويستجيب للإشارات والسلوكيات الاجتماعية البشرية، على سبيل المثال روبوتات الرعاية، روبوتات الخدمة. قد تكون الروبوتات الاجتماعية إنسانية جدًا في المظهر أو السلوك، لكن ليس من الضروري أن تكون كذلك. على سبيل المثال، قد يكون مظهر الطاهي أو النادل الآلي في مطعم غير إنساني للغاية ولكنه قد يستمر في الاستجابة بشكل ديناميكي وتكيفي للإشارات والسلوكيات الاجتماعية البشرية.

  1. الوساطة الأخلاقية التأويلية 

في الجدال بأن التقنية قد تغير المعتقدات والممارسات الأخلاقية للإنسان، من المهم التمييز بين مفهومين مختلفين للأخلاق. من ناحية، هناك "أخلاق مثالية". هذا هو نوع الأخلاق الذي درسه الفلاسفة الأخلاقيون وعلماء الأخلاق. هذا المفهوم يتألف من ادعاءات حول ما يجب على البشر حقًا تقديره وما يجب عليهم فعله. من ناحية أخرى، هناك "الأخلاق الاجتماعية". هذا هو نوع الأخلاق التي يمارسها الناس العاديون، حيث يتألف من معتقدات الناس حول ما يجب عليهم تقديره وما يجب عليهم فعله. الأخلاق الاجتماعية والأخلاق المثالية قد لا تتوافق مع بعضها البعض. في الواقع، غالبًا ما يتحسر الفلاسفة الأخلاقيون على حقيقة أنهم ليسوا كذلك. عند التفكير في كيف يمكن للتقنية أن تغير الأخلاق البشرية، فأنا مهتم في المقام الأول بكيفية تغييرها للأخلاق الاجتماعية، وليس الأخلاق المثالية.

ومع ذلك، يمكن أن تكون هناك روابط بين الأخلاق المثالية والأخلاق الاجتماعية. من الواضح أن الفلاسفة الأخلاقيين غالبًا ما يستخدمون الادعاءات حول الأخلاق المثالية لانتقاد الأخلاق الاجتماعية. تاريخ الإصلاح الأخلاقي حافل بأمثلة على ذلك، بما في ذلك الحجج المناهضة للعبودية في عصر التنوير، والحجج المؤيدة لحقوق المرأة في أواخر القرن التاسع عشر، والحجج المؤيدة للزواج المثلي في أواخر التسعينيات وأوائل العقد الأول من القرن الحادي والعشرين. لكن التغييرات في الأخلاق الاجتماعية قد تؤثر أيضًا على الأخلاق المثالية، أو على الأقل فهمنا للأخلاق المثالية. إذا تبنى الناس ممارسة أخلاقية معينة في الواقع، قد يشجع ذلك الفلاسفة الأخلاقيين على إعادة النظر في ادعاءاتهم حول الأخلاق المثالية. غالبًا ما يكون هناك ارتباط (مشبوه؟) بين التغيرات في الأخلاق الاجتماعية والتغيرات في نظريات الأخلاق المثالية.

كيف يمكن للتقنية إحداث تغييرات في الأخلاق الاجتماعية؟ 

هناك العديد من النظريات. إن نظرية بيتر بول فيربيك للوساطة الأخلاقية التكنولوجية هي النظرية التي سأعتمد عليها في هذه المقالة. يجادل فيربيك بأن التقنيات تغير كيفية ارتباط البشر بالعالم وبأنفسهم. ولنستخدم مصطلح أكاديمي أكثر: التقنيات تتوسط علاقاتنا مع الواقع. يمكن أن يكون لذلك آثار أخلاقية.

يصنف فيربيك شكلين من أشكال الوساطة، على وجه الخصوص، لتأثيرهما الأخلاقي: (1) الوساطة الذرائعية و (2) الوساطة التأويلية. تنشأ الوساطة الذرائعية عندما تضيف التقنية إلى الخيارات المهمة أخلاقياً في حياة الإنسان أو تنقص منها. هذا يدفعنا إلى التفكير في معضلات أخلاقية جديدة وأسئلة أخلاقية جديدة. يعد تأثير الرِّكاب على الحروب في العصور الوسطى مثالاً على ذلك. لقد جعل سلاح الفرسان أكثر فاعلية في المعركة، وبالتالي اضطر القادة العسكريون إلى اتخاذ قرار بشأن استخدام هذه الوحدات الأكثر فاعلية. نظرًا للقيمة الهائلة المرتبطة بالنجاح العسكري في تلك الحقبة، أصبح استخدامها ضرورة أخلاقية: إن عدم استخدامها سيكون أمرًا متهورًا من الناحية الأخلاقية وإهمالًا للواجب. الوساطة التأويلية مختلفة. تنشأ عندما تغير التقنية طريقة تفسيرنا للعالم، حيث تضيف منظورًا أخلاقيًا جديدًا لخياراتنا. يجادل فيربيك بأن الموجات فوق الصوتية (السونار) هي مثال كلاسيكي للوساطة الأخلاقية التأويلية في العمل لأن التقنية تقدم لنا الجنين في الرحم ككائن مستقل، يقع في الداخل ولكنه لا يزال متميزًا عن أمه، وقادر على العلاج أو التدخل من قبل الممارسين الطبيين. هذا يغير فهمنا الأخلاقي لرعاية ما قبل الولادة.

لا شك أن الانتشار الواسع للروبوتات الاجتماعية سوف يتوسط بشكل عملي علاقتنا بالعالم. ستكون لدينا خيارات بشأن ما إذا كان ينبغي نشر روبوتات الرعاية في الإعدادات الطبية، أو الاستعانة بالروبوتات كمصادر خارجية للمهام التي كان من الممكن أن يقوم بها البشر، وما إلى ذلك. لكنني أريد أن أتطرق هنا إلى التأثيرات التأويلية للروبوتات الاجتماعية. أعتقد أن انتشار الروبوتات الاجتماعية يمكن أن يكون له تأثير عميق على كيفية فهمنا لأنفسنا وخياراتنا الأخلاقية.

لتوضيح هذه النقطة، أريد أن أفكر في تاريخ تقنية أخرى.

2. الاستعارة” العقل كالكمبيوتر “ 

كان أجهزة الكمبيوتر هي التقنية المميزة للقرن العشرين. لقد أعادت تشكيل مكان العمل الحديث بالكامل، من عالم التمويل العالي، إلى البحث العلمي، إلى التصميم الجرافيكي. كما أنها مكنت الاتصال والتنسيق على نطاق عالمي. بهذه الطريقة، توسط الحاسب بشكل عملي في علاقتنا بالعالم. نحن الآن نفكر ونتصرف من خلال القدرات التي توفرها لنا أجهزة الحاسب. هل يجب أن أرسل هذا البريد الإلكتروني أم لا؟ هل يجب أن أستخدم هذا الجزء من البرنامج للعمل على هذه المشكلة؟

لم يقتصر دور الحاسب على توسط علاقتنا بالعالم بطريقة ذرائعية فحسب، بل قام أيضًا بالتوسط فيها تأويليًا. نحن نفكر الآن في العديد من العمليات في عالمنا الطبيعي على أنها عمليات حسابية في الأساس. لا يوجد مكان أكثر صواباً مما هو عليه في عالم العلوم الإدراكية. يحاول علماء الإدراك معرفة كيف يعمل العقل البشري: كيف ندرك العالم ونتعلم منه ونتصرف فيه؟ لطالما استخدم علماء الإدراك أجهزة الحاسب للمساعدة في نمذجة الإدراك البشري وفهمه. لكنهم ذهبوا إلى أبعد من ذلك أيضًا. لقد أصبح الكثير منهم ينظرون إلى العقل البشري كنوع من الحاسب - ليروا التفكير كنوع من الحسابات.

يستكشف جيرد جيجرينزر ودانيال جولدشتاين هذا المنعطف المجازي بالتفصيل في مقالتهم "العقل ككمبيوتر: ولادة استعارة“. لاحظوا أن هذا التحول للأحداث ليس غريبا. لطالما استخدم العلماء الأدوات لفهم العالم. في الواقع، يجادلون بأن تاريخ العلم يمكن فهمه، جزئيًا على الأقل، على أنه ظهور نظريات من الاستخدام التطبيقي للأدوات. يسمونها "أدوات النظريات" الاستكشافية.  تطوير الساعة الميكانيكية هو مثال كلاسيكي على ذلك. لم يمض وقت طويل على اختراعها حتى بدأ العلماء (أو الفلاسفة الطبيعيون كما أطلق عليهم آنذاك) بالتفكير في العمليات الفيزيائية (الحركة، الجاذبية، إلخ) بمصطلحات ميكانيكية. وبالمثل، عندما تم اعتماد الأدوات الإحصائية لاستخدامها في التجارب النفسية في القرن العشرين، لم يستغرق الأمر وقتًا طويلاً قبل أن يبدأ علماء النفس في رؤية علم النفس البشري كنوع من التحليل الإحصائي:

يعد تحليل التباين (ANOVA) من أكثر الأدوات المستخدمة على نطاق واسع للاستدلال الإحصائي. بحلول أواخر الستينيات، كان حوالي 70٪ من جميع المقالات التجريبية في المجلات النفسية تستخدم بالفعل ANOVA(إدغينغتون 1974). أصبحت هذه الأداة نظرية العقل. في نظريته السببية، افترض كيلي (1967) أن العقل ينسب سببًا إلى أي تأثير بنفس الطريقة التي يفعلها عالم النفس - أي بإجراء تحليل ANOVA. سارع علماء النفس بقبول القياس الجديد بين العقل وأداتهم المختبرية. (جيجرينزر وجولدشتاين ، 1996 ، 132).

عانت الاستعارة الحسابية من مصير مماثل. القصة مشوقة! لاحظ جيجرينزر وجولدشتاين، أن المطورين الأوائل للكمبيوتر، مثل فون نيومان وتورنج، عملوا على افتراض أن الأجهزة التي كانوا يصنعونها يمكن أن تجسد عمليات التفكير البشري (على المستوى البيولوجي أو السلوكي). لكنهم رأوها كاستعارة أحادية الاتجاه: كان الهدف هو بناء آلة تشبه العقل البشري. في الستينيات والسبعينيات من القرن الماضي، انقلبت الاستعارة على نفسها: بدأ علماء الإدراك في رؤية العقل البشري كآلة حسابية.


كانت إحدى اللحظات الفاصلة في هذا التحول هي نشر كتاب ألان نيويل وهيربرت سيمون لحل المشكلات الإنسانية في عام 1972. في هذا الكتاب، حدد نيويل وسيمون نموذجًا حسابيًا أساسيًا لكيفية عمل العقل البشري. في إحدى المقابلات، وثق سايمون كيف بدأ من خلال استخدامه لأجهزة الكمبيوتر، في التفكير في العقل البشري كآلة تدير البرامج:

"بدأت الاستعارة التي كنت أستخدمها للعقل، كشيء يأخذ بعض المقدمات ويؤسسها ويعالجها إلى استنتاجات، في تحويل نفسها إلى فكرة أن العقل هو شيء يأخذ بعض المدخلات والبيانات كبرنامج ولديه بعض العمليات التي تتم على هذه البيانات وتنتج بعض المخرجات."(مقتبسة من جيجرينزر وجولدشتاين ، 1996 ، (136

تمت مقاومة نظرية العقل هذه في البداية. لكن، كما وثق جيجرينزر وجولدشتاين، أنه عندما أصبح استخدام الأدوات الحسابية لمحاكاة الإدراك البشري أكثر انتشارًا، تم قبولها في النهاية من قبل التيار الرئيسي لعلماء الإدراك. لدرجة أن بعض العلماء الإدراكيين يجدون صعوبة في رؤية العقل على أنه أي شيء آخر غير الكمبيوتر.

3. الاستعارة” الإنسان كالآلي “

ما أهمية هذا بالنسبة للروبوتات والتحولات الأخلاقية التي قد تشرع فيها؟ حسنًا، بمعنى ما، الروبوت هو استمرار للاستعارة” العقل كالكمبيوتر“. تعتبر الروبوتات، غير كونها مجرد أجهزة حسابية مجسدة، قادرة على استقبال مدخلات البيانات ومعالجتها إلى اجراءات. إذا كان العقل يُنظر إليه على أنه جهاز كمبيوتر، فهل ليس من الطبيعي إذن أن نرى الإنسان المتجسد بالكامل كإنسان آلي؟

يمكننا أن نتخيل تحولًا مجازيًا مشابهًا لتلك التي حددها جيجرينزر وجولدشتاين، وإن كان ذلك خلال إطار زمني أقصر بكثير نظرًا لأن الاستعارة الحسابية مضمنة بالفعل في الوعي الشائع بين الناس. نبدأ بمحاولة نمذجة الروبوتات على البشر (وهي الممارسة الراسخة بالفعل في الروبوتات الاجتماعية)، وبعد ذلك، عندما تصبح الروبوتات أدوات شائعة لفهم التفاعلات الاجتماعية البشرية، تنقلب الاستعارة: نبدأ في النظر إلى البشر على أنهم يشبهون الروبوتات. هذا ما يحدث بالفعل إلى حد ما وبعض الناس (بمن فيهم أنا) مرتاحون للاستعارة؛ البعض الآخر ليسوا كذلك.

هذا الفكر ليس جديداً بالنسبة لي. قام هنريك سكوج ساترا، في سلسلة من الأوراق العلمية ، بالتعليق على احتمال ظهور مايسمى "robotomorphy" "تمثيل الإنسان على أنه جهاز كمبيوتر" في طريقة تفكيرنا في أنفسنا. لاحظ العديد من الناس كيف يميل البشر إلى تجسيد الروبوتات (انظر على سبيل المثال تجربة كيت دارلينج) ، ولكن نظرًا لأن الروبوتات أصبحت شائعة ، تجادل سايترا أننا قد نميل أيضًا إلى تشكيل أنفسنا كروبوتات. في ورقة تم تسليمها إلى مؤتمر الحب مع الروبوتات في ديسمبر 2020، قال:

قد يقودنا علماء الروبوتات وربما أيضاً علماء أخلاقيات الروبوتات إلى موقف تُفهم فيه جميع الظواهر البشرية وفقًا لمنطق حسابي وآلي وسلوكي، لأن هذا يسمح بسهولة بإدراج الروبوتات في مثل هذه الظواهر. وبذلك، فإنهم يغيرون المفاهيم. وبالتالي، يتغير فهمنا للمفهوم ولأنفسنا وفقًا لذلك. (سايترا 2020، 10)

لكن كيف تغيرت؟

لدى سايترا بعض الأفكار المثيرة للاهتمام حول كيفية استخدام علماء أخلاقيات الروبوتات تفاعلاتنا مع الروبوتات لتشجيع الفهم السلوكي للتفاعلات الاجتماعية البشرية. قد يؤدي هذا إلى مفهوم ضعيف لعلاقات إنسانية معينة، بما في ذلك علاقات الحب. قد يفضل البشر الشركاء الروبوتات الأكثر كفاءة وبساطة من الناحية النفسية على البدائل البشرية الأكثر تعقيدًا.  نظرًا لأنني مدافع عن” السلوكيات الأخلاقية'‘، فأنا ، بلا شك ، أحد الأشخاص المذنبين بتشجيع إعادة صياغة مفاهيم العلاقات الإنسانية (يجدر بالذكر ، عدم اعتقادي أن هذا يؤيد بالضرورة مفهوم الحب الضعيف ؛ ما أعتقد هو أنه من الناحية العملية لا مفر منه عندما يتعلق الأمر بفهم علاقاتنا مع الآخرين).

على الرغم من ذلك، من الرائع أن أرغب في التفكير في تحول محتمل آخر هنا. يتعلق هذا التحول بالمعايير الأخلاقية العامة التي ندين بالفضل لها. كما لاحظ علماء النفس الأخلاقي منذ فترة طويلة، فإن غالبية البشر يميلون إلى اتباع مدونة أخلاقية مربكة إلى حد ما، وربما حتى متناقضة. عندما يُطلب من الناس تحديد المسار الصحيح للعمل في المعضلات الأخلاقية، فإنهم يتجنبون عادةً حساب التفاضل والتكامل النفعي البسيط (تجنب معظم المعاناة؛ القيام بأقصى قدر من الخير) لصالح رمز أخلاقي أكثر تعقيدًا وغير عواقبي. على سبيل المثال، في استكشافات جوشوا جرين المختلفة للتفكير البشري في سيناريوهات مثل تريلو (سيناريوهات تريلو تحدي للبشر للتضحية بشخص واحد من أجل الصالح العام) ، وجد أن البشر يهتمون بالنوايا الأساسية ، والقرب الشخصي من الضحية ومتغيرات أخرى لا ترتبط بنتيجة أفعالنا. باختصار، يبدو أن معظم الناس يعتقدون أن لديهم واجبات متعلقة بأفعالهم - عدم إلحاق الأذى بالآخرين عمدًا، وعدم انتهاك الثقة عمدًا، وعدم الانتهاك المتعمد لقسم أو واجب الولاء للآخرين وما إلى ذلك - والتي تظل ثابتة حتى لو كان اتباع هذا الواجب سيؤدي إلى نتائج أسوأ للجميع. بالطبع هذا ليس صحيحًا دائمًا. هناك بعض السياقات التي تكون فيها النتائج أكثر أهمية من الناحية الأخلاقية ويتم فيها تجاهل الواجبات المتعلقة بالأفعال، ولكنها نادرة نسبيًا.

ترسم التحقيقات الأخيرة في الحكم الأخلاقي البشري صورة مختلفة للروبوتات. تشير الدراسات التي أجراها بيرترام مالي وزملاؤه ، على سبيل المثال، إلى أننا ننظر للروبوتات وفقًا لمعايير أخلاقية مختلفة. بالتحديد، نتوقع منهم أن يتبنوا منطقًا أكثر نفعاً في اتخاذ قراراتهم الأخلاقية. يجب أن يكون هدفهم هو الصالح العام ومن المرجح أن يتم تقييمها بشكل سلبي إذا لم تفعل ذلك. نحن لا نتوقع منهم (بسهولة) أن يلتزموا بواجبات الولاء أو المجتمع. تم تأكيد نتائج نظرية بيرترام مالي وزملاؤه على نطاق واسع من خلال دراسات أخرى حول المعايير الأخلاقية غير المتكافئة التي يطبقها البشر على الروبوتات. نعتقد أن الروبوتات يجب أن تركز على تقليل الضرر؛ نحن لا نحكم عليهم بناءً على نواياهم المتصورة أو تحيزاتهم. على سبيل المثال، المناقشة الأخيرة التي أجراها هيدالجو وآخرون حول سلسلة من التجارب أجريت على أكثر من 6000 موضوع في الولايات المتحدة وكيف يحكم فيها البشر على الروبوتات، حيث تبدو متفقة بشكل عام مع أطروحة عدم التماثل الأخلاقي.

الآن، سأكون أول من يعترف بأن هذه النتائج بعيدة عن الصواب. تعتمد في الغالب هذه الدراسات على قصة قصيرة يُطلب فيها من الناس تخيل أن الروبوتات تتخذ القرارات وليس على التفاعلات مع الروبوتات في العالم الحقيقي. هناك أيضًا العديد من الفروق الدقيقة في هذه الدراسات لا يمكنني أن أنصفها هنا. على سبيل المثال، هناك بعض النتائج المبدئية التي تشير إلى أنه كلما كانت تصرفات الروبوت شبيهة بأفعال الإنسان، و / أو كلما زاد الضرر الذي يسببه، كلما زاد ميلنا إلى الحكم عليه بطريقة تشبه حكمنا على البشر. قد يشير هذا إلى أن عدم التماثل قائم، بشكل جزئي، لأننا نفصل أنفسنا حاليًا عن الروبوتات.

ومع ذلك، أعتقد أن هذه النتائج مثيرة وأنها تشير إلى كيفية التأثير الأخلاقي التأويلي الذي قد يحدث بسبب الانتشار الواسع للروبوتات. إذا أصبح تفسير وفهم سلوكنا بطريقة تشبه الروبوت أمراً شائعاً، فقد نبدأ في إلزام أنفسنا بنفس المعايير الأخلاقية للروبوتات. بعبارة أخرى، قد نبدأ في تبني إطار أخلاقي توجهي للنتائج الأكثر نفعاً ونبدأ في التخلي عن هوسنا بالنوايا والواجبات المتعلقة بالعمل.

هناك ثلاثة عوامل تقنعني أن هذا مستقبل محتمل وممكن. أولاً، هناك مجتمع جاهز من نشطاء النفعية العواقبية سيرحبون بمثل هذا التحول الأخلاقي. كانت النفعية إطارًا أخلاقيًا شائعًا منذ القرن التاسع عشر ولها صدى في قطاعات الشركات والحكومة. قد ترحب أيضًا حركة الإيثار الفعالة، بتركيزها المهووس على فعل أفضل شيء من خلال اتخاذ القرارات الشخصية القائمة على الأدلة، بمثل هذا التحول. ثانيًا، هناك بعض الأدلة الأولية التي تقترح أن يغير البشر من سلوكياتهم الأخلاقية كاستجابة للآلات. تشير الدراسات التي أجراها رايان جاكسون وزملاؤه حول واجهات اللغة الطبيعية، على سبيل المثال، إلى أنه إذا طرحت آلة سؤالًا توضيحيًا يتضمن وجود إمكانية لانتهاك معيار أخلاقي، فإن البشر يكونون أكثر استعدادًا لانتهاك نفس القاعدة. لذلك يمكننا أن نتخيل أنه إذا كانت الآلات تعبر وتتصرف بطريقة تنتهك المعايير غير العواقبية، فقد نكون نحن أكثر استعدادًا لفعل الشيء نفسه. أخيرًا، يوجد الآن بعض علماء أخلاقيات الروبوتات الذين يشجعون على قلب مفهوم الاستعارة، أي جعل السلوك الأخلاقي البشري أكثر شبهاً بالروبوت وليس جعل السلوك الأخلاقي للروبوت أكثر شبهاً بالإنسان. أحد الأمثلة المثيرة للاهتمام على ذلك يأتي من مقال سفين نيهولم وجيل سميدز حول أخلاقيات المركبات ذاتية القيادة في سيناريوهات "حركة المرور المختلطة"، أي حين يجب أن تتفاعل الآلات مع المركبات التي يقودها الإنسان. من الأساليب الشائعة لتصميم سيناريوهات حركة المرور المختلطة افتراض أن الآلات يجب أن تتكيف مع سلوك القيادة البشرية، لكن نيهولم وسميدز يجادلان أنه في بعض الأحيان قد يكون من الأفضل للتكيف أن يسير في الاتجاه الآخر. لماذا ا؟ لأن قيادة الآلة، بتركيزها على تقليل الضرر والالتزام الصارم بقواعد الطريق، قد تكون مفضلة أخلاقياً. بتعبير أدق، يجادلون بأنه إذا كانت القيادة الآلية أكثر أمانًا من القيادة البشرية، فإن البشر يواجهون خيارًا أخلاقيًا، إما أنهم يستخدمون القيادة الآلية أو يتكيفون مع معايير القيادة الآلية في سلوكهم الخاص:

إذا كانت القيادة الآلية أكثر أمانًا بالفعل من القيادة التقليدية، فإن القيادة الآلية تشكلّ بالتالي بديل أكثر أمانًا في سياق حركة المرور المختلطة. كما نرى إذن، يمكن القول بشكل معقول أنه مع إدخال الخيار الأكثر أمانًا (أي التحول إلى القيادة الآلية)، يتم إنشاء واجب أخلاقي جديد في هذا المجال [للسائقين البشريين]. (نيهولم وسميدز 2018)

إذا حصلنا على المزيد من الحجج من هذا القبيل، في المزيد من مجالات التفاعل بين الإنسان والروبوت، فقد يكون التأثير الصافي هنا هو تشجيع التحول إلى معيار أخلاقي يشبه الروبوت. هذا من شأنه أن يكمل الوساطة الأخلاقية التأويلية التي أتصورها.

4. الخلاصة

لا شيء من هذا مضمون وقد لا يكون بالضرورة أمر جيد أو سيء. لكن بمجرد أن نعرف عن تحول أخلاقي محتمل، يمكننا حينها أن نفعل شيئًا: يمكننا إما تسريع ذلك (إذا رحبنا به) أو محاولة إيقافه (إذا لم يعجبنا). ومع ذلك، على الرغم من كونه تخمين، أعتقد أن الآلية التي ناقشتها في هذا المقال هي آلية معقولة وتستحق أن نأخذها على محمل الجد: من خلال تبني استعارة الروبوت كإنسان، قد نميل أكثر إلى تفضيل العواقبية النفعية من المعايير الأخلاقية.

المقال الأصلي