هل سيتمكن الذكاء الصناعي يومًا ما، من تطوير بوصلة أخلاقية؟
باحثة تصميم ومصمم أعمال وعالم بيانات كانوا جالسين في مقهى يبدون وكأنهم يتبادلون النكات، ولكنهم في المواقع يتحادثون بأمور بالغة الأهمية.
عندما اجتمعت باحثة التصميم أوفيتا سيمبسون مع الباحث في مجال الأعمال مايكل شابمان لدراسة الاحتمالات التي يمكن العمل عليها لمساعدة أحدى شركات التأمين الطبية، لم يكن يتوقع أي منهما تحوّل اتجاه دفة المحادثة نحو إمكانية تطوير تقنية ذكاء صناعي قادرة على تحديد المصالح الإنسانية كأولوية في معالجة البيانات بدلاً من التقنيات الحالية التي تعمل بواسطة خوارزميات رياضية توظف عوامل معالجة منطقية بعيدة عن المشاعر والأخلاق.
وكان الباحثان قد بدءا العمل على تطوير نظام يساعد في زيادة فرص سلامة المرضى من خلال التعلم من الحوادث والأخطاء الطبية السابقة، ولكن أثناء المحادثة والبحث اكتشفا أن أي نظام يمكن تطويره بواسطة التقنيات المتاحة حاليًا قد يؤدي إلى أضرار أخرى على المرضى أو الأطباء، كأن يتسبب بارتفاع قيمة أقساط التأمين الطبية وبالتالي زيادة تكاليف الرعاية الصحية على المرضى، أو قد يؤدي إلى فقدان الأطباء لتأمينهم الصحي أو قد يدفعهم إلى الامتناع عن التبليغ عن الحوادث التي تطرأ أثناء عمليات الرعاية الطبية لتجنب ارتفاع تكاليفها، وقد توصل الباحثان في منتصف النقاش أن أي تصميم قد يتوصلا إليه قد يؤدي إلى الإضرار بسلامة المرضى أو ارتفاع تكاليف علاجهم، مما يعني تحول النظام الذي يسعيان من خلاله لتسهيل عملية التأمين الصحي إلى أداة توقع الضرر على المستفيدين منه.
ونظرًا لسهولة استغلال الخوارزميات وأنظمة البيانات بسرعة قياسية خلال عصرنا الرقمي، فقد يؤدي أي استخدام خاطئ لها إلى نتائج فادحة تؤثر بنفس السرعة القياسية على المستفيدين. لذا حرص الباحثان على طرح السؤال التالي:
كيف يمكن تطوير نظام قياسي عالي الدقة مع وضع مصلحة المستفيدين في المقدمة خاصة مع الأخذ بعين الاعتبار إمكانية تغير وتطور هذا النظام بسرعة ودون أي تدخل بشري؟
بعد المحادثات المطولة توصل الباحثان إلى مجموعة من المبادئ والأنشطة التي نتج عنها سلسلة من البطاقات التعليمية التي زودت فريق العمل المكون من علماء بيانات ومصممين باللبنة الأساسية التي سيتم العمل عليها لبناء وتصميم نماذج ذكاء صناعي لخدمة مصالح الإنسان أولاً وأخيرًا.
وقد استلهم الباحثان من المنظمات المتخصصة بالذكاء الاصطناعي مثل AI Now و Data + Society وكتباً مثل Weapons of Math Destruction و Technically Wrong وأكاديميات مثلFATML وCXI وسلسلة أخلاقيات البيانات التابعة لشركة O’Reilly.
لتطوير سلسلة المبادئ الإرشادية الخاصة بهم بدأ الباحثان بالعمل مع الناس، حيث قاما بإجراء محادثات مع أشخاص من مختلف أنحاء العالم وفي مختلف الميادين المهنية، وكانت أغلب المحادثات تركز على التحديات التي تواجه مطوري أنظمة الذكاء الصناعي بالإضافة إلى العقبات التي تواجه هذه الأنظمة فيما يتعلق بتلبية احتياجات المستخدمين، كما تم الحديث عن أوجه التشابه ونقاط الالتقاء بين التصاميم الذكية بالإضافة إلى متابعة آخر البحوث والتطورات التي تسعى لتسليط الضوء على نقاط ضعف الأنظمة الذكية وكيفية تجنب الأخطاء التي تم ارتكابها في حال تطوير نظام جديد يستند في عمله إلى القيم الإنسانية الأخلاقية.
فيما يلي سوف نطرح مبادئنا الأساسية في التصميم:
البيانات ليست حقائق
البيانات هي نتاج بشري، حيث يتم تجميعها أو تكوينها أو تطويرها من قبل البشر مما يؤدي إلى نتائج غير مكتملة وعملية تحليل فوضوية أحياناً، كما أنها قد تحتوي على تحيزات مسبقة من خلال ما يتم دمجه أو استثنائه أو من خلال طريقة تفسيرها وعرضها، لذا فقد أصبح من الضروري التخلص من التأثير البشري على البيانات لمعرفة كيفية تحويلها إلى مصدر خالص لخدمة البشرية.
من الخطأ وضع افتراضات بشأن رغبات الذكاء الصناعي
مقدرة الذكاء الصناعي على فعل شيء لا تعني بالضرورة وجوب حدوث ذلك، لذا عندما يتم إدماج الذكاء الصناعي في التصميم ينبغي على المصممين الانتباه باستمرار إلى التغيرات في احتياجات المستخدمين وسلوكيات الذكاء الصناعي.
احترام الخصوصية والصالح العام
مع العلم أن وجود القوانين والسياسات التي تحكم عملية جمع واستخدام البيانات وصلاحيتها، إلا أنه ينبغي علينا الوقوف على مرتبة أعلى من المعايير الأخلاقية فلا نكتفي بالقلق حول ما إذا كنا سوف نتعرض للمقاضاة القانونية، حيث يجب النظر إلى التصاميم الذكية باعتبارها وسيلة جديدة نحو التحكم بالبيانات وكيفية استخدامها لأهداف أسمى خاصة فيما يتعلق بالتواصل واحترام بيانات المستخدمين.
العواقب غير المتوقعة للذكاء الصناعي تشكّل فرصاً للتصميم
بالنظر إلى محاولات التصميم الأخرى نعلم جيدًا أننا لن نتمكن من تحقيق النجاح المطلوب من المحاولة الأولى لذا قمنا بتحويل النتائج السلبية غير المتوقعة والاكتشافات الحديثة غير المعروفة إلى نقاط للبدء والتكرار.
المصدر: إيديو
اترك تعليقاً