الذكاء الاصطناعي يخترق نظام تشغيل الحضارة الإنسانية

الوضع الليلي الوضع المضيء

حواسيب سرد القصص ستغير مجرى تاريخ البشرية

يوفال نوح هراري

المخاوف من الذكاء الاصطناعي (AI) تطارد البشرية منذ بداية عصر الحواسيب. ركزت هذه المخاوف حتى الآن على الآلات التي تستخدم الوسائل المادية لقتل الناس أو استعبادهم أو استبدالهم. ولكن على مدار العامين الماضيين ، ظهرت أدوات ذكاء اصطناعي جديدة تهدد بقاء الحضارة الإنسانية من اتجاه غير متوقع. اكتسبت الذكاء الاصطناعي بعض القدرات الرائعة للتلاعب وتوليد اللغة ، سواء بالكلمات أو الأصوات أو الصور. وبذلك اخترق الذكاء الاصطناعي نظام التشغيل في حضارتنا.

اللغة هي المادة التي تتكون منها الثقافة البشرية كلها تقريبًا. حقوق الإنسان ، على سبيل المثال ، ليست مذكورة في حمضنا النووي. بل هي قطع أثرية ثقافية أنشأناها من خلال سرد القصص وكتابة القوانين.

المال ، أيضًا ، هو عمل ثقافي. الأوراق النقدية هي مجرد قطع ورقية ملونة ، وفي الوقت الحاضر أكثر من 90٪ من النقود ليست حتى أوراقًا ورقية - إنها مجرد معلومات رقمية في أجهزة الكمبيوتر. ما يعطي قيمة للمال هو القصص التي يخبرنا بها المصرفيون ووزراء المالية وخبراء العملات المشفرة. لم يكن سام بانكمان-فرايد وإليزابيث هولمز وبيرني مادوف جيدين بشكل خاص في خلق قيمة حقيقية ، لكنهم كانوا جميعًا رواة قصص ذوي كفاءة عالية.

ماذا سيحدث بمجرد أن يصبح الذكاء غير البشري أفضل من الإنسان العادي في سرد القصص وتأليف الألحان ورسم الصور وكتابة القوانين والنصوص المقدسة؟ عندما يفكر الناس في Chatgpt وأدوات الذكاء الاصطناعي الأخرى الجديدة ، غالبًا ما ينجذبون إلى أمثلة مثل أطفال المدارس الذين يستخدمون الذكاء الاصطناعي لكتابة مقالاتهم. ماذا سيحدث للنظام المدرسي عندما يفعل الأطفال ذلك؟ لكن هذا النوع من الأسئلة يخطئ الصورة الكبيرة. لننسى الواجبات المدرسية حاليا ونفكر في السباق الرئاسي الأمريكي القادم في عام 2024، حاول أن تتخيل تأثير أدوات الذكاء الاصطناعي التي يمكن تطويرها على نطاق واسع لإنتاج محتوى سياسي وقصص إخبارية مزيفة وكتاب مقدس لطوائف جديدة.

في السنوات الأخيرة ، تكونت طائفة عبادة qAnon من خلال رسائل المجهولة عبر الإنترنت ، والمعروفة باسم "q drops". قام المتابعون بجمع وتبجيل وتفسير هذه القطرات كنص مقدس. بينما على حد علمنا ، فإن جميع نقاط q السابقة كانت مؤلفة من قبل البشر ، وقد ساعدت الروبوتات فقط في نشرها ، فقد نرى في المستقبل الطوائف الأولى في التاريخ التي كُتبت نصوصها الموقرة بواسطة ذكاء غير بشري.

على مستوى أكثر تعقيدًا ، قد نجد أنفسنا قريبًا نجري مناقشات مطولة عبر الإنترنت حول الإجهاض أو تغير المناخ أو الغزو الروسي لأوكرانيا مع كيانات نعتقد أنها بشر - لكنها في الواقع الذكاء الاصطناعي. المهم هو أنه من غير المجدي تمامًا بالنسبة لنا قضاء بعض الوقت في محاولة تغيير الآراء المعلنة لبوت الذكاء الاصطناعي، بينما يمكن للذكاء الاصطناعي صقل رسائله بدقة بحيث يكون لديه فرصة جيدة للتأثير علينا.

من خلال إتقانها للغة ، يمكن للذكاء الاصطناعي تكوين علاقات حميمة مع الناس ، واستخدام قوة العلاقة الحميمة لتغيير آرائنا ووجهات نظرنا للعالم. على الرغم من عدم وجود ما يشير إلى أن الذكاء الاصطناعي لديه أي وعي أو مشاعر خاصة به ، فإنه يكفي لتعزيز العلاقة الحميمة المزيفة مع البشر ، إذا كان بإمكان الذكاء الاصطناعي أن يجعلهم يشعرون بالارتباط العاطفي به. في يونيو 2022 ، ادعى Blake Lemoine ، أحد مهندسي Google ، علنًا أن برنامج الدردشة الآلي Lamda، الذي كان يعمل فيه، أصبح واعيًا. الادعاء المثير للجدل كلفه وظيفته. الشيء الأكثر إثارة للاهتمام في هذه الحلقة لم يكن ادعاء السيد Lemoine ، والذي ربما كان خاطئًا. بدلاً من ذلك ، كان رغبته في المخاطرة بوظيفته المربحة من أجل برنامج الدردشة الآلي. إذا كان بإمكان الذكاء الاصطناعي التأثير على الناس للمخاطرة بوظائفهم من أجلها ، فما الذي يمكن أن يدفعهم أيضًا إلى القيام به؟

في معركة سياسية من أجل كسب العقول والقلوب ، تعتبر العلاقة الحميمة هي السلاح الأكثر فعالية ، وقد اكتسبت الذكاء الاصطناعي للتو القدرة على إنتاج علاقات حميمة على نطاق واسع مع ملايين الأشخاص. نعلم جميعًا أنه على مدار العقد الماضي ، أصبحت وسائل التواصل الاجتماعي ساحة معركة للسيطرة على انتباه الإنسان. مع الجيل الجديد من الذكاء الاصطناعي ، تتحول جبهة المعركة من الاهتمام إلى العلاقة الحميمة. ماذا سيحدث للمجتمع البشري وعلم النفس البشري عندما يحارب الذكاء الاصطناعي في معركة لتزييف العلاقات الحميمة معنا ، والتي يمكن استخدامها بعد ذلك لإقناعنا بالتصويت لسياسيين معينين أو شراء منتجات معينة؟

حتى بدون إنشاء "علاقة حميمة مزيفة" ، سيكون لأدوات الذكاء الاصطناعي الجديدة تأثير هائل على آرائنا ووجهات نظرنا للعالم. قد يستخدم الأشخاص مستشارًا واحدًا للذكاء الاصطناعي كنقطة توقف واحدة، أوراكل التي تعرف كل شيء. لا عجب أن جوجل مرعوب. لماذا تهتم بالبحث عندما يمكنني فقط أن أسأل أوراكل؟ يجب أن تكون صناعة الأخبار والإعلان مرعوبة أيضًا. لماذا أقرأ صحيفة بينما يمكنني فقط أن أطلب من أوراكل إخباري بآخر الأخبار؟ وما هو الغرض من الإعلانات ، عندما يمكنني فقط أن أطلب من أوراكل أن يخبرني ماذا أشتري؟

وحتى هذه السيناريوهات لا تلتقط الصورة الكبيرة حقًا. ما نتحدث عنه هو احتمال نهاية التاريخ البشري. ليست نهاية التاريخ ، فقط نهاية الجزء الذي يسيطر عليه الإنسان. التاريخ هو التفاعل بين علم الأحياء والثقافة. بين احتياجاتنا ورغباتنا البيولوجية لأشياء مثل الطعام والجنس ، وبين إبداعاتنا الثقافية مثل الأديان والقوانين. التاريخ هو العملية التي من خلالها تقوم القوانين والأديان بتشكيل الطعام والجنس.

ماذا سيحدث لمسار التاريخ عندما يتولى الذكاء الاصطناعي الثقافة ويبدأ في إنتاج القصص والألحان والقوانين والأديان؟ ساعدت الأدوات السابقة مثل المطبعة والراديو في نشر الأفكار الثقافية للبشر ، لكنها لم تخلق أبدًا أفكارًا ثقافية جديدة خاصة بهم. الذكاء الاصطناعي يختلف اختلافًا جوهريًا. يمكن للذكاء الاصطناعي إنشاء أفكار جديدة تمامًا وثقافة جديدة تمامًا.

في البداية ، من المحتمل أن تقلد الذكاء الاصطناعي النماذج الأولية البشرية التي تم تدريبها عليها في مهدها. ولكن مع مرور كل عام ، ستذهب ثقافة الذكاء الاصطناعي بجرأة إلى حيث لم يذهب أي إنسان من قبل. لآلاف السنين عاش البشر داخل أحلام البشر الآخرين. في العقود القادمة قد نجد أنفسنا نعيش داخل أحلام ذكاء فضائي.

ظل الخوف من الذكاء الاصطناعي يطارد البشرية على مدى العقود القليلة الماضية فقط. لكن على مدى آلاف السنين ، ظل البشر يطاردهم خوف أعمق بكثير. لطالما قدرنا قوة القصص والصور في التلاعب بعقولنا وخلق الأوهام. وبالتالي ، منذ العصور القديمة ، كان البشر يخشون الوقوع في شرك عالم من الأوهام.

في القرن السابع عشر ، كان رينيه ديكارت يخشى أن يكون شيطانًا خبيثًا يحاصره داخل عالم من الأوهام ، ويخلق كل ما يراه ويسمعه. في اليونان القديمة ، أخبر أفلاطون رواية الكهف الشهيرة ، حيث يتم تقييد مجموعة من الأشخاص داخل كهف طوال حياتهم ، في مواجهة جدار فارغ. شاشة. على تلك الشاشة يرون الظلال المسقطة المختلفة. السجناء يخطئون في الأوهام التي يرونها هناك على أنها حقيقة.

في الهند القديمة ، أشار الحكماء البوذيون والهندوس إلى أن جميع البشر عاشوا محاصرين داخل مايا - عالم الأوهام. ما نعتبره عادة حقيقة هو في كثير من الأحيان مجرد خيال في أذهاننا. قد يشن الناس حروباً كاملة ، ويقتلون الآخرين ، ويرغبون في أن يقتلوا أنفسهم ، لإيمانهم بهذا الوهم أو ذاك.

ثورة الذكاء الاصطناعي تضعنا وجهاً لوجه مع شيطان ديكارت ، مع كهف أفلاطون ، مع المايا. إذا لم نتوخى الحذر، فقد نكون محاصرين خلف ستار من الأوهام ، التي لا يمكننا تمزيقها - أو حتى ندرك أنها موجودة.

بالطبع ، يمكن استخدام القوة الجديدة للذكاء الاصطناعي لأغراض جيدة أيضًا. لن أسهب في الحديث عن هذا ، لأن الأشخاص الذين يطورون الذكاء الاصطناعي يتحدثون عنه بما فيه الكفاية. مهمة المؤرخين والفلاسفة مثلي هي توضيح المخاطر. لكن بالتأكيد ، يمكن للذكاء الاصطناعي مساعدتنا بطرق لا حصر لها ، من إيجاد علاجات جديدة للسرطان لاكتشاف حلول للأزمة البيئية. السؤال الذي نواجهه هو كيفية التأكد من أن أدوات الذكاء الاصطناعي الجديدة تُستخدم للخير وليس للشر. للقيام بذلك ، نحتاج أولاً إلى تقدير الإمكانات الحقيقية لهذه الأدوات.

منذ عام 1945 ، عرفنا أن التكنولوجيا النووية يمكن أن تولد طاقة رخيصة لمنفعة البشر - ولكن يمكنها أيضًا تدمير الحضارة البشرية ماديًا. لذلك قمنا بإعادة تشكيل النظام الدولي بأكمله لحماية البشرية ، وللتأكد من أن التكنولوجيا النووية قد استخدمت في الأساس من أجل الخير. علينا الآن أن نتعامل مع سلاح جديد للدمار الشامل يمكن أن يقضي على عالمنا العقلي والاجتماعي.

لا يزال بإمكاننا تنظيم أدوات الذكاء الاصطناعي الجديدة ، لكن يجب علينا التصرف بسرعة. في حين أن الأسلحة النووية لا تستطيع اختراع أسلحة نووية أكثر قوة ، يمكن للذكاء الاصطناعي أن يجعل ذكاءً اصطناعيًا أقوى بشكل كبير. تتمثل الخطوة الحاسمة الأولى في المطالبة بفحوصات أمان صارمة قبل طرح أدوات ذكاء اصطناعي قوية في المجال العام. مثلما لا تستطيع شركة الأدوية إطلاق عقاقير جديدة قبل اختبار آثارها الجانبية قصيرة المدى وطويلة المدى ، لذلك لا ينبغي لشركات التكنولوجيا إطلاق أدوات ذكاء اصطناعي جديدة قبل أن تصبح آمنة. نحتاج إلى ما يعادل إدارة الغذاء والدواء لتكنولوجيا جديدة ، ونحتاجها أمس.

ألن يؤدي إبطاء عمليات النشر العامة للذكاء الاصطناعي إلى تأخر الديمقراطيات وتمكن أنظمة استبدادية أكثر قسوة؟ على العكس تماما. من شأن عمليات النشر غير المنظمة للذكاء الاصطناعي أن تخلق فوضى اجتماعية، الأمر الذي من شأنه أن يفيد المستبدين ويدمر الديمقراطيات. الديمقراطية محادثة، والمحادثات تعتمد على اللغة. عندما يخترق الذكاء الاصطناعي اللغة ، يمكن أن تدمر قدرتنا على إجراء محادثات هادفة ، وبالتالي تدمير الديمقراطية.

نواجه حاليا ما يبدو أنه ذكاءً فضائي هبط على الأرض. لا نعرف الكثير عنه إلا أنه قد يدمر حضارتنا. يجب أن نوقف النشر غير المسؤول لأدوات الذكاء الاصطناعي في المجال العام ، وأن ننظم الذكاء الاصطناعي قبل أن ينظمنا. وأول تنظيم أود أن أقترحه هو جعل إفصاح الذكاء الاصطناعي عن أنه ذكاء اصطناعي إلزاميًا. إذا كنت أجري محادثة مع شخص ما ، ولا يمكنني معرفة ما إذا كان هذا الشخص إنسانًا أم ذكاءً - فهذه نهاية الديمقراطية.

تم إنشاء هذا النص من قبل الإنسان.

أو هل هو كذلك؟

_______________

يوفال نوح هراري مؤرخ وفيلسوف ومؤلف كتاب "Sapiens" و "Homo Deus" وسلسلة الأطفال "Unstoppable Us". وهو محاضر في قسم التاريخ بالجامعة العبرية في القدس ومؤسس مشارك لشركة Sapienship ، وهي شركة ذات تأثير اجتماعي.

المصدر: الايكونوميست