ما الذي لا يزال الذكاء الاصطناعي لا يعرف كيف يفعله

الوضع الليلي الوضع المضيء

يمكن لبرامج الذكاء الاصطناعي التي تتعلم الكتابة والتحدث أن تبدو وكأنها إنسان تقريبًا – لكن لا يمكنها التفكير بطريقة إبداعية كما يفعل أي طفل صغير

بقلم أليسون جوبنيك 15 يوليو 2022 

قبل بضعة أسابيع ، حظي مهندس في شركة جوجل بالكثير من الاهتمام بسبب ادعاء مثير: قال إن نظام LaMDA الخاص بالشركة، وهو مثال لما يُعرف في الذكاء الاصطناعي بنموذج لغوي كبير ، قد أصبح كائنًا واعيًا وذكيًا.

نماذج اللغات الكبيرة مثل LaMDA أو GPT-3 المنافسة لـ Open AI في سان فرانسيسكو جيدة بشكل ملحوظ في توليد كتابة ومحادثات متماسكة ومقنعة - مقنعة بما يكفي لخداع المهندس. لكنهم يستخدمون أسلوبًا بسيطًا نسبيًا للقيام بذلك: ترى النماذج الجزء الأول من النص الذي كتبه شخص ما ثم تحاول التنبؤ بالكلمات التي من المحتمل أن تأتي بعد ذلك. إذا قام جهاز حاسوب قوي بهذا مليارات المرات بمليارات النصوص التي تم إنشاؤها بواسطة ملايين الأشخاص ، فيمكن للنظام في النهاية إنتاج إجابة صحيحة نحويا ومعقولة سياقيا.

من الطبيعي أن نسأل عما إذا كانت نماذج اللغات الكبيرة مثل LaMDA (اختصار لتطبيق Language Model Dialogue) أو GPT-3 ذكية حقًا - أو مجرد فنانين يتحدثون مرتين وفقًا لتقليد الممثل الكوميدي القديم العظيم البروفيسور إروين كوري ، "أعظم سلطة في العالم . " (ابحث عن إجراءات كوري الخاصة بسعة الاطلاع الوهمية للحصول على الفكرة.) لكنني أعتقد أن هذا هو السؤال الخطأ. هذه النماذج ليست عملاء أذكياء حقًا ولا غبية بشكل مخادع. الذكاء هو الفئة الخطأ لفهمها.

بدلاً من ذلك ، فإن أنظمة الذكاء الاصطناعي هذه هي ما يمكن أن نطلق عليه التقنيات الثقافية ، مثل الكتابة والطباعة والمكتبات ومحركات البحث على الإنترنت أو حتى اللغة نفسها. إنها تقنيات جديدة لنقل المعلومات من مجموعة من الناس إلى مجموعة أخرى. السؤال عما إذا كان GPT-3 أوLaMDA ذكي أو يعرف العالم يشبه السؤال عما إذا كانت مكتبة جامعة كاليفورنيا ذكية أو ما إذا كان محرك بحث جوجل "يعرف" الإجابة على أسئلتك. لكن التقنيات الثقافية يمكن أن تكون قوية للغاية - في الخير أو الشر.

نحن البشر مؤمنون بالفطرة - نرى الحياة والتفاعل في كل مكان ، في الأنهار والأشجار والغيوم وخاصة في الآلات ، كما يمكن لأي شخص شتم غسالة أطباق متمردة أن يشهد. لذلك نتخيل بسهولة أن تقنية التعلم الآلي الجديدة قد خلقت عوامل جديدة ، أذكياء أو أغبياء ، مفيدة أو خبيثة (في كثير من الأحيان). بدأ الناس يتحدثون عن "ذكاء اصطناعي" بدلاً من "الذكاء الاصطناعي" - كما لو كان يشير إلى شخص بدلاً من تخصص.

لا تشبه التقنيات الثقافية البشر الأذكياء ، لكنها ضرورية للذكاء البشري. يمكن للعديد من الحيوانات نقل بعض المعلومات من فرد أو جيل إلى آخر ، ولكن لا يوجد حيوان يفعل ذلك بقدر ما نفعله أو يراكم الكثير من المعلومات بمرور الوقت. لإعادة صياغة إسحاق نيوتن ، يمكن لكل إنسان جديد أن يرى ما يراه الآن لأنه يقف على أكتاف من سبقهم. كانت التقنيات الجديدة التي تجعل انتقال الثقافة أسهل وأكثر فاعلية من بين أعظم محركات التقدم البشري.

اللغة في حد ذاتها هي التقنية الثقافية الأصلية ، مما يسمح للصياد بإخبار الآخر بمكان العثور على الصيد ، أو تسمح للجدة بنقل تقنية طبخ تم الحصول عليها بشق الأنفس إلى حفيدتها. الكتابة غيرت الثقافة مرة أخرى ؛ يمكننا الوصول إلى حكمة الجدات من مئات السنين قبل ذلك ومئات الأميال. ساعدت المطبعة في تمكين كل من الثورة الصناعية وظهور الديمقراطية الليبرالية. كانت المكتبات وفهارسها وكتالوجاتها ضرورية لتطوير العلوم والمنح الدراسية. جعلت محركات البحث على الإنترنت من السهل العثور على المعلومات.

مثل هذه التقنيات السابقة ، تساعد النماذج اللغوية الكبيرة في الوصول إلى مليارات الجمل التي كتبها أشخاص آخرون وتلخيصها لإنشاء جمل جديدة. أنظمة أخرى مثل DALL-E 2 من OpenAI ، والتي أنتجت للتو رسمًا توضيحيًا لغلاف مجلة كوزموبوليتان ، تفعل ذلك أيضًا بمليارات الصور التي نبتكرها. تاريخ التكنولوجيا الثقافية هو أننا أصبحنا قادرين على الوصول إلى المزيد والمزيد من المعرفة والعقول الأخرى ، عبر خلجان أكبر من المكان والزمان ، بسهولة أكبر ، وأنظمة الذكاء الاصطناعي الجديدة هي أحدث خطوة في هذه العملية.

ولكن إذا كان الكثير مما نعرفه يأتي من لغة أشخاص آخرين ، ألا يمتلك شيء مثل GPT-3 كل الذكاء الذي يحتاجه حقًا؟ ألا تلخص هذه المليارات من الكلمات كل المعارف البشرية؟ ما المفقود؟

النقل الثقافي له وجهان - التقليد والابتكار. يمكن لكل جيل استخدام التقليد للاستفادة من اكتشافات الأجيال السابقة ، وتعتبر النماذج اللغوية الكبيرة مقلدة رائعة. ولكن لن يكون هناك جدوى من التقليد إذا لم يبتكر كل جيل أيضًا. نذهب أبعد من كلام الآخرين وحكمة الماضي لمراقبة العالم من جديد واكتشافات جديدة حوله. وهذا هو المكان الذي يتفوق فيه حتى صغار البشر على الذكاء الاصطناعي الحالي.

فيما يُعرف باسم "اختبار تورينج" الكلاسيكي ، اقترح آلان تورينج في عام 1950 أنه إذا لم تتمكن من معرفة الفرق في محادثة مكتوبة بين شخص وجهاز كمبيوتر ، فقد يعتبر الحاسوب ذكيًا. نماذج اللغات الكبيرة تقترب. لكن تورينج اقترح أيضًا اختبارًا أكثر صرامة: للحصول على ذكاء حقيقي ، لا ينبغي أن يكون الحاسوب قادرًا على التحدث عن العالم مثل الإنسان البالغ فحسب - بل يجب أن يكون قادرًا على التعرف على العالم مثل الطفل البشري.

في مختبري ، أنشأنا بيئة جديدة عبر الإنترنت لتنفيذ اختبار تورينج الثاني - وهو ملعب متكافئ للأطفال وأنظمة الذكاء الاصطناعي. لقد أظهرنا لأطفال يبلغون من العمر 4 سنوات أجهزة على الشاشة من شأنها أن تضيء عند وضع مجموعات من الأشكال الافتراضية عليها دون غيرها ؛ آلات مختلفة تعمل بطرق مختلفة. كان على الأطفال أن يكتشفوا كيفية عمل الآلات وأن يقولوا بما يجب عليهم فعله لجعلها تضيء. جرب الأطفال البالغين من العمر 4 سنوات ، وبعد عدة تجارب حصلوا على الإجابة الصحيحة. ثم قدمنا ​​أحدث أنظمة الذكاء الاصطناعي ، بما في ذلك GPT-3 ونماذج اللغات الكبيرة الأخرى ، نفس المشكلة. حصلت النماذج اللغوية على نص يصف كل حدث شاهده الأطفال ثم طلبنا منهم الإجابة على نفس الأسئلة التي طرحناها على الأطفال.

اعتقدنا أن أنظمة الذكاء الاصطناعي قد تكون قادرة على استخراج الإجابة الصحيحة لهذه المشكلة البسيطة من كل تلك المليارات من الكلمات السابقة. لكن لم ير أحد في قواعد البيانات النصية العملاقة تلك الأشكال الملونة الافتراضية الخاصة بنا من قبل. في الواقع ، تحدي GPT-3. ببعض التجارب الحديثة الأخرى كانت لها نتائج مماثلة. لا يبدو أن GPT-3 ، على الرغم من كل قدراتها الواضح ، قادرة على حل مشاكل السبب والنتيجة.

إذا كنت ترغب في حل مشكلة جديدة ، فقد تكون الخطوة الأولى هي البحث عنها أو الذهاب إلى المكتبة. لكن في النهاية عليك أن تجرب ، بالطريقة التي فعلها الأطفال. يمكن أن يخبرك GPT-3 بالنتيجة الأكثر ترجيحًا للقصة. لكن الابتكار ، حتى بالنسبة للأطفال بعمر 4 سنوات ، يعتمد على المفاجأة وغير المتوقعة - على اكتشاف النتائج غير المحتملة ، وليس النتائج المتوقعة.

هل يعني كل هذا أنه لا داعي للقلق من أن يصبح الذكاء الاصطناعي واعيًا؟ أعتقد أن المخاوف بشأن العوامل الاصطناعية الخبيثة والذكاء الفائق، هي على الأقل مبالغ فيها. لكن التقنيات الثقافية تغير العالم أكثر مما تغيره العوامل الفردية ، وليس هناك ما يضمن أن التغيير سيكون من أجل المصبحة العامة.

تسمح لنا اللغة بالكذب وإغواء وترهيب الآخرين بقدر ما تسمح لنا بالتواصل بدقة واكتشاف الحقيقة. كتب سقراط يوما خاطرته المشهورة: "الكتابة كانت فكرة سيئة حقا". قال إنه لا يمكن أن يكون تكون الحوارات السقراطية المكتوبة مثل التي يلقيها ، وربما يعتقد الناس أن الأشياء كانت صحيحة لمجرد أنها مكتوبة - وكان على حق. سمحت الابتكارات التكنولوجية لبنجامين فرانكلين بطباعة كتيبات غير مكلفة تنشر ما كتب عن الديمقراطية وتدعم أفضل جوانب الثورة الأمريكية. ولكن كما أوضح المؤرخ روبرت دارنتون ، أطلقت نفس التكنولوجيا أيضًا طوفانًا من القذف والفحش وساهمت في أسوأ جوانب الثورة الفرنسية.

يمكن أن يكون الناس متحيزين وساذجين وعنصريين ومتحيزين جنسياً وغير عقلانيين. لذا فإن ملخصات ما يعتقده الأشخاص الذين سبقونا ، سواء في مكتبة أو على الإنترنت ، ترث كل هذه العيوب. ومن الواضح أن هذا يمكن أن يكون صحيحًا بالنسبة لنماذج اللغات الكبيرة أيضًا.

تطلبت كل تقنية ثقافية سابقة معايير وقواعد وقوانين ومؤسسات جديدة للتأكد من أن الصالح يفوق الطالح ، من فضح الكاذبين وتكريم مكتشفي الحقائق إلى اختراع مدققي الحقائق وأمناء المكتبات وقوانين التشهير وأنظمة الخصوصية. LaMDA و GPT-3 ليسا أشخاصًا متخفين في شكل آلات. لذا يحتاج الأشخاص الحقيقيين الذين يستخدمونها إلى تجاوز أعراف الماضي وإنشاء مؤسسات مبتكرة يمكن أن تكون قوية مثل التقنيات نفسها.

دكتور. جوبنيك أستاذ علم النفس في جامعة كاليفورنيا ، بيركلي  وكاتب عمود في "العقل والمادة" في صحيفة وول ستريت جورنال.

المصدر