Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
أخبار التكنولوجيا

هل يمكن للآلة أن تعرف أننا نعرف ما تعرفه؟


قراءة الأفكار شائعة بيننا نحن البشر. ليس بالطرق التي يدعي الوسطاء القيام بذلك ، من خلال الوصول إلى تيارات الوعي الدافئة التي تملأ تجربة كل فرد ، أو بالطرق التي يدعي علماء العقل القيام بذلك ، عن طريق سحب الفكر من رأسك كما تشاء. تعد قراءة الأفكار اليومية أكثر دقة: فنحن نأخذ وجوه الناس وحركاتهم ، ونستمع إلى كلماتهم ثم نقرر أو ندرس ما يمكن أن يحدث في رؤوسهم.

بين علماء النفس ، يُطلق على علم النفس البديهي – القدرة على عزو حالات عقلية مختلفة عن حالتنا إلى أشخاص آخرين – نظرية العقل ، وقد ارتبط غيابها أو ضعفها بالتوحد والفصام واضطرابات النمو الأخرى. تساعدنا نظرية العقل على التواصل وفهم بعضنا البعض ؛ يتيح لنا الاستمتاع بالأدب والأفلام وممارسة الألعاب وفهم محيطنا الاجتماعي. من نواحٍ عديدة ، تعد القدرة جزءًا أساسيًا من الإنسان.

ماذا لو تمكنت الآلة من قراءة العقول أيضًا؟

في الآونة الأخيرة ، قدم ميشال كوسينسكي ، عالم النفس في كلية الدراسات العليا للأعمال في ستانفورد ، هذه الحجة: أن نماذج اللغة الكبيرة مثل ChatGPT و GPT-4 من OpenAI – آلات التنبؤ بالكلمة التالية المدربة على كميات هائلة من النصوص من الإنترنت – طورت نظرية. . العقل. لم تتم مراجعة دراساته من قبل الأقران ، لكنها دفعت إلى التدقيق والمحادثة بين العلماء الإدراكيين ، الذين كانوا يحاولون الإجابة على السؤال الذي يُطرح كثيرًا هذه الأيام – هل يمكن لـ ChatGPT القيام بذلك هذا؟ – ونقله إلى عالم البحث العلمي الأكثر قوة. ما هي القدرات التي تمتلكها هذه النماذج ، وكيف يمكنها تغيير فهمنا لعقولنا؟

قالت أليسون جوبنيك ، عالمة نفس في جامعة كاليفورنيا ، بيركلي وأحدهم من أوائل الباحثين الذين درسوا نظرية العقل في الثمانينيات. “عليك إجراء اختبارات دقيقة وصارمة للغاية.”

أظهر البحث السابق للدكتور كوسينسكي أن الشبكات العصبية المدربة على تحليل ملامح الوجه مثل شكل الأنف وزاوية الرأس والتعبير العاطفي يمكن أن تتنبأ بآراء الناس السياسية وتوجههم الجنسي بدرجة من الدقة (حوالي 72 بالمائة في الحالة الأولى وحوالي 80 بالمائة في الثاني). قضية). يستخدم عمله الأخير على نماذج اللغة الكبيرة اختبارات نظرية العقل الكلاسيكية التي تقيس قدرة الأطفال على عزو المعتقدات الخاطئة إلى الآخرين.

مثال شهير هو اختبار سالي آن ، حيث تقوم فتاة ، آن ، بتحريك قطعة من الرخام من سلة إلى صندوق عندما لا تنظر فتاة أخرى ، سالي. لمعرفة أين ستبحث سالي عن الرخام ، كما زعم الباحثون ، يجب على المشاهد ممارسة نظرية العقل ، والتفكير في أدلة سالي الإدراكية وتشكيل المعتقدات: سالي لم ترَ آن تنقل الرخام إلى الصندوق ، لذلك ما زالت تعتقد ذلك هو آخر مكان تركته فيه ، في السلة.

قدم د. ثم سأل النماذج أسئلة حول تلك المواقف ، وحثهم على معرفة ما إذا كانوا سينسبون معتقدات خاطئة إلى الشخصيات المعنية ويتنبأون بسلوكهم بدقة. وجد أن GPT-3.5 ، الذي تم إصداره في نوفمبر 2022 ، قام بذلك بنسبة 90 بالمائة من الوقت ، وأن GPT-4 ، الذي تم إصداره في مارس 2023 ، فعل ذلك بنسبة 95 بالمائة من الوقت.

الإستنتاج؟ الآلات لها نظرية العقل.

ولكن بعد فترة وجيزة من نشر هذه النتائج ، استجاب تومر أولمان ، عالم النفس بجامعة هارفارد ، بمجموعة من تجاربه الخاصة ، موضحًا أن التعديلات الصغيرة في المطالبات يمكن أن تغير الإجابات الناتجة عن أكثر النماذج اللغوية الكبيرة تعقيدًا. إذا تم وصف الحاوية بأنها شفافة ، فإن الآلات ستفشل في استنتاج أن شخصًا ما يمكنه رؤيتها. واجهت الآلات صعوبة في مراعاة شهادات الأشخاص في هذه المواقف ، وفي بعض الأحيان لم تتمكن من التمييز بين وجود كائن داخل حاوية ووجوده فوقه.

قام مارتن ساب ، عالم الكمبيوتر في جامعة كارنيجي ميلون ، بإدخال أكثر من 1000 اختبار نظري للعقل في نماذج لغوية كبيرة ووجد أن المحولات الأكثر تقدمًا ، مثل ChatGPT و GPT-4 ، مرت حوالي 70 بالمائة فقط من الوقت. (بعبارة أخرى ، نجحوا بنسبة 70 في المائة في عزو المعتقدات الخاطئة إلى الأشخاص الموصوفين في مواقف الاختبار). وقد يرجع التناقض بين بياناته وبيانات الدكتور كوسينسكي إلى اختلافات في الاختبار ، لكن الدكتور ساب قال إنه حتى اجتياز الاختبار 95٪ من الوقت لن تكون دليلاً على نظرية حقيقية للعقل. قال إن الآلات عادة ما تفشل بطريقة نمطية ، غير قادرة على الانخراط في التفكير المجرد ، وغالبا ما تصنع “ارتباطات زائفة”.

أشار الدكتور أولمان إلى أن باحثي التعلم الآلي كافحوا خلال العقدين الماضيين لالتقاط مرونة المعرفة البشرية في نماذج الكمبيوتر. قال إن هذه الصعوبة كانت “اكتشاف ظل” ، معلقًا وراء كل ابتكار مثير. أظهر الباحثون أن النماذج اللغوية غالبًا ما تعطي إجابات خاطئة أو غير ذات صلة عندما يتم تجهيزها بمعلومات غير ضرورية قبل طرح السؤال ؛ تم التخلص من بعض روبوتات المحادثة من خلال المناقشات الافتراضية حول الطيور الناطقة لدرجة أنهم ادعوا في النهاية أن الطيور يمكنها التحدث. نظرًا لأن منطقهم حساس للتغييرات الصغيرة في مدخلاتهم ، فقد أطلق العلماء على معرفة هذه الآلات “هشة”.

قارنت الدكتورة جوبنيك نظرية العقل لنماذج اللغة الكبيرة بفهمها الخاص للنسبية العامة. قالت: “لقد قرأت ما يكفي لأعرف ما هي الكلمات”. “لكن إذا طلبت مني عمل تنبؤ جديد أو أن أقول ما تخبرنا به نظرية أينشتاين عن ظاهرة جديدة ، فسأدوس لأنني لا أملك النظرية حقًا في رأسي.” على النقيض من ذلك ، قالت ، إن نظرية العقل البشري مرتبطة بآليات التفكير المنطقي الأخرى. يقف قويا في مواجهة التدقيق.

بشكل عام ، يتلاءم عمل الدكتور كوسينسكي والردود عليه مع الجدل حول ما إذا كانت قدرات هذه الآلات يمكن مقارنتها بقدرات البشر – وهو نقاش يقسم الباحثين الذين يعملون على معالجة اللغة الطبيعية. هل هذه الآلات عبارة عن ببغاوات عشوائية أم ذكاء غريب أم محتالون محتالون؟ وجدت دراسة ميدانية أجريت عام 2022 أنه ، من بين 480 باحثًا أجابوا على الأسئلة ، اعتقد 51 بالمائة أن النماذج اللغوية الكبيرة يمكنها في النهاية “فهم اللغة الطبيعية بمعنى غير عادي” ، ويعتقد 49 بالمائة أنهم لا يستطيعون ذلك.

لا يستبعد الدكتور أولمان إمكانية فهم الآلة أو نظرية الآلة للعقل ، لكنه حذر من عزو القدرات البشرية إلى أشياء غير بشرية. وأشار إلى دراسة شهيرة عام 1944 قام بها فريتز هايدر وماريان سيميل ، حيث عُرض على المشاركين فيلم رسوم متحركة لمثلثين ودائرة تتفاعل. عندما طُلب من الأشخاص كتابة ما حدث في الفيلم ، وصف جميعهم تقريبًا الأشكال على أنها أشخاص.

“عشاق في العالم ثنائي الأبعاد ، بلا شك ؛ كتب أحد المشاركين “المثلث الصغير رقم 2 ودائرة حلوة”. المثلث الأول (المعروف فيما بعد بالشرير) يتجسس الحب الشاب. آه!”

من الطبيعي وغالبًا ما يكون مطلوبًا اجتماعيًا شرح السلوك البشري بالحديث عن المعتقدات والرغبات والنوايا والأفكار. هذا الاتجاه هو أمر أساسي بالنسبة لمن نحن – وهو أمر أساسي لدرجة أننا نحاول أحيانًا قراءة عقول الأشياء التي لا نملكها ، على الأقل ليست عقول مثل عقولنا.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى