ما الذي يجعل روبوتات المحادثة “تهلوس” أو تقول الشيء الخطأ؟
في النشرة الإخبارية للذكاء الاصطناعي اليوم ، الجزء الثالث من سلسلة من خمسة أجزاءأناقش بعض الطرق التي يمكن أن تنحرف بها روبوتات المحادثة.
بعد ساعات قليلة من صدور النشرة الإخبارية بالأمس ، حثت مجموعة من خبراء الذكاء الاصطناعي وقادة التكنولوجيا بما في ذلك Elon Musk مختبرات الذكاء الاصطناعي على إيقاف العمل مؤقتًا على أنظمتها الأكثر تقدمًا ، محذرين من أنها تمثل “مخاطر عميقة على المجتمع والإنسانية”.
دعت المجموعة إلى التوقف لمدة ستة أشهر للأنظمة الأكثر قوة من GPT-4 ، التي قدمتها شركة OpenAI هذا الشهر ، والتي شارك السيد ماسك في تأسيسها. وقالت المجموعة في رسالة مفتوحة إن التوقف المؤقت سيوفر الوقت لتنفيذ “بروتوكولات السلامة المشتركة”. “إذا لم يكن بالإمكان تفعيل مثل هذا الوقف بسرعة ، يجب على الحكومات التدخل وفرض تعليق.”
يختلف العديد من الخبراء حول خطورة المخاطر المذكورة في الرسالة ، وسنستكشف بعضها لاحقًا هذا الأسبوع. لكن عددًا من الحوادث المؤسفة للذكاء الاصطناعي قد ظهرت بالفعل. سأقضي اليوم في النشرة الإخبارية في شرح كيفية حدوثها.
في أوائل فبراير ، كشفت Google عن روبوت محادثة جديد ، Bard ، أجاب على أسئلة حول تلسكوب جيمس ويب الفضائي. كانت هناك مشكلة واحدة فقط: إحدى ادعاءات الروبوت – أن التلسكوب قد التقط الصور الأولى لكوكب خارج نظامنا الشمسي – كانت غير صحيحة تمامًا.
تقدم الروبوتات مثل Bard و ChatGPT من OpenAI معلومات بمهارة مثيرة للقلق. لكنهم أيضًا يتفوهون بأكاذيب معقولة ، أو يفعلون أشياء مخيفة بشكل خطير ، مثل الإصرار على حبهم لصحفيي نيويورك تايمز.
كيف يعقل ذلك؟
قمامة الإنترنت والهلوسة
في الماضي ، حددت شركات التكنولوجيا بعناية كيف يفترض أن تتصرف البرمجيات ، سطرًا واحدًا من التعليمات البرمجية في كل مرة. الآن ، هم يصممون روبوتات المحادثة وغيرها من التقنيات التي تتعلم المهارات من تلقاء نفسها ، من خلال تحديد الأنماط الإحصائية في كميات هائلة من المعلومات.
جيل جديد من روبوتات المحادثة
عالم جديد شجاع. أشعلت مجموعة جديدة من روبوتات المحادثة المدعومة بالذكاء الاصطناعي تدافعًا لتحديد ما إذا كانت التكنولوجيا يمكن أن تقلب اقتصاديات الإنترنت رأساً على عقب ، وتحول القوى العاملة اليوم إلى باقات ، وخلق عمالقة الصناعة القادمين. فيما يلي الروبوتات التي يجب معرفتها:
يأتي الكثير من هذه البيانات من مواقع مثل Wikipedia و Reddit. يعج الإنترنت بالمعلومات المفيدة ، من الحقائق التاريخية إلى النصائح الطبية. لكنها أيضًا مليئة بالأكاذيب وخطاب الكراهية والقمامة الأخرى. تستوعب روبوتات الدردشة كل شيء ، بما في ذلك الصريح والضمني تحيز من النص الذي يستوعبونه.
وبسبب الطريقة المدهشة التي يمزجون بها ويطابقون ما تعلموه لإنشاء نص جديد تمامًا ، فإنهم غالبًا ما ينشئون لغة مقنعة خاطئة تمامًا أو غير موجودة في بيانات التدريب الخاصة بهم. يطلق باحثو الذكاء الاصطناعي على هذا الميل إلى ابتكار الأشياء “هلوسة، “والتي يمكن أن تتضمن إجابات غير ملائمة أو غير منطقية أو غير صحيحة في الواقع.
نحن نشهد بالفعل عواقب العالم الحقيقي لهلوسة الذكاء الاصطناعي. Stack Overflow ، موقع أسئلة وأجوبة للمبرمجين ، منع المستخدمين مؤقتًا من إرسال إجابات تم إنشاؤها باستخدام ChatGPT ، لأن chatbot جعل من السهل جدًا إرسال ردود معقولة ولكنها غير صحيحة.
قالت ميلاني ميتشل ، باحثة الذكاء الاصطناعي في معهد سانتا في: “تعيش هذه الأنظمة في عالم من اللغات”. يمنحهم هذا العالم بعض الأدلة حول ما هو حقيقي وما هو غير صحيح ، لكن اللغة التي يتعلمون منها لا تستند إلى الواقع. إنهم لا يعرفون بالضرورة ما إذا كان ما يولدونه صحيحًا أم خطأ. “
(عندما سألنا Bing عن أمثلة على روبوتات المحادثة المهلوسة ، كان هذا في الواقع يهلوس الإجابة.)
فكر في روبوتات المحادثة كموسيقيين جاز. يمكنهم استيعاب كميات هائلة من المعلومات – مثل ، على سبيل المثال ، كل أغنية تمت كتابتها في أي وقت مضى – ثم يستشهدون بالنتائج. لديهم القدرة على تجميع الأفكار معًا بطرق مدهشة وخلاقة. لكنهم أيضًا يعزفون نغمات خاطئة بثقة مطلقة.
الأمر ليس فقط هم – نحن نحن
أحيانًا لا تكون البطاقة البعيدة هي البرنامج. إنهم البشر.
نحن نميل إلى رؤية أنماط غير موجودة حقًا ، وافتراض سمات وعواطف شبيهة بالبشر في كيانات غير بشرية. يُعرف هذا باسم الأنسنة. عندما يتواصل الكلب بالعين معنا ، فإننا نميل إلى افتراض أنه أكثر ذكاءً مما هو عليه بالفعل. هذه هي الطريقة التي تعمل بها عقولنا.
وعندما يبدأ الكمبيوتر في تجميع الكلمات معًا كما نفعل نحن ، نحصل على انطباع خاطئ بأنه يمكنه التفكير في المشاعر وفهمها والتعبير عنها. يمكننا أيضًا أن نتصرف بطرق غير متوقعة. (في العام الماضي ، وضعت Google مهندسًا في إجازة مدفوعة الأجر بعد رفض ادعائه بأن الذكاء الاصطناعي لديها كان واعيًا. وتم فصله لاحقًا).
كلما طالت مدة المحادثة ، زاد تأثيرك على ما يقوله نموذج اللغة الكبير. تعد محادثة كيفن الشائنة مع Bing مثالًا جيدًا بشكل خاص. بعد فترة ، يمكن أن يبدأ برنامج الدردشة الآلي في عكس أفكارك وأهدافك ، وفقًا للباحثين مثل رائد الذكاء الاصطناعي تيري سيجنوفسكي. إذا طلبت منه أن يصبح زاحفًا ، فإنه يصبح زاحفًا.
قارن التكنولوجيا بمرآة Erised ، وهي قطعة أثرية صوفية في روايات وأفلام هاري بوتر. قال الدكتور Sejnowski: “إنه يوفر كل ما تبحث عنه – كل ما تريده أو تتوقعه أو ترغب فيه”. “لأن الإنسان و LLM كلاهما يعكسان بعضهما البعض ، بمرور الوقت سوف يميلون نحو حالة مفاهيمية مشتركة.”
هل يمكنهم إصلاحه؟
تعمل شركات مثل Google و Microsoft و OpenAI على حل هذه المشكلات.
عملت OpenAI على تحسين برنامج الدردشة الآلي باستخدام التعليقات الواردة من المختبرين. باستخدام تقنية تسمى التعلم المعزز ، اكتسب النظام فهماً أفضل لما يجب عليه وما لا ينبغي فعله.
مايكروسوفت ، من جانبها ، حدت من طول المحادثات مع روبوت دردشة Bing الخاص بها. كما تعمل أيضًا على تصحيح الثغرات الأمنية التي حددها المستخدمون الجريئون. لكن إصلاح كل عثرة أمر صعب ، إن لم يكن مستحيلاً.
لذا ، نعم ، إذا كنت ذكيًا ، يمكنك على الأرجح إقناع هذه الأنظمة بالقيام بأشياء مسيئة أو مخيفة. يمكن للممثلين السيئين أيضًا: القلق بين العديد من الخبراء هو أن هذه الروبوتات ستسمح للمحتالين عبر الإنترنت والمسوقين عديمي الضمير والدول القومية المعادية بنشر المعلومات المضللة والتسبب في أنواع أخرى من المشاكل.
شيء واحد كبير
أثناء استخدامك لبرامج الدردشة هذه ، كن متشككًا. ألقِ نظرة عليهم على حقيقتهم.
إنهم ليسوا واعين أو واعين. إنهم أذكياء في بعض النواحي ، لكنهم أغبياء من نواحٍ أخرى. تذكر أنه يمكنهم فهم الأمور بشكل خاطئ. تذكر أنه يمكنهم اختلاق الأشياء.
ولكن على الجانب المشرق ، هناك الكثير من الأشياء الأخرى التي تعد هذه الأنظمة جيدة جدًا لها. كيفن سيكون لديه المزيد عن ذلك غدا.
واجبك
اطلب من ChatGPT أو Bing شرح شيء تعرفه كثيرًا بالفعل. هل الاجابات دقيقة؟
إذا تلقيت ردودًا مثيرة للاهتمام ، سواء أكانت صحيحة أم خاطئة ، فيمكنك مشاركتها في التعليقات.
اختبار
السؤال 1 من 3
كيف تولد نماذج اللغات الكبيرة نصًا؟
ابدأ الاختبار باختيار إجابتك.
قائمة المصطلحات
هلوسة: ظاهرة معروفة في نماذج اللغات الكبيرة ، حيث يقدم النظام إجابة غير صحيحة من الناحية الواقعية أو غير ذات صلة أو لا معنى لها ، بسبب قيود في بيانات التدريب وبنيته.
تحيز: نوع من الخطأ يمكن أن يحدث في نموذج لغة كبير إذا تم تشويه مخرجاته بواسطة بيانات تدريب النموذج. على سبيل المثال ، قد يربط النموذج سمات أو مهن معينة بجنس أو جنس معين ، مما يؤدي إلى تنبؤات غير دقيقة واستجابات مسيئة.
الأنسنة: ميل الناس إلى عزو صفات أو خصائص شبيهة بالبشر إلى روبوت محادثة يعمل بالذكاء الاصطناعي. على سبيل المثال ، قد تفترض أنه لطيف أو قاسي بناءً على إجاباته ، على الرغم من أنه غير قادر على الشعور بالعواطف ، أو قد تعتقد أن الذكاء الاصطناعي حساس لأنه جيد جدًا في تقليد اللغة البشرية.
انقر هنا لمزيد من المصطلحات.