يقول Chatgpt 5 أخيرًا “لا أعرف” – وهذا هو السبب في أن هذه مشكلة كبيرة

نماذج اللغة الكبيرة لها تاريخ محرج في قول الحقيقة ، خاصةً إذا لم يتمكنوا من تقديم إجابة حقيقية. كانت الهلوسة تشكل خطرا على chatbots من الذكاء الاصطناعي منذ أن ظهرت التكنولوجيا لأول مرة قبل بضع سنوات. لكن يبدو أن ChatGPT 5 يسير على مقاربة جديدة وأكثر تواضعًا لعدم معرفة الإجابات ؛ الاعتراف بذلك.

على الرغم من أن معظم استجابات chatbot AI دقيقة ، إلا أنه من المستحيل التفاعل مع chatbot AI لفترة طويلة قبل أن توفر تصنيع جزئي أو كامل كإجابة. يعرض الذكاء الاصطناعى الكثير من الثقة في إجاباته بغض النظر عن دقتها. لقد ابتليت الهلوسة من الذكاء الاصطناعي المستخدمين وحتى أدت إلى لحظات محرجة للمطورين خلال المظاهرات.

ألمح Openai إلى أن الإصدار الجديد من ChatGpt سيكون على استعداد للاستفادة من الجهل بسبب الإجابة ، وأن منشور X Viral X by Kol Tregaskes قد لفت الانتباه إلى مفهوم Chatgpt الرائد قائلاً: “لا أعرف – ولا يمكنني اكتشاف ذلك بشكل موثوق”.

من الناحية الفنية ، يتم خبز الهلوسة في كيفية عمل هذه النماذج. إنهم لا يستردون الحقائق من قاعدة بيانات ، حتى لو كانت تبدو بهذه الطريقة ؛ إنهم يتوقعون الكلمة التالية على الأرجح على أساس أنماط في اللغة. عندما تسأل عن شيء غامض أو معقد ، فإن الذكاء الاصطناعى يخمن الكلمات الصحيحة للإجابة عليه ، وليس القيام بمحرك بحث كلاسيكي. وبالتالي ، فإن ظهور مصادر أو إحصائيات أو اقتباسات مكياج بالكامل.

لكن قدرة GPT-5 على التوقف والقول ، “لا أعرف” ، تعكس تطورًا في كيفية تعامل نماذج الذكاء الاصطناعى مع قيودها من حيث ردودها ، على الأقل. قبول صريح للجهل يحل محل الحشو الخيالي. قد يبدو الأمر مضادًا للمناخ ، لكنه أكثر أهمية لجعل الذكاء الاصطناعى يبدو أكثر جدارة بالثقة.

الوضوح على الهلوسة

الثقة أمر بالغ الأهمية بالنسبة ل AI chatbots. لماذا تستخدمها إذا كنت لا تثق في الإجابات؟ لدى ChatGPT وغيرها من الدردشة من الذكاء الاصطناعى تحذيرات مدمجة حول عدم الاعتماد على إجاباتهم بسبب الإجابات بسبب الهلوسة ، ولكن هناك دائمًا قصص عن أشخاص يتجاهلون هذا التحذير والوصول إلى الماء الساخن. إذا تقول الذكاء الاصطناعى أنها لا تستطيع الإجابة على سؤال ، فقد يكون الناس أكثر ميلًا للثقة في الإجابات التي يقدمها.

بالطبع ، لا يزال هناك خطر من تفسير المستخدمين للشك الذاتي للنموذج على أنه فشل. قد تنفجر عبارة “لا أعرف” كخشب ، وليس ميزة ، إذا لم تدرك أن البديل هو هلوسة ، وليس الإجابة الصحيحة. إن الاعتراف بعدم اليقين ليس كيف يتصرف الذكاء الاصطناعى الذي يدرك الجميع.

ولكن يمكن القول إنه أكثر شيء إنساني يمكن أن يفعله ChatGpt في هذه الحالة. أعلن Openai الهدف هو الذكاء العام الاصطناعي ، الذكاء الاصطناعي الذي يمكن أن يؤدي أي مهمة فكرية يمكن للإنسان. لكن إحدى مفارقات AGI هي أن تقليد التفكير البشري يشمل عدم اليقين وكذلك القدرات.

في بعض الأحيان ، أذكى شيء يمكنك فعله هو القول أنك لا تعرف شيئًا. لا يمكنك معرفة ما إذا كنت ترفض الاعتراف بوجود أشياء لا تعرفها. وعلى الأقل يتجنب مشهد الذكاء الاصطناعي الذي يطلب منك أن تأكل الصخور لصحتك.

  • يقول GPT -5 Pro رائع ، لكنه لا يزال في أي مكان بالقرب من AGI Real.
  • يقول الرئيس التنفيذي لشركة Openai إنه خائف من GPT-5
  • يقول الرئيس التنفيذي لشركة Microsoft AI ، وهذه مشكلة كبيرة.

كاتب

أضف تعليق

arالعربية