السبب المثير للدهشة chatgpt وغيرها من أدوات الذكاء الاصطناعي يصنع الأشياء – ولماذا ليس مجرد خلل

نماذج اللغة الكبيرة (LLMS) مثل ChatGPT قد أبهرت العالم بقدراتها. لكنهم احتلوا عناوين الصحف أيضًا لتفريغ الهراء المطلق بثقة.

هذه الظاهرة ، المعروفة باسم الهلوسة ، تتراوح من أخطاء غير ضارة إلى حد ما – مثل الحصول على عدد من ‘r في الفراولة خطأ – لتلفيق الحالات القانونية تمامًا هبط المحامون في ورطة خطيرة.

بالتأكيد ، يمكنك القول أنه يجب على الجميع التحقق بشكل صارم أي شيء يقترحه الذكاء الاصطناعي (وأوافق). ولكن نظرًا لأن هذه الأدوات تصبح أكثر رطوبة في عملنا ، وأبحاثنا ، وصنع القرار ، نحتاج إلى فهم سبب حدوث الهلوسة-وما إذا كان بإمكاننا منعها.

قد يعجبك

  • ما هي الهلوسة الذكاء الاصطناعي؟ عندما يخطئ منظمة العفو الدولية

  • لقد أصبحت خبيرًا في ChatGPT من خلال رفع مستوى مطالبات الذكاء الاصطناعي – إليك 8 نصائح من أجل النجاح

الشبح في الجهاز

لفهم سبب هلوس الذكاء الاصطناعي ، نحتاج إلى تنشيط سريع حول كيفية عمل نماذج اللغة الكبيرة (LLMS).

لا تسترجع LLMs حقائق مثل محرك البحث أو بشري ينظر إلى شيء في قاعدة بيانات. بدلاً من ذلك ، يقومون بإنشاء النص عن طريق إجراء تنبؤات.

يقول مهندس البرمجيات Maitreyi Chatterjee: “LLMS هي تنبؤات بكلمة وكل من أحلام اليقظة في جوهرها”. “إنهم يولدون نصًا من خلال التنبؤ بالكلمة المرجح إحصائياً التي تحدث بعد ذلك.”

غالبًا ما نفترض أن هذه النماذج تفكر أو تفكر ، لكنها ليست كذلك. إنها تنبؤات متطورة أنماط – وهذه العملية تؤدي حتماً إلى أخطاء.

هذا ما يفسر سبب صعوبة LLMS مع أشياء بسيطة على ما يبدو ، مثل حساب ‘R في الفراولة أو حل مشاكل الرياضيات الأساسية. إنهم لا يجلسون هناك يعملون كما نفعل – ليس حقًا.

سبب رئيسي آخر هو أنهم لا يفحصون ما يضخونه. “تفتقر LLMs إلى آلية فحص الحقائق الداخلية ، ولأن هدفها هو التنبؤ بالرمز التالي (وحدة النص) ، فإنهم يفضلون أحيانًا تسلسل الرمز المميز الواضح على تلك الصحيحة” ، يوضح Chatterjee.

وعندما لا يعرفون الجواب؟ غالبا ما يصنعون شيئا. “إذا كانت بيانات تدريب النموذج تحتوي على معلومات غير مكتملة أو متضاربة أو غير كافية لاستعلام معين ، فقد تولد معلومات معقولة ولكنها غير صحيحة” لملء “الفجوات”.

بدلاً من الاعتراف بعدم اليقين ، فإن العديد من أدوات الذكاء الاصطناعى الافتراضية لإنتاج إجابة – سواء كان ذلك صحيحًا أم لا. في أوقات أخرى ، لديهم المعلومات الصحيحة ولكنهم يفشلون في استردادها أو تطبيقها بشكل صحيح. يمكن أن يحدث هذا عندما يكون السؤال معقدًا ، أو سياق النموذج يسيء تفسير.

هذا هو السبب في أن المطالبات مهمة.

قوة الهلوسة في المطالبات

أنواع معينة من المطالبات يمكن أن تجعل الهلوسة أكثر احتمالا. لقد غطينا بالفعل لدينا أهم نصائح لتسوية مطالبات الذكاء الاصطناعى الخاص بك. ليس فقط للحصول على المزيد من النتائج المفيدة ، ولكن أيضًا لتقليل فرص الانتقال إلى القضبان.

على سبيل المثال ، يمكن أن تسبب المطالبات الغامضة تشويشًا ، مما يؤدي إلى خلط النموذج من مصادر المعرفة. يقول Chatterjee إن هذا هو المكان الذي تحتاج إلى توخي الحذر ، واسأل “أخبرني عن باريس” بدون سياق ، وقد تحصل على مزيج غريب من الحقائق حول باريس وفرنسا وباريس هيلتون وباريس من الأساطير اليونانية.

لكن المزيد من التفاصيل ليست أفضل دائمًا. يمكن للمطالبات الطويلة المفرطة أن تطغى على النموذج ، مما يجعله يفقد التفاصيل الرئيسية والبدء في ملء الفجوات مع التصنيع. وبالمثل ، عندما لا يتم إعطاء نموذج ما يكفي لمعالجة سؤال ما ، فمن الأرجح أن يرتكب أخطاء. لهذا السبب يمكن أن تؤدي تقنيات مثل سلسلة الفكرة-حيث يتم تشجيع النموذج على التفكير من خلال مشكلة خطوة بخطوة-إلى استجابات أكثر دقة.

توفير مرجع هو وسيلة فعالة أخرى للحفاظ على الذكاء الاصطناعي على المسار الصحيح. “يمكنك في بعض الأحيان حل هذه المشكلة من خلال إعطاء النموذج” مسبقًا “أو مصدر المعرفة للإشارة إليه حتى يتمكن من التحقق من إجابته”. يمكن أن يحسن الدقة ، حيث يتم منح النموذج سلسلة من الأمثلة قبل الإجابة ، الدقة.

حتى مع هذه التقنيات ، تظل الهلوسة تحديًا متأصلًا لـ LLMS. مع تطور الذكاء الاصطناعي ، يعمل الباحثون على طرق لجعل النماذج أكثر موثوقية. ولكن في الوقت الحالي ، فهم سبب الهلوسة من الذكاء الاصطناعى ، وكيفية منعها ، والأهم من ذلك ، لماذا يجب أن تتحقق من كل شيء لا يزال ضروريًا.

  • طلبت من ChatGpt العمل من خلال بعض من أكبر المناقشات الفلسفية في كل العصور – إليك ما حدث
  • يؤكد Openai 400 مليون مستخدم أسبوعي ChatGpt – إليك 5 طرق رائعة لاستخدام أكثر شركات AI شهرة في العالم
  • لقد أصبحت خبيرًا في ChatGPT من خلال رفع مستوى مطالبات الذكاء الاصطناعي – إليك 8 نصائح من أجل النجاح

كاتب

أضف تعليق

arالعربية