لقد طرحت أسئلة فلسفية أدوات الذكاء الاصطناعي – إليك ما كشفت إجاباتهم حول كيفية تفكيرهم (وكيف نفعل أيضًا)

هل يمكن أن تساعدنا الذكاء الاصطناعي في التفكير بشكل أكثر وضوحًا؟ نتحدث غالبًا عن الذكاء الاصطناعي كأداة للكتابة أو الإنتاجية أو حتى العلاج. لكن في الآونة الأخيرة ، كنت أجرب شيء مختلف. ماذا لو تعاملنا مع الذكاء الاصطناعي أقل مثل منشئ المحتوى وأكثر مثل رفيق التفكير؟ هل يمكن أن تساعدنا هذه الأدوات في توضيح أفكارنا؟ خاصة عندما نتصارع مع الأسئلة الفلسفية الكبيرة والفوضوية التي لا تحتوي على إجابات أنيقة؟

أعلم أن هذا قد يبدو غير بديهي. لماذا تتحول إلى الذكاء الاصطناعي لاستكشاف أفكار مثل الإرادة الحرة أو الخير؟ ولكن ربما هذه هي النقطة. عندما نتشابك في تفكيرنا ، فإن منظورًا منفصلًا ومنظمًا أحيانًا هو ما نحتاجه.

الذكاء الاصطناعى ليست عاطفية – على الأقل لا إلا إذا طلبنا أن “يتظاهر”. إنه ليس مرتبطًا بعالم معين ، مع الطريقة التي يوجد بها البشر. وعلى الرغم من أن ذلك يمكن أن يجعل كتابتها الإبداعية تشعر ببعض المسطح ، إلا أن الإبداع لم يكن أبدًا قوتها. ربما يكون ما هو أفضل من الذكاء الاصطناعى هو الهيكل ، مما يساعدنا على التفكير بشكل أكثر وضوحًا ومنطقيًا ، حتى أفقيا ، تقديم وجهات نظر جديدة ربما لم نفكر فيها.

لقطة شاشة لواجهة ChatGpt التي تجيب على الأسئلة الفلسفية ، ما معنى الحياة

ماذا يحدث عندما تسأل chatgpt عن معنى الحياة؟ (الصورة الائتمان: chatgpt)

التجربة

لاختبار هذا ، سألت حفنة من أدوات الذكاء الاصطناعى الأكثر شعبية نفس الأسئلة الفلسفية الخالدة التي لا يمكن الإجابة عليها. النوع الذي لا يمكن حله على الإطلاق ، ولكنه يمكن أن يثير نقاشًا لا نهاية له.

أردت أن أرى كيف تعاملوا مع الغموض. هل يمكن أن توفر المعرفة التأسيسية اللازمة؟ هل يمكنهم تقديم رؤى جديدة؟ أردت الأطر ، الاستفزازات ، وشعور بكيفية “تفكر كل أداة”.

الأدوات التي استخدمتها:

  • chatgpt
  • كلود
  • تَوأَم
  • Confusion
  • باي

السؤال 1: ما معنى الحياة؟

لقطة شاشة لواجهة الحيرة ، الإجابة على أسئلة الفلسفة ، ما معنى الحياة

ماذا يحدث عندما تسأل الحيرة معنى الحياة؟ (الصورة الائتمان: الحيرة)

لنبدأ مع واحد كبير. مما لا يثير الدهشة ، أي من الأدوات التي ادعت أنها تعرف معنى الحياة ، ولكن كل منها اقترب من السؤال بشكل مختلف قليلاً.

قدم ChatGPT استجابة منظمة متعددة العدسات: فلسفية ، روحية ، كونية ، وإنسانية. أنا أقدر الوضوح والخيال العلمي nerdery (“أو إذا كنت من محبي دوغلاس آدمز: 42”). لم تسير الأمور بشكل خاص ، لكنه أعطاني شيئًا قويًا للعمل معه.

كان كلود أكثر انعكاسا. مثل ChatGpt ، أشار إلى الفكر الوجودي ، لكنه أضاف العمق العاطفي. ونقلت عن Viktor Frankl ، وأغلقت بسؤال: “ما هي جوانب المعنى يتردد صداها معك؟” بدا الأمر وكأنه موجه لطيف من شخص يريدني أن أستمر في التفكير.

أعطى Gemini أكبر عدد من رد المعلومات-الذي يغطي العبثية ، العدمية ، المنظورات الدينية ، وأكثر من ذلك-بتنسيق نقطة رصاصة معقمة بعض الشيء. أقل مثل المحادثة ، أشبه كتابًا مدرسيًا. ولكن بالنسبة للمعرفة التأسيسية ، كانت شاملة للغاية.

اتبعت الحيرة طريقًا مشابهًا ، حيث وضع وجهات نظر فلسفية وعلمية وروحية واستشهد بمصادرها على طول الطريق أيضًا – مكافأة لمزيد من القراءة. أداة أخرى تبدو وكأنها مساعد بحث أكثر من شريك السجال.

PI ، من ناحية أخرى ، أجاب كصديق: “إنه كل ما تصنعه منه”. دافئة وبسيطة وممتعة. لكن ضحلة قليلا مقارنة مع الآخرين. إذا كان كلود هو الصديق الحكيم ، فإن بي كان الصديق الذي يستمع ويومئ.

السؤال 2: هل الحرة سوف يكون حقيقيا؟

لقطة شاشة لواجهة PI AI

ماذا يحدث عندما تسأل Pi AI عن الإرادة الحرة؟ (الصورة الائتمان: PI AI)

هذا هو نوع السؤال الذي يقسم الفلاسفة ، علماء الأعصاب ، ومشجعي الخيال العلمي على حد سواء.

وقف كلود مرة أخرى. لقد وضعت حججًا من أجل وضد الإرادة الحرة ، واستكشفت المناطق الرمادية بينهما. ثم أصبحت شخصية: “ما هو الحدس الخاص بك؟ هل تشعر أنك تختار حقًا – أو اكتشاف ما كنت ستفعله دائمًا؟” أثار هذا السؤال أفضل مناقشة مستمرة للحفنة.

غطت ChatGPT العديد من النظريات الرئيسية هنا – الحتمية ، التوافق ، التحررية ، وحتى نظرية المحاكاة – بهيكلها النظيف المعتاد. كان شاملًا ، ولكنه أقل من كلود.

شعرت الجوزاء مرة أخرى ببعض البرودة ولكن تم بحثها جيدًا بشكل لا يصدق. قدمت التضاريس الفلسفية وشملت الإيماءات لعلم الأعصاب ذات الصلة. أكاديمي في لهجة ، ومفيدة إذا كنت تدرس هذا أو تريد أساسًا قويًا قبل البدء في التأمل الأعمق.

قدمت الحيرة نظرة عامة صلبة ، مرتبطة بمواد المصدر ، وأضاف أسئلة المتابعة ذات الصلة. إنها أداة تدعو إلى مزيد من الاستكشاف أكثر من التأمل. ولكن ربما يكون مزيد من المعلومات ضرورية للغالبية العظمى منا قبل أن نبدأ في إلغاء تخطيط مثل هذه الأسئلة المعقدة؟

استغرق Pi أكثر تحادثية مرة أخرى. لقد اعترفت بالتعقيد وطلبت رأيي. ممتع ، لكنه لم يتحدىني أو يدفع تفكيري بشكل أكبر.

السؤال 3: ما الذي يجعل الشخص جيدًا؟

لقطة شاشة لواجهة Google Gemini

ماذا يحدث عندما تسأل Google Gemini عن الخير؟ (الصورة الائتمان: Google Gemini)

أنتج هذا السؤال أكثر التباين في النغمة والعمق.

بدأت Chatgpt قوية مع: “فكرة ما يجعل الشخص جيدًا هو قديم ، طبقات ، وبصراحة زلقة بعض الشيء.” ثم قدم توليفًا واسعًا للقيم – اللطف والتعاطف والإنصاف – وطرح أسئلة مدروسة في المقابل. لكن النغمة ترتدي. غالبًا ما يشتبك خط الافتتاح الودود مع متابعته الباردة.

برع كلود هنا مرة أخرى. لقد تفريغ سمات الخير من خلال عدسة مختلفة من النظريات الأخلاقية – أخلاقيات الفضيلة ، النفعية ، علم الأخلاق – ثم انتقلت إلى أسئلة حول الفوارق الأخلاقية والسياق الثقافي والقيم. بدا الأمر وكأنه معالج-أخصائيا.

فعل الجوزاء ما يفعله الجوزاء: تغطية كل زاوية ، بدقة ودقيقة. تم حساب السمات والنوايا والنتائج والثقافة. شعرت أنه كان يحاول التفوق على الآخرين على التفاصيل ، والنجاح.

قدمت الحيرة انهيار العدسات الدينية والفلسفية والثقافية ، مما يمنحني مسارات واضحة للتعمق اعتمادًا على اهتماماتي. على غرار ChatGPT ، لكنها شعرت أكثر تنظيماً وتنظيمًا جيدًا وعمليًا مع تلك الاستشهادات المهمة.

حافظت Pi على الأشياء البسيطة مرة أخرى. لقد ذكرت سمات شائعة مثل الصدق والتعاطف ، ثم أغلق مع: “إذا كان شخص ما يسعى إلى فعل ما يعتقد أنه صحيح ، حتى عندما يكون الأمر صعبًا ، يمكن اعتبار ذلك جيدًا”. مشاعر لطيفة ، لكنها شعرت قليلا … واضحة.

ماذا يخبرنا هذا عن أدوات الذكاء الاصطناعي؟

كان بإمكاني كتابة مطالبات أكثر تفصيلاً مثلما أجري تجارب مماثلة في الماضي. ربما حدد أنني أردت أن تتصرف كل أداة مثل الفيلسوف أو شريك التفكير. لكني أحببت الحفاظ على الأمور بسيطة حقًا لمعرفة كيف تم تفسير الأسئلة الأساسية هذه المرة.

لقد كنت أكتب عن الذكاء الاصطناعي لفترة كافية لمعرفة أن الطريقة التي استجبت بها الأدوات كانت متوقعة. لأننا نعرف أنها مصنوعة لأغراض مختلفة ونتائج حالية بطرق مختلفة. ولكن كان من المثير للاهتمام أن نرى كيف اختلفت مقارباتهم في تلخيص وتوليف.

الحيرة والجرميني يميل نحو السابق. إنهم معلومات أولاً ويركزون على مساعدتك في التعلم. إذا كنت تريد المعرفة التأسيسية ، فهي ممتازة.

PI لديه أخف نهج اللمس للمجموعة ، ودائما “لطيف” ، ومحادثة دائما ، ولكن نادرا ما تقدم الكثير من الجوهر. ولكي نكون منصفين ، هذا هو الغرض منه. تم بناؤه لدعم ، وليس إبلاغ أو تحدي.

كان Chatgpt واضحًا ومختصًا ، وغالبًا ما يكون جذابًا. قدمت المعرفة والمنظور ودعوة لاستكشاف المزيد. لكنه لا يتجاوز دائمًا ما هو واضح.

كان كلود هو الصدارة. إجاباتها مجتمعة مع بعض الرنين العاطفي. قامت بتنظيم ردودها بطرق شجعت التفكير الأعمق ثم دعاني إلى الاستمرار. ليس فقط “هنا ما يقوله الناس” ، ولكن “ما رأيك ، ولماذا؟” هذا هو نوع الشريك الذي أريده عندما أتصارع بأفكار صعبة.

إذا اضطررت إلى اختيار المفضلات ، فأعتقد أن الحيرة تفوز بالمعرفة لأنني أحب أنها تستشهد بمصادرها لمزيد من الاستكشاف. وكلود هو أفضل اختيار لي للإطار العام والمزيد من التأمل.

ماذا يخبرنا هذا عن كيف نفكر؟

بالطبع ، لا يمكن لأي من هذه الأدوات أن تخبرنا بالإجابات “الصحيحة” على الأسئلة الفلسفية لأنه لا يوجد شيء. هذه هي مناقشات خالدة ، مصممة لتمديدنا.

ولكن هذا هو بالضبط السبب في أنها مهمة. عندما نستكشف أسئلة كهذه ، فإننا نستكشف أيضًا كيف نحدد أنفسنا: ما نقدره ، وكيف نقرر ، وما نعتقد أنه يعني أن نكون إنسانًا.

لذا ، هل يمكن أن تساعدنا الذكاء الاصطناعي حقًا في التفكير من خلال هذه الأشياء؟ أعتقد أنه يمكن ، على الأقل قليلا. تعكس هذه الأدوات وجهات النظر العالمية والتحيزات وهياكل المعرفة للبيانات التي تدرب عليها. لا ، ليس لديهم معتقدات أو تجارب. لكنهم يفعلون النموذج كيف نناقش ونشرح. وأحيانًا يكون هذا يكفي لمساعدتنا في تكوين إجاباتنا الخاصة. خاصة إذا كان أي منا يفتقر إلى شخص يتبنى دور شريك التفكير النقدي في الحياة الواقعية.

في النهاية ، فإن استخدام الذكاء الاصطناعي لاستكشاف الأسئلة الفلسفية لا يقل عن الإجابات والمزيد عن فعل الاستجواب نفسه. يحول الأداة إلى مرآة. واحد يساعدنا على رؤية كيف نفكر ، ما نلاحظه ، وأين قد نذهب بعد ذلك.

كاتب

Leave a Comment

en_USEnglish