- يحذر Mustafa Suleyman ، الرئيس التنفيذي لشركة Microsoft AI ، من أن يقلد AI chatbots بشكل فعال.
- سيكون هذا مجرد وهم ، لكن الأشخاص الذين يشكلون مرفقات عاطفية إلى الذكاء الاصطناعي قد يكونون مشكلة كبيرة.
- يقول سليمان إنه من الخطأ وصف الذكاء الاصطناعي كما لو كان لديه مشاعر أو وعي ، مع عواقب محتملة خطيرة.
يمكن لشركات الذكاء الاصطناعى أن تمجد إبداعاتها أن تجعل الخوارزميات المتطورة تبدو بصراحة واعية. لا يوجد دليل على هذا هو الحال حقًا ، لكن Mustafa Suleyman الرئيس التنفيذي لشركة Microsoft AI تحذير حتى أن تشجيع الاعتقاد في الذكاء الاصطناعي الواعي يمكن أن يكون له عواقب وخيمة.
يجادل سليمان بأن ما يسميه “الذكاء الاصطناعي الذي يبدو واعية على ما يبدو” (SCAI) قد يتصرف قريبًا ويبدو أنه على قيد الحياة بشكل مقنع لدرجة أن عددًا متزايدًا من المستخدمين لن يعرفوا أين ينتهي الوهم ويبدأ الواقع.
ويضيف أن الذكاء الاصطناعي سرعان ما أصبح مقنعًا عاطفياً بما يكفي لخداع الناس للاعتقاد بأنه عاطفي. يمكن أن يقلد العلامات الخارجية للوعي ، مثل الذاكرة ، والنسخ العاطفي ، وحتى التعاطف الواضح ، بطريقة تجعل الناس يرغبون في معاملتهم مثل الكائنات الحية. وعندما يحدث ذلك ، كما يقول ، تصبح الأمور فوضوية.
“إن وصول الذكاء الاصطناعى على ما يبدو على ما يبدو أمر لا مفر منه وغير مرحب به” ، يكتب سليمان. “بدلاً من ذلك ، نحتاج إلى رؤية لمنظمة العفو الدولية التي يمكن أن تفي بإمكاناتها كرفيق مفيد دون الوقوع فريسة على أوهامها.”
على الرغم من أن هذا قد لا يبدو مشكلة بالنسبة للشخص العادي الذي يريد فقط منظمة العفو الدولية المساعدة في كتابة رسائل البريد الإلكتروني أو التخطيط للعشاء ، إلا أن سليمان يدعي أنها ستكون مشكلة مجتمعية. البشر ليسوا دائمًا جيدين في معرفة متى يكون هناك شيء أصيل أو أداء. لقد أثار التطور والتربية معظمنا للاعتقاد بأن شيئًا يبدو أنه يستمع ويفهم والرد على وعي كما نحن.
يمكن لـ AI التحقق من كل هذه الصناديق دون أن تكون عاطفيًا ، مما يخدعنا إلى ما يعرف باسم “الذهان الذكري”. قد يكون جزء من المشكلة هو أن “الذكاء الاصطناعى” كما يشار إليه من قبل الشركات يستخدم الآن نفس الاسم ، ولكن لا علاقة له بالآلات الذكية الفعلية التي تدرك ذاتيا كما هو موضح في الخيال العلمي على مدار المائة عام الماضية.
يستشهد سليمان بعدد متزايد من الحالات التي يشكل فيها المستخدمون معتقدات وهمية بعد التفاعلات الممتدة مع chatbots. من ذلك ، يرسم رؤية dystopian للوقت الذي يتم فيه خداع عدد كاف من الأشخاص للدعوة إلى جنسية الذكاء الاصطناعى وتجاهل أسئلة أكثر إلحاحًا حول القضايا الحقيقية حول التكنولوجيا.
“ببساطة ، قلقي الرئيسي هو أن الكثير من الناس سيبدأون في الاعتقاد في وهم AIS ككيانات واعية بقوة لدرجة أنهم سوف يدافعون قريبًا عن حقوق الذكاء الاصطناعي ، والرفاهية النموذجية ، وحتى جنسية الذكاء الاصطناعي”. “سيكون هذا التطور منعطفًا خطيرًا في تقدم الذكاء الاصطناعي ويستحق اهتمامنا الفوري.”
بقدر ما يبدو هذا نوعًا من القلق العلمي ، يعتقد سليمان أنها مشكلة لسنا مستعدين للتعامل معها بعد. ويتوقع أن أنظمة SCAI التي تستخدم نماذج لغة كبيرة مقترنة بالكلام والذاكرة والدردشة قد تبدأ في الظهور في غضون بضع سنوات. ولن يأتوا فقط من عمالقة التكنولوجيا مع ميزانيات البحث بمليارات الدولارات ، ولكن من أي شخص لديه واجهة برمجة تطبيقات ومطالبة جيدة أو اثنين.
منظمة العفو الدولية المحرجة
سليمان لا يدعو إلى حظر على الذكاء الاصطناعي. لكنه يحث صناعة الذكاء الاصطناعى على تجنب اللغة التي تغذي وهم وعي الماكينة. إنه لا يريد أن تقوم الشركات بتجسيد chatbots أو تشير إلى أن المنتج يفهم فعليًا أو يهتم بالأشخاص.
إنها لحظة رائعة بالنسبة لسليمان ، الذي شارك في تأسيس DeepMind و AI. أدى عمله في الانعطاف على وجه التحديد إلى التأكيد على chatbot منظمة العفو الدولية التي تؤكد التعاطف المحاكاة والرفقة وعمله في Microsoft حول Copilot إلى التقدم في محاكاة الذكاء العاطفي أيضًا.
ومع ذلك ، فقد قرر رسم خط واضح بين الذكاء العاطفي المفيد والتلاعب العاطفي المحتمل. ويريد أن يتذكر الناس أن منتجات الذكاء الاصطناعى في الخارج هي في الحقيقة مجرد نماذج ذكية للاعتراف بالأنماط مع العلاقات العامة الجيدة.
“كما يجب أن ننتج الذكاء الاصطناعي الذي يعطي الأولوية للورقة مع البشر والتفاعلات في العالم الحقيقي في عالمنا البدني والبشري ، يجب أن نبني الذكاء الاصطناعي الذي يعرض نفسه على الإطلاق باعتباره الذكاء الاصطناعي ، والذي يزيد من فائدة الفائدة إلى الحد الأدنى مع تقليل علامات الوعي”.
“بدلاً من محاكاة الوعي ، يجب أن نركز على إنشاء منظمة العفو الدولية التي تتجنب تلك الصفات – التي لا تدعي أن لديها تجارب أو مشاعر أو عواطف مثل العار والشعور بالذنب والغيرة والرغبة في التنافس وما إلى ذلك.
يحث سليمان الدرابزين على منع المشكلات المجتمعية المولودة من الناس يرتبون عاطفيا مع الذكاء الاصطناعي. إن الخطر الحقيقي من ADD AD ADD AI ليس أن الآلات ستستيقظ ، لكننا قد ننسى أنها لم تفعل ذلك.