إذا كنت ترغب في تحويل نفسك إلى دمية منظمة العفو الدولية ، فافعل ذلك بأمان على الأقل

إنها الصور الرسمية التي يتم إنشاؤها من الذكاء الاصطناعي هي أهم اتجاه لا يمكن للأشخاص مقاومتهم الآن. الكل يريد نسخة من غيبلي أو دمية منظمة العفو الدولية لأنفسهم أو الأصدقاء أو العائلة.

لا نعرف ما الذي سيكون الأسلوب العصري الجديد التالي ، لكن يمكننا أن نفترض أنه من المحتمل أن يكون هناك المزيد. كابوس لخصوصية وأمننا ، هدية لشركات الذكاء الاصطناعى والمتسللين.

أتفهم أن معظم الناس ليسوا على استعداد للتوقف عن مشاركة وجوههم وفقدان المتعة في اتجاهات الذكاء الاصطناعي هذه. ومع ذلك ، من الأهمية بمكان القيام بذلك بأمان ، على الأقل. إذا كنت لا تصدقني ، فإليك ما ينصحه الخبراء حول كيفية تقليل المخاطر.

الإنترنت لا ينسى أبدا

الخطوة الأولى للتفاعل بأمان مع chatgpt والأدوات المماثلة هي فهم الآثار المترتبة على الخصوصية والأمان التي تأتي معها.

ربما بسبب نغمة المحادثة التي تميز AI chatbots ، من السهل أن تنسى أنك تتحدث إلى آلة ستسجل ردودك. لذلك ، قد ينتهي بك الأمر إلى إفراط في معلومات واضحة عن حياتك.

ومع ذلك ، “الإنترنت لا ينسى أبدًا” ميغيل أخبرني Fornés ، خبير الأمن السيبراني في Surfshark ، واحدة من أفضل خدمات VPN في السوق. “يمكن أن تكون هذه المعلومات تستخدم ضدنا في حالة تسرب البيانات، يحب انتحال شخصية لنا، الإجابة على “أسئلة الأمن لدينا” ، أو إعداد المستهدفة هجوم التصيد أو عملية الاحتيال

وأيضًا ، وفقًا لمدير الذكاء الاصطناعى والابتكار في نورتون ، فإن إيسكاندر سانشيز رولا ، وراء اتجاهات الذكاء الاصطناعي غير الضارة والجدير بالإنستا ، “هناك العديد من المخاطر الحقيقية والمخفية التي لا يدركها الكثير من الناس”.

التعرف على الوجه

(الصورة الائتمان: Shutterstock)

بالنسبة للمبتدئين ، يستخدم التعرف على الوجه التكنولوجيا والقياسات الحيوية ، عادة من خلال الذكاء الاصطناعي ، لتحديد الوجوه البشرية. لذلك ، “عندما تقوم بتحميل صورة طواعية ، وهي بيانات عالية الجودة للوجه ، لإنشاء شخصية أو دمية عمل تم إنشاؤها من الذكاء الاصطناعى ، يمكن استخدام هذا تدريب أنظمة التعرف على الوجهيشرح سانشيز رولا.

مخاطر أخرى تنطوي حصاد البيانات، بما في ذلك البيانات الوصفية الحساسة مثل الموقع أو الأجهزة المستخدمة ، التي يمكن لشركات الذكاء الاصطناعي استخدامها لبناء ملف تعريف رقمي أفضل حول شخصيتك لبيعه للمعلنين. إذا تم تسريبه ، يمكن للمتسللين أيضًا استخدام هذه الصور عالية الدقة لإنشاء Deepfakes أو غيرها من المحتوى غير المصرح به.

هناك العديد من المخاطر الحقيقية والمخفية التي لا يدركها الكثير من الناس

Iskander Sanchez-Rola ، Norton

لهذا السبب يوصي الخبراء تجنب مشاركة المعلومات الشخصية للغاية يمكن استخدام ذلك لتحديد هويتك ، مثل اسمك القانوني الكامل والوظيفة ، بالإضافة إلى معلومات سرية أخرى مثل أسماء أطفالك أو التفاصيل المالية أو البيانات الطبية.

وبالمثل ، يجب عليك الامتناع عن تحميل الصور أو مقاطع الفيديو عالية الدقة لنفسك ، لأن هذه يمكن أن تتخلى عن القياسات الحيوية المهمة التي قد تستخدمها للمصادقة. كن حذرًا أيضًا بشأن البيئة المحيطة المدرجة في صورتك لتجنب مشاركة التفاصيل الحساسة مثل المكان الذي تعيش فيه أو تعمل.

الكل في الكل ، أخبرني Eamonn Maguire ، رئيس أمن الحساب في Proton: “الطريقة الأكثر أمانًا للانخراط مع هذه الأنواع من الاتجاهات ستكون استخدم الصور الموجودة بالفعل في المجال العام، مع معلومات غير واقعية ، ولكن هذا لا يزال بجانب النقطة التي تجعل هذه الاتجاهات “مثيرة للاهتمام” أو “رائعة”.

افترض أنه يمكن تسريب بياناتك

كما رأينا ، فإن أحد المخاطر الرئيسية للمشاركة في اتجاهات الذكاء الاصطناعي الفيروسي هو احتمال أن يتم خرق تاريخك للمحادثة من قبل الأطراف الضارة أو غير المقصودة.

للبقاء آمنًا ، وفقًا لـ Fornés في Surfshark ، يجب أن تفترض دائمًا أن بياناتك يمكن تسريبها ، وبالتالي كن مستعدًا لذلك. ثم ينصح اتخاذ الخطوات التالية:

  • حماية حسابك. يتضمن ذلك تنشيط ميزة 2FA ، باستخدام كلمات مرور قوية وفريدة من نوعها لكل خدمة ، وتجنب تسجيل الدخول على أجهزة الكمبيوتر المشتركة.
  • قلل من البيانات الحقيقية التي تقدمها لنموذج الذكاء الاصطناعي. يوصي Fornés باستخدام الأسماء المستعارة أو البيانات البديلة بدلاً من ذلك. يجب عليك أيضًا التفكير في استخدام معرف بديل فقط للتعامل مع نماذج الذكاء الاصطناعي.
  • استخدم الأداة بشكل متشكك ومسؤولية. يجب عليك استخدام نموذج الذكاء الاصطناعى بدون تاريخ أو ذاكرة محادثة تم تنشيطه وفي وضع التخفي ، كلما كان ذلك ممكنًا.

تعرف على ما تتوقعه

قوة نماذج الذكاء الاصطناعى التوليدي هي أنه يمكنهم التعلم من كل من محادثات الإنترنت والمستخدمين. ما إذا كانت WebScraping – ممارسة جمع المعلومات من الويب – تخضع لقيود صارمة بموجب إجمالي الناتج المحلي والقوانين المماثلة ، فإن شركات الذكاء الاصطناعى حرة في استخدام جميع المعلومات التي تشاركها مع خدماتها عن طيب خاطر.

هذا هو السبب في أنه من الأهمية بمكان أن نفهم كيف سيستخدم المزود بياناتك قبل البدء في التعامل مع chatbot من الذكاء الاصطناعي. كيف؟ من خلال قراءة سياسة خصوصية الخدمة قبل البدء في تحميل وجهك والبيانات الشخصية الأخرى.

وأنا أعلم ، هذه يمكن أن تكون مهمة طويلة وشاقة. ثم يقترح الخبراء البدء من ما هي البيانات التي يتم جمعها لتحديد ما إذا كان ذلك يتضمن بيانات حساسة غير ضرورية. الخطوة التالية هي الفهم بعد ذلك كيف سيتم استخدام هذه البيانات ومشاركتها وإلى متى سيتم الاحتفاظ بها.

يوصي Fornés من Surfshark بالحذر من عبارات غامضة مثل “لأغراض العمل” أو “لتحسين الخدمات” التي لا توفر المزيد من التفاصيل.

التسوق مع chatgpt

(الصورة الائتمان: غيتي إيمايز)

يقترح Sanchez-Rola في Norton أيضًا التحقق مما إذا كان chatbot يحذف بشكل دائم أو يجمع صورك وبياناتك بعد إنشاء دمية AI الخاصة بك ، أو إذا تم تخزينها لغرض مختلف.

ويوصي أيضًا بمراجعة إعدادات الخدمة إلى توقف عن استخدام البيانات للتدريب كلما كان ذلك ممكنا. كما هو الحال مع أي تطبيق آخر ، يجب عليك أيضًا قلل من الأذونات التي تمنحها للتطبيق وقصرهم على هؤلاء الضروريين بدقة.

أخيرًا ، “للبقاء أكثر أمانًا أثناء اتباع هذه الاتجاهات ، حاول ألا تقفز إلى تطبيقات جديدة دون التفكير في ذلك. أولاً ، تحقق مما إذا كانت الخدمة التي تثق بها بالفعل تقدم شيئًا مشابهًا. وقال سانشيز رولا: “يمكن أن تكون الاتجاهات ممتعة ، لكنها قد تأتي مع مخاطر خصوصية طويلة الأجل”.

يقترح Maguire من البروتون أيضًا استخدام نماذج الذكاء الاصطناعى المحلي كلما كان ذلك ممكنا. في الواقع ، تعتبر هذه LLMs أكثر خصوصية لأن بياناتك يجب ألا تترك جهازك أبدًا.

قال: “في النهاية ، فإن الطريقة الوحيدة للحفاظ على بياناتك آمنة هي عدم مشاركتها مع أدوات الذكاء الاصطناعي ، و احتفظ بها مشفرة ومن يدي التكنولوجيا الكبيرة “.

كاتب

Leave a Comment

en_USEnglish