الشريف طه مصطفي سالمان يكتب: خطورة التحدث مع الآخر (ChatGPT)
في وسط هذا الزخم الهائل الذي تشهده تطبيقات وخدمات الذكاء الإصطناعي؛ حيث أنه يتم دمج الذكاء الاصطناعي الآن في كل التطبيقات والأدوات التي نستخدمها يوميًا، مثل: البريد الإلكتروني، والتطبيقات المكتبية، وأدوات تحرير الصور، وأنظمة التشغيل مثل: ويندوز، وأندرويد .. وغيرها.
خطورة التحدث مع الآخر (ChatGPT)
أري أن هذا الأمر بات يمثل خطورة سمها كما شئت علي الفرد أولاً ثم المجتمع وبالطبع بيئة العمل. فقد تُشكل خصوصية البيانات مصدر قلق متزايد مع زيادة شعبية روبوتات الدردشة التي تستند في عملها إلى الذكاء الاصطناعي، خاصة مع استخدام البيانات للتدريب، وحدوث تسريبات غير مقصودة.
إذ تنص سياسة الخصوصية التي تتبعها (OpenAI)، الشركة المطورة لروبوت ChatGPT، إلى أن جميع المحادثات مع روبوت (ChatGPT) تُحفظ وتستخدم لأغراض متعددة، منها: تدريب إصدارات نماذج (GPT) الجديدة لتحسين المنتج، ومنع انتهاكات شروط الخدمة.
كما تمتلك معظم النماذج اللغوية الشائعة الأخرى – بما يشمل: Gemini من جوجل، وClaude من Anthropic وCopilot من مايكروسوفت – سياسات مماثلة، إذ يمكنها جميعها حفظ المحادثات بالكامل.
فقد حدثت بالفعل تسريبات غير مقصودة لبيانات المستخدمين بسبب أخطاء برمجية، حيث ظهرت العناوين الخاصة بسجل محادثات المستخدمين مع ChatGPT بشكلٍ عشوائي لدى مُستخدمين آخرين.
لذا علينا دائمًا تذكر أن محادثاتك مع Gemini و ChatGPT، وأي روبوتات دردشة أخرى قد تكون سببًا في اختراقك، ومن المهم أن تتخذ الخطوات اللازمة لحماية بياناتك عند استخدامها.
ماذا تفعل لحماية بياناتك عند استخدام أدوات الذكاء الاصطناعي؟
1- لا تشارك أي معلومات شخصية مع روبوتات الدردشة:
لا يُعدّ Gemini وChatGPT وأي روبوتات دردشة أخرى قناة آمنة لمشاركة المعلومات الحساسة أو التعامل معها، ويتضمن ذلك: البيانات المالية وكلمات المرور والمعلومات الشخصية وبيانات العمل السرية، لذلك لا تشارك هذه المعلومات معها بأي طريقة، ويمكنك استبدالها بعلامات نجمية في المطالبات.
2- تجنب مشاركة أي وثائق تحتوي على معلومات حساسة أو سرية:
تتيح لك العديد من الأدوات والإضافات استخدام روبوتات الدردشة لمعالجة المستندات بسرعة، مما قد يكون مغريًا لتحميل مستند عمل لمعالجته أو الحصول على ملخصه بسرعة، ومع ذلك، فمن خلال تحميل مستندات متعددة الصفحات لمعالجتها دون تفكير فإنك تخاطر بتسريب البيانات السرية أو الملكية الفكرية أو الأسرار التجارية، مثل: تاريخ إصدار منتج جديد أو كشوف مرتبات الفريق، والأسوأ من ذلك، عند معالجة المستندات الواردة من مصادر خارجية، قد تُستهدف بهجوم يعتمد على المستند الذي تفحصه.
3- استخدم إعدادات الخصوصية:
اقرأ سياسة الخصوصية الخاصة بالنموذج اللغوي الذي تستخدمه بعناية، ثم حدد الإعدادات المتاحة للتحكم في كيفية جمع بياناتك واستخدامها. على سبيل المثال، تسمح لك منتجات OpenAI بتعطيل حفظ المحادثات، وفي هذه الحالة، ستُحدف البيانات بعد 30 يومًا ولن تُستخدم للتدريب.
وأخيراً إذا كنت تمتلك المهارة البرمجية، فاقرأ التعليمات البرمجية للتأكد من أن الإضافات التي تستخدمها ترسل البيانات فقط إلى الخوادم المعلنة، وإذا لم تمتلك مهارات برمجية، فاطلب من صديق مبرمج مراجعة التعليمات البرمجية نيابة عنك، أو استخدم أداة تحليل إضافات موثوقة للتحقق من سلامة البيانات.