كشف استطلاع حديث أن الغالبية العظمى من مستخدمي نماذج الذكاء الاصطناعي التوليدي، مثل ChatGPT وGemini، يعربون عن قلق بالغ إزاء كيفية استخدام بياناتهم الشخصية، حيث أبدى 90% منهم مخاوف من استغلال هذه البيانات دون موافقتهم الصريحة.
أظهر التقرير الصادر عن شركة Malwarebytes تراجعًا في الهوس الأولي بروبوتات الدردشة، مقابل زيادة ملحوظة في وعي المستخدمين وحرصهم على خصوصيتهم. وأفاد الاستطلاع أن 88% من المشاركين أصبحوا أقل استعدادًا لمشاركة معلوماتهم الخاصة بحرية مع هذه المنصات، بينما امتنع 84% تحديدًا عن مشاركة أي بيانات متعلقة بالصحة.
هذا القلق المتزايد أثر بشكل مباشر على معدلات استخدام المنصات؛ إذ أشار التقرير إلى أن 43% من المستخدمين أوقفوا استخدام ChatGPT، في حين توقف 42% عن استخدام Gemini. ولم يقتصر الأمر على التوقف، بل بدأ المستخدمون في اتخاذ إجراءات وقائية نشطة.
تشمل الإجراءات الوقائية التي يلجأ إليها المستخدمون تفعيل شبكات افتراضية خاصة (VPN)، واستخدام أدوات حظر الإعلانات، واللجوء إلى إدخال بيانات وهمية عند التسجيل أو الاستخدام، مما يعكس رغبة قوية في السيطرة على البصمة الرقمية.
في ظل هذه المخاوف، يتضح أن الشفافية المطلقة والتحكم الصارم في البيانات أصبحا ضرورة حتمية لشركات الذكاء الاصطناعي. فبدون تعزيز الثقة من خلال سياسات واضحة تمنح المستخدمين سلطة أكبر على معلوماتهم، قد يستمر تراجع الإقبال على هذه الأدوات المتقدمة رغم قدراتها التقنية الهائلة.

