قرر البرلمان الأوروبي إيقاف استخدام أدوات الذكاء الاصطناعي على الأجهزة المخصصة لأعضائه، وذلك بسبب مخاوف متزايدة حول الأمن السيبراني وحماية البيانات الحساسة.
الذكاء الاصطناعي
أوضحت إدارة تكنولوجيا المعلومات في البرلمان أنه لا يمكن ضمان أمان المعلومات التي تُرفع إلى خوادم شركات الذكاء الاصطناعي، وأكدت أن البيانات التي قد تُشارك لا تزال قيد التقييم، وأشارت إلى أن تعطيل هذه الأدوات هو الخيار الأكثر أمانًا في الوقت الحالي، خاصة مع احتمال رفع مستندات سرية إلى خدمات سحابية خارج الاتحاد الأوروبي.
مخاوف تتعلق بالقوانين الأمريكية
تعتمد أدوات الذكاء الاصطناعي مثل روبوتات الدردشة كلود من “Anthropic” وكوبايلوت من “مايكروسوفت” وChatGPT من “OpenAI” على إرسال البيانات إلى شركات أمريكية، مما يفتح المجال أمام السلطات الأمريكية لمطالبة الشركات بتسليم معلومات المستخدمين بموجب أوامر قانونية، وهذا يثير قلقًا بشأن سيادة البيانات الأوروبية، كما أن استخدام هذه الأدوات قد يؤدي إلى إعادة استخدام البيانات لتحسين النماذج، مما يزيد من احتمالية تسرب معلومات حساسة أو استخدامها بطرق غير مقصودة.
توتر تنظيمي وسياسي
يأتي هذا القرار في ظل تشدد الاتحاد الأوروبي في حماية البيانات، حيث تراجع بعض الدول الأعضاء علاقاتها مع شركات التكنولوجيا الأمريكية، وفي المقابل، اقترحت المفوضية الأوروبية العام الماضي تعديلات تسمح بتدريب نماذج الذكاء الاصطناعي على بيانات الأوروبيين، مما أثار جدلًا حول التوازن بين حماية البيانات وتشجيع الابتكار، وفي الأسابيع الأخيرة، أرسلت وزارة الأمن الداخلي الأمريكية مئات مذكرات الاستدعاء لشركات التكنولوجيا ومنصات التواصل الاجتماعي للحصول على بيانات بعض الأشخاص، مما يؤكد استجابة شركات مثل “جوجل” و”ميتا” و”ريديت” في بعض الحالات رغم عدم وجود أوامر قضائية ملزمة، ويعكس قرار البرلمان الأوروبي اتجاهًا واضحًا نحو تشديد القيود على استخدام الذكاء الاصطناعي داخل المؤسسات الحساسة حتى تتضح الأطر القانونية والتنظيمية لحماية البيانات عبر الحدود.


التعليقات