تحذير من مخاطر استخدام الذكاء الاصطناعي

القائمة الرئيسية

الصفحات

تحذير من مخاطر استخدام الذكاء الاصطناعي

 تحذير من مخاطر استخدام الذكاء الاصطناعي

Warning about the risks of using artificial intelligence


حذرت وكالة الحقوق الأساسية التابعة للاتحاد الأوروبي (FRA) ومقرها فيينا من مخاطر استخدام الذكاء الاصطناعي في المراقبة التنبؤية والتشخيص الطبي والإعلان المستهدف.


يأتي التحذير في الوقت الذي يعتقد فيه الاتحاد الأوروبي أنه ينبغي إصدار قواعد العام المقبل للتعامل مع التحديات التي تشكلها التكنولوجيا.


تستخدم وكالات إنفاذ القانون الذكاء الاصطناعي على نطاق واسع ، وتقول جماعات حقوق الإنسان إن الأنظمة الاستبدادية تسيء استخدام التكنولوجيا بسبب المراقبة واسعة النطاق والتمييزية.



كما انتقد النقاد انتهاكات الحقوق الشخصية الأساسية وقواعد خصوصية البيانات.


في تقرير صدر يوم الاثنين ، حثت وكالة الحقوق الأساسية التابعة للاتحاد الأوروبي (FRA) صانعي السياسات على تقديم المزيد من الإرشادات حول كيفية تطبيق القواعد الحالية على الذكاء الاصطناعي والتأكد من أن قوانين الذكاء الاصطناعي المستقبلية تحمي الحقوق الأساسية.


كما انتقد النقاد انتهاكات الحقوق الشخصية الأساسية وقواعد خصوصية البيانات.


في تقرير صدر يوم الاثنين ، حثت وكالة الحقوق الأساسية التابعة للاتحاد الأوروبي (FRA) صانعي السياسات على تقديم المزيد من الإرشادات حول كيفية تطبيق القواعد الحالية على الذكاء الاصطناعي والتأكد من أن قوانين الذكاء الاصطناعي المستقبلية تحمي الحقوق الأساسية.


في بيان ، قال مايكل أوفلاهيرتي ، مدير وكالة الحقوق الأساسية (FRA) في الاتحاد الأوروبي ، إن الذكاء الاصطناعي ليس مضمونًا ، فهو من صنع البشر ويمكن أن يرتكب البشر أخطاء.



لهذا السبب يحتاج الناس إلى معرفة وقت استخدام الذكاء الاصطناعي ، وكيف يعمل ، وكيفية تحدي قرارات الآلة.


يأتي نشر تقرير وكالة الحقوق الأساسية للاتحاد الأوروبي (FRA) في الوقت الذي تدرس فيه المفوضية الأوروبية (المفوضية الأوروبية) ، الهيئة التنفيذية للاتحاد الأوروبي ، تشريعات العام المقبل لتغطية ما يسمى بالقطاعات عالية الخطورة ، مثل أجزاء من الرعاية الصحية والطاقة والنقل والقطاع العام.


ذكرت الوكالة أن قواعد الذكاء الاصطناعي يجب أن تحترم جميع الحقوق الأساسية وتوفر ضمانات لضمان ذلك ، وتشمل ضمان قدرة الأشخاص على الطعن في القرارات التي يتخذها الذكاء الاصطناعي ، ويجب أن تكون الشركات قادرة على شرح كيفية اتخاذ أنظمتها لقرارات الذكاء الاصطناعي.



وقالت أيضًا إنه يجب إجراء المزيد من الأبحاث حول الآثار التمييزية المحتملة للذكاء الاصطناعي حتى تتمكن أوروبا من حماية نفسها من الذكاء الاصطناعي ، ويجب على الاتحاد الأوروبي توضيح كيفية تنفيذ قواعد حماية البيانات من خلال التكنولوجيا.


يستند تقرير تقييم الموارد الحرجية إلى أكثر من 100 مقابلة أجريت مع منظمات عامة وخاصة تستخدم الذكاء الاصطناعي ، وتحليل يعتمد على استخدامات الذكاء الاصطناعي في إستونيا وفنلندا وفرنسا وهولندا وإسبانيا.

هل اعجبك الموضوع :

تعليقات