تكنولوجيا

ميتا تواجه دعوى تمنعها من استخدام البيانات الشخصية للذكاء الاصطناعي

وكالات – شريف صفوت

فتحت شركة ميتا خطة لاستخدام البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي الخاصة بها دون الحصول على موافقة، وتعرضت لانتقادات من مجموعة المناصرة NOYB، التي دعت المنفذون في جميع أنحاء أوروبا لوقف هذا الاستخدام.

وحث NOYB هيئات مراقبة الخصوصية الوطنية على التصرف فورًا، قائلًا إن التغييرات الأخيرة في سياسة خصوصية ميتا، والتي تدخل حيز التنفيذ في 26 يونيو، وستسمح لها باستخدام سنوات من المنشورات الشخصية أو الصور الخاصة أو بيانات التتبع عبر الإنترنت لـ فيسبوك تكنولوجيا الذكاء الاصطناعي الخاصة بالمالك.

وقالت مجموعة المناصرة إنها قدمت 11 شكوى ضد ميتا وطلبت من سلطات حماية البيانات في النمسا وبلجيكا وفرنسا وألمانيا واليونان وإيطاليا وأيرلندا وهولندا والنرويج وبولندا وإسبانيا إطلاق إجراء عاجل بسبب التغييرات الوشيكة.

ورفضت ميتا انتقادات NOYB وأشارت إلى مدونة بتاريخ 22 مايو قالت فيها إنها تستخدم المعلومات المتاحة للجمهور عبر الإنترنت والمرخصة لتدريب الذكاء الاصطناعي بالإضافة إلى المعلومات التي شاركها الأشخاص علنًا حول منتجاتها وخدماتها.

ومع ذلك، قالت رسالة تم إرسالها إلى مستخدمي فيسبوك أن ميتا قد لا تزال تعالج معلومات حول الأشخاص الذين لا يستخدمون منتجاتها وخدماتها وليس لديهم حساب إذا ظهروا في صورة أو تم ذكرهم في المنشورات أو التسميات التوضيحية التي شاركها المستخدم.

وقال متحدث باسم الشركة: “نحن واثقون من أن نهجنا يتوافق مع قوانين الخصوصية، ويتوافق نهجنا مع كيفية تطوير شركات التكنولوجيا الأخرى وتحسين تجاربها في مجال الذكاء الاصطناعي في أوروبا (بما في ذلك جوجل، أوبن إيه آي)”.

وقدمت NOYB بالفعل العديد من الشكاوى ضد شركة ميتا وغيرها من شركات التكنولوجيا الكبرى بشأن الانتهاكات المزعومة للائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي والتي تهدد بفرض غرامات تصل إلى 4% من إجمالي مبيعات الشركة العالمية بسبب الانتهاكات.

وكانت ميتا قد أشارت سابقًا إلى مصلحة مشروعة في استخدام بيانات المستخدمين لتدريب وتطوير نماذج الذكاء الاصطناعي التوليدية وأدوات الذكاء الاصطناعي الأخرى، والتي يمكن مشاركتها مع أطراف ثالثة.

وقال مؤسس NOYB ماكس شريمز في بيان، إن المحكمة العليا في أوروبا حكمت بالفعل في هذه القضية في عام 2021، وقال: “لقد أوضحت محكمة العدل الأوروبية (CJEU) بالفعل أن ميتا ليس لديها “مصلحة مشروعة” لتجاوز حق المستخدمين في حماية البيانات عندما يتعلق الأمر بالإعلان”.

وقال شريمز: “مع ذلك، تحاول الشركة استخدام نفس الحجج لتدريب “تكنولوجيا الذكاء الاصطناعي” غير المحددة، ويبدو أن ميتا تتجاهل مرة أخرى بشكل صارخ أحكام محكمة العدل الأوروبية”، مضيفًا أن اختيار عدم المشاركة كان معقدًا للغاية.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى