خبراء يحذرون من خطورة استخدامات الذكاء الاصطناعي على الاطفال
حذر خبراء سلامة الأطفال من أن حجم الصور الجنسية الصريحة للأطفال التي ينشئها المحتالون باستخدام الذكاء الاصطناعي يفوق قدرات سلطات إنفاذ القانون في التعرف على الضحايا الحقيقيين وإنقاذهم.
ويقول المدعون العامون ومجموعات سلامة الأطفال التي تعمل على مكافحة الجرائم ضد الأطفال، إن الصور التي أنشأها الذكاء الاصطناعي أصبحت نابضة بالحياة لدرجة أنه في بعض الحالات يصعب تحديد ما إذا كان الأطفال الحقيقيون قد تعرضوا لأضرار حقيقية بسبب إنتاجها.
وأشاروا إلى أنه يمكن لنموذج واحد للذكاء الاصطناعي أن يولد عشرات الآلاف من الصور الجديدة في فترة زمنية قصيرة، وقد بدأ هذا المحتوى في إغراق شبكة الإنترنت المظلمة والتسرب إلى شبكة الإنترنت الرئيسية.
أضرار الذكاء الاصطناعي على الأطفال
ورصدت التقارير صورا لطفل حقيقي تم إنشاؤها بواسطة الذكاء الاصطناعي، تظهره وكأنه تعرض للاعتداء الجنسي.
وقالت كريستينا كوروبوف، كبيرة المحامين في مشروع Zero Abuse Project -هي منظمة غير ربحية مقرها مينيسوتا تعنى بسلامة الأطفال: "لقد تم وضع صورهم على وجه طفل تعرض للإيذاء.. ولكن الآن أصبح وجههم على طفل تعرض للإيذاء".
وتابعت: "في بعض الأحيان، نتعرف على الفراش أو الخلفية في مقطع فيديو أو صورة، أو الجاني، أو المسلسل الذي جاءت منه، ولكن الآن يوجد وجه طفل آخر مثبت عليه".
وهناك بالفعل عشرات الملايين من التقارير التي يتم إعدادها كل عام عن مواد الاعتداء الجنسي على الأطفال الواقعية (CSAM) التي يتم إنشاؤها ومشاركتها عبر الإنترنت كل عام، والتي تكافح مجموعات السلامة وجهات إنفاذ القانون للتحقيق فيها.
وقال أحد المدعين العامين في وزارة العدل، الذي تحدث شريطة عدم الكشف عن هويته لأنه غير مخول له التحدث علناً: “نحن نغرق في هذه الأشياء بالفعل.. من وجهة نظر إنفاذ القانون، تعد الجرائم ضد الأطفال واحدة من أكثر المجالات التي تعاني من نقص الموارد، وسيكون هناك انفجار في محتوى الذكاء الاصطناعي".
في العام الماضي، تلقى المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) تقارير عن المحتالين الذين يستخدمون الذكاء الاصطناعي بعدة طرق مختلفة، مثل إدخال رسائل نصية لإنشاء صور إساءة معاملة الأطفال، وتغيير الملفات التي تم تحميلها مسبقًا لجعلها جنسية م ومسيئة، وتحميلها.
ويشعر الخبراء والمدعون العامون بالقلق إزاء محاولة المجرمين التهرب من اكتشافهم باستخدام الذكاء الاصطناعي التوليدي لتغيير صور الطفل ضحية الاعتداء الجنسي.