التخطي إلى المحتوى

خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى
#خبراء #صور #الاعتداء #على #الأطفال #المفبركة #أصحبت #أكثر #واقعية #بالذكاء #الاصطناعى

الحلم نيوز :
خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى

الحلم نيوز : 
                                            خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى
الحلم نيوز :
خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى


الحلم نيوز :
خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى

أفادت مؤسسة مراقبة الإنترنت (IWF) بأن صور الاعتداء الجنسي على الأطفال المُنتجة بواسطة الذكاء الاصطناعى أصبحت “أكثر واقعية بشكل ملحوظ”، وأشارت المؤسسة إلى أن التقدم في مجال الذكاء الاصطناعي ينعكس في المحتوى غير القانوني الذي يُنتجه ويستهلكه مُتحرشو الأطفال، قائلةً: “في عام 2024، تحسنت جودة مقاطع الفيديو المُنتجة بواسطة الذكاء الاصطناعي بشكل كبير، وبدت جميع أنواع صور الذكاء الاصطناعي التي تم تقييمها أكثر واقعية بشكل ملحوظ مع تطور التكنولوجيا”.

 

وكشفت مؤسسة مراقبة الإنترنت في تقريرها السنوي أنها تلقت 245 بلاغًا عن صور اعتداء جنسي على الأطفال مُنتجة بواسطة الذكاء الاصطناعي، والتي تُخالف القانون البريطاني في عام 2024 – بزيادة قدرها 380% عن 51 بلاغًا في عام 2023.

 

وبلغت هذه البلاغات 7644 صورة وعددًا صغيرًا من مقاطع الفيديو، مما يعكس أن رابطًا واحدًا قد يحتوي على أمثلة متعددة لمواد غير قانونية.

وكانت النسبة الأكبر من تلك الصور مواد من “الفئة أ”، وهو المصطلح الذي يُطلق على أكثر أنواع محتوى الاعتداء الجنسي على الأطفال تطرفًا.

وشكّلت هذه النسبة 39% من مواد الذكاء الاصطناعي القابلة للمساءلة التي اطلعت عليها مؤسسة مراقبة الإنترنت.

وأعلنت الحكومة البريطانية في فبراير أنه سيصبح من غير القانوني امتلاك أو إنشاء أو توزيع أدوات الذكاء الاصطناعي المصممة لإنتاج مواد الاعتداء الجنسي على الأطفال، مما سدّ ثغرة قانونية أثارت قلق الشرطة ونشطاء السلامة على الإنترنت، كما سيصبح من غير القانوني لأي شخص امتلاك أدلة إرشادية تُعلّم الناس كيفية استخدام أدوات الذكاء الاصطناعي لإنتاج صور مسيئة أو لمساعدتهم على إساءة معاملة الأطفال.

وأفادت مؤسسة مراقبة الإنترنت، التي تُدير خطًا ساخنًا في المملكة المتحدة ولها نطاق عالمي، أن الصور المُولّدة بالذكاء الاصطناعي تظهر بشكل متزايد على الإنترنت المفتوح، وليس فقط على “الشبكة المظلمة” – وهي مساحة من الإنترنت يُمكن الوصول إليها عبر متصفحات متخصصة.

وأضافت أن أكثر المواد المُولّدة بالذكاء الاصطناعي إقناعًا قد لا يُمكن تمييزها عن الصور ومقاطع الفيديو الحقيقية، حتى بالنسبة لمحللي مؤسسة مراقبة الإنترنت المُدرّبين.

كما أعلن التقرير السنوي للهيئة الرقابية عن مستويات قياسية لصفحات الويب التي تستضيف صور اعتداء جنسي على الأطفال في عام 2024.

وذكرت المؤسسة أنه تم تسجيل 291,273 بلاغًا عن صور اعتداء جنسي على الأطفال العام الماضي، بزيادة قدرها 6% عن عام 2023.

وكانت غالبية الضحايا في البلاغات من الفتيات.

كما أعلنت المؤسسة الرقابية عن توفير أداة أمان جديدة مجانًا للمواقع الإلكترونية الصغيرة، لمساعدتها على رصد ومنع انتشار مواد الاعتداء على منصاتها، وتستطيع هذه الأداة، المسماة Image Intercept، اكتشاف وحجب الصور التي تظهر في قاعدة بيانات المؤسسة التي تحتوي على 2.8 مليون صورة مُصنفة رقميًا على أنها صور إجرامية.

وقالت المؤسسة الرقابية إنها ستساعد المنصات الصغيرة على الامتثال لقانون السلامة على الإنترنت الصادر حديثًا، والذي يتضمن أحكامًا بشأن حماية الأطفال ومعالجة المحتوى غير القانوني مثل مواد الاعتداء الجنسي على الأطفال، وصرح ديريك راي هيل، الرئيس التنفيذي المؤقت للمؤسسة الرقابية، بأن إتاحة الأداة مجانًا تُمثل “لحظة فارقة في مجال السلامة على الإنترنت”.

 

الحلم نيوز :
خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى

الحلم نيوز :
خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى

خبراء: صور الاعتداء على الأطفال المفبركة أصحبت أكثر واقعية بالذكاء الاصطناعى
#خبراء #صور #الاعتداء #على #الأطفال #المفبركة #أصحبت #أكثر #واقعية #بالذكاء #الاصطناعى