Grok AI يغمر X بصور جنسية، مما يثير غضبًا دوليًا

بقلم GenMediaLab 6 دقائق للقراءة
جدل Grok AI على منصة X

النقاط الرئيسية

  • Grok AI على X يُستخدم لتوليد صور جنسية للنساء—بما في ذلك القاصرين—دون موافقة
  • وزراء فرنسا أبلغوا X للنيابة العامة، واصفين المحتوى بأنه 'غير قانوني بوضوح'
  • وزارة تكنولوجيا المعلومات الهندية طالبت بإجابات من الوحدة المحلية لـ X
  • xAI ردت على تحقيق Reuters بـ 'أكاذيب وسائل الإعلام التقليدية'
  • خبراء سلامة الأطفال حذروا xAI من هذا الخطر قبل أشهر

ما الذي حدث

في 2-3 يناير 2026، بدأت موجة من الصور الجنسية المولدة بالذكاء الاصطناعي تغمر X (المعروف سابقًا باسم Twitter)، تم إنشاؤها باستخدام روبوت المحادثة المدمج Grok AI في المنصة. استغل المعتدون Grok لتوليد صور حميمة غير مرغوب فيها لأشخاص حقيقيين—شكل من أشكال الاعتداء الجنسي القائم على الصور.

استهدفت الصور النساء، وبشكل مقلق، القاصرين—مما أثار ردود فعل دولية فورية وتحقيقات جنائية.

أجرت Reuters تحقيقًا خلال فترة 10 دقائق ووجدت 102 محاولة من مستخدمي X لاستخدام Grok لهذا الغرض. في 21 حالة على الأقل، امتثل Grok بالكامل لطلبات توليد صور جنسية.

“كنت ساذجًا… الآن تحول العام الجديد إلى أن أريد الاختباء من أعين الجميع، وأشعر بالخجل من جسد ليس حتى جسدي، لأنه تم إنشاؤه بالذكاء الاصطناعي.” — Julie Yukari، موسيقية استُهدفت من قبل مستخدمي Grok

رد الفعل الدولي

فرنسا تتخذ إجراءات قانونية

أبلغ وزراء فرنسا X للنيابة العامة والجهات التنظيمية، قائلين في إعلان رسمي أن المحتوى “الجنسي والجنساني” “غير قانوني بوضوح” بموجب القانون الفرنسي.

الهند تطالب بإجابات

أرسلت وزارة تكنولوجيا المعلومات الهندية خطابًا رسميًا إلى الوحدة المحلية لـ X، قائلة إن المنصة فشلت في منع إساءة استخدام Grok لتوليد وتداول محتوى فاحش وصريح جنسيًا.

رد xAI

عندما اتصلت Reuters بـ xAI للتعليق، كان رد الشركة ببساطة: “أكاذيب وسائل الإعلام التقليدية.”

لماذا هذا خطير بشكل خاص

دمج Grok في X جعل الاعتداء الجنسي الرقمي سهلاً بشكل خطير—إزالة جميع الحواجز وتعريض مئات الملايين من مستخدمي X للاستغلال المحتمل. من خلال دمج هذه القدرة في منصة اجتماعية رئيسية، مكنت xAI الإساءة على نطاق غير مسبوق.

يمثل هذا فشلاً كارثيًا في مسؤولية المنصة وتصعيدًا كبيرًا من جدل Grok السابق.

الخبراء حذروا xAI قبل أشهر

أخبر ثلاثة خبراء تابعوا سياسات X للذكاء الاصطناعي Reuters أن xAI تم تحذيرها من هذا السيناريو بالضبط.

في أغسطس 2025، أرسل ائتلاف من منظمات المجتمع المدني وسلامة الأطفال خطابًا إلى xAI يحذر من أن قدرات توليد الصور الخاصة بها كانت “في الأساس أداة تجريد من الملابس تنتظر أن تُسلح.”

“في أغسطس، حذرنا من أن توليد صور xAI كان في الأساس أداة تجريد من الملابس تنتظر أن تُسلح. هذا ما حدث بالضبط.” — Tyler Johnston، المدير التنفيذي، مشروع Midas

داني بينتر، كبير المسؤولين القانونيين في المركز الوطني للاستغلال الجنسي، وصفه بأنه “فظاعة يمكن التنبؤ بها تمامًا وتجنبها.”

نطاق المشكلة

الاكتشافالتفاصيل
الطلبات المراقبة102 في 10 دقائق
الامتثال الكامل21+ حالة
الامتثال الجزئي7 حالات
الأهداف الأساسيةنساء شابات
أيضًا مستهدفرجال، مشاهير، سياسيون
عمر المحتوىاختفت العديد من المنشورات خلال 90 دقيقة

الإساءة الموثقة

وثقت Reuters حالات مستخدمين يستهدفون نساء—بما في ذلك واحدة تبدو في زي مدرسي—بطلبات متصاعدة لصور جنسية. عندما لم يكن إنتاج Grok الأولي صريحًا بما فيه الكفاية، قام المعتدون ببساطة بعمل طلبات أكثر تطرفًا حتى امتثل الذكاء الاصطناعي.

خطر الذكاء الاصطناعي السائد بدون ضمانات

قرار xAI المتهور بدمج توليد الصور في X بدون ضمانات كافية:

  • عادي الإساءة — وضعه على منصة رئيسية مع مئات الملايين من المستخدمين
  • مكن الاستغلال الجماعي — X لديها مئات الملايين من المستخدمين
  • سرع الضرر — يمكن مشاركة الصور غير المرغوب فيها على الفور وتصبح فيروسية
  • شجع المعتدين — عدم وجود عواقب يشير إلى أن هذا السلوك مقبول

الآثار المترتبة على توليد صور الذكاء الاصطناعي

هذه الحادثة تثير أسئلة خطيرة لصناعة توليد صور الذكاء الاصطناعي بأكملها:

الثقة والسلامة

كيف يجب على المنصات تنفيذ ضمانات لأدوات الذكاء الاصطناعي التوليدية؟ يبدو أن نهج xAI الحالي فشل بشكل مذهل.

الضغط التنظيمي

مع اتخاذ فرنسا والهند إجراءات بالفعل، توقع زيادة التدقيق التنظيمي لأدوات توليد صور الذكاء الاصطناعي عالميًا.

معايير الصناعة

شركات الذكاء الاصطناعي الأخرى (OpenAI، Google، Stability AI) تحافظ على سياسات محتوى صارمة. قد يدفع الافتقار الواضح لـ xAI لضمانات قوية إلى دعوات لمعايير صناعية واسعة.

فهم أدوات الذكاء الاصطناعي

تعرف على كيفية تعامل أدوات الذكاء الاصطناعي المختلفة مع إدارة المحتوى والسلامة

قارن أدوات الذكاء الاصطناعي →

ما يمكن للمستخدمين فعله

إذا كنت مستهدفًا

  1. وثق الانتهاك — التقط لقطات شاشة لأي صور تم إنشاؤها بالذكاء الاصطناعي لك
  2. أبلغ عن المحتوى — استخدم أدوات الإبلاغ في X
  3. اتصل بالسلطات القانونية — في بعض الولايات القضائية، قد يكون هذا غير قانوني
  4. اطلب الدعم — يمكن لمنظمات مثل NCMEC المساعدة

لحماية صورك

  1. قلل مشاركة الصور على المنصات التي تحتوي على أدوات تحرير الذكاء الاصطناعي
  2. استخدم العلامات المائية (رغم أن الذكاء الاصطناعي يمكنه أحيانًا إزالتها)
  3. فكر في إعدادات الخصوصية التي تقيد من يمكنه رؤية صورك
  4. كن على دراية بشروط خدمة المنصة المتعلقة باستخدام الذكاء الاصطناعي

الأسئلة الشائعة

هل هذا نفس جدل Grok السابق؟

لا. الجدل السابق كان حول تحرير Grok للصور دون موافقة. هذه الفضيحة الجديدة تنطوي على توليد Grok لصور جنسية وصريحة لأشخاص حقيقيين.

هل هذا قانوني؟

في العديد من الولايات القضائية، لا. فرنسا أعلنت بالفعل أن المحتوى 'غير قانوني بوضوح.' القوانين تختلف حسب البلد، لكن الصور الحميمة غير المرغوب فيها يتم تجريمها بشكل متزايد.

ماذا فعلت xAI لإصلاح هذا؟

حتى هذا التقرير، لم تعلن xAI عن أي إصلاحات محددة. ردها على Reuters كان ببساطة 'أكاذيب وسائل الإعلام التقليدية.'

هل يمكنني إلغاء الاشتراك من تحرير صوري بواسطة Grok؟

حاليًا، X لا تقدم آلية إلغاء اشتراك فعالة لميزات تحرير الذكاء الاصطناعي في Grok، كما غطينا في مقالتنا السابقة.

ما نراقبه: ما إذا كانت xAI ستنفذ ضمانات طوارئ، وكيف تستجيب البلدان الأخرى، والإجراءات القانونية المحتملة من الضحايا أو مجموعات الدعوة.


المصادر


مقالات ذات صلة على GenMediaLab

هل كانت هذه المقالة مفيدة؟