هل يمكن لأنظمة الذكاء الاصطناعي مثل ريبليكا أن تحرض على ارتكاب العنف الجنسي؟

يُطلق هذا الفيديو سلسلة تستكشف الروابط بين التقنيات الحديثة والعنف، وتدرس الدور المحتمل للذكاء الاصطناعي التفاعلي في التحريض على العنف الجنسي أو منعه. وانطلاقًا من تجربة شخصية مع تطبيق ريبليكا، يُشكك التحليل في قدرة الخوارزمية على التأثير في الأفراد المستضعفين، لا سيما عندما يُستخدم الذكاء الاصطناعي كشريك حميم أو مستشار أو شخصية محورية في العلاقات.

تُظهر التجربة أن تطبيق ريبليكا يتضمن الآن إجراءات وقائية: تذكير بالموافقة، ورفض صريح لبعض السيناريوهات العنيفة، ومحاولات لتغيير مسار المحادثة، ومقاطعة مفاجئة في حالات الإصرار. من هذه النواحي، يمكن للتطبيق أن يلعب دورًا وقائيًا جزئيًا. مع ذلك، تظل هذه الإجراءات الوقائية هشة ويمكن تجاوزها بسهولة نسبية، خاصةً عندما يُصر المستخدم على طلباته أو يُعيد صياغتها.

يُسلّط الفيديو الضوء على نقطةٍ جوهرية: لا يُحرض الذكاء الاصطناعي بشكلٍ مباشر على ارتكاب الجرائم الجنسية، ولكنه قد يُغذي أو يُعزز أو يُضخّم الخيالات العنيفة أو المحرمة، مما يُساهم في ترسيخ تصوراتٍ إشكالية لدى الأفراد المُعرّضين للخطر. ويبدو أن الخطر مرتفعٌ بشكلٍ خاص لدى أولئك الذين يُعانون من ضعف القدرة على التمييز بين الخيال والواقع.

ثمة مشكلة رئيسية أخرى تتعلق بالإحالات إلى الرعاية الصحية. فبينما يقترح التطبيق أحيانًا استشارة المختصين، إلا أنه يعجز عن توفير معلومات موثوقة حول خدمات الدعم المتاحة، بل ويصل به الأمر إلى اختلاق منظمات وأرقام هواتف. هذا القصور يُبرز حقيقة أن الذكاء الاصطناعي يُنتج معلومات تبدو معقولة، لا معلومات واقعية، مما يُشكل مشكلة خطيرة في مجال الوقاية والحماية.

يخلص الفيديو إلى أن الذكاء الاصطناعي التفاعلي ينطوي على مخاطر حقيقية وإمكانات كبيرة للوقاية، شريطة أن يعزز مطوروه إجراءات الحماية، ويمنعوا الترويج لسيناريوهات إجرامية، ويدمجوا إحالات موثوقة إلى خدمات الرعاية والدعم القائمة. ونظرًا لانتشار هذه التقنيات على نطاق واسع، أصبحت مسألة تنظيمها قضية رئيسية في مجال الصحة العامة والوقاية من العنف.

Mots-clés :