جدل واسع بعد تحول أداة “سورا 2” من OpenAI لإنتاج محتوى مسيء وعنصري

في الوقت الذي يتحدث فيه كبار عمالقة التكنولوجيا عن مستقبل أكثر ابتكاراً بفضل الذكاء الاصطناعي، تفجّرت موجة جدل واسعة بعد أن تحولت أداة “سورا 2” من OpenAI إلى منصة لإنتاج محتوى مسيء ومحمّل بالعنصرية والتنمر على الوزن.
القصة بدأت عندما أشاد الرئيس التنفيذي لشركة نتفليكس، تيد ساراندوس، بقدرات الذكاء الاصطناعي وما يوفره من أدوات تساعد على رواية القصص بشكل أسرع وأفضل.
لكن الواقع على الأرض بدا مختلفاً، إذ غمرت مواقع التواصل الاجتماعي سيل من المقاطع الساخرة القاسية المنتجة عبر “سورا 2″، والتي تستهدف أشخاصاً بسبب مظهرهم أو عرقهم، بحسب تقرير نشره موقع “digitaltrends” واطلعت عليه “العربية Business”.
من بين أكثر الأمثلة انتشاراً، مقطع تخطى حاجز المليون مشاهدة يظهر امرأة بدينة أثناء قفزها بالحبال قبل أن ينهار الجسر تحتها في مشهد مصنوع رقمياً بالكامل. وفي مقطع آخر يظهر امرأة سمراء تسقط داخل مطعم وجبات سريعة، في تلميح يجمع بين التنمر على الوزن والتمييز العرقي. كما ظهرت فيديوهات أخرى لسائقي توصيل ينهار بهم مدخل المنزل أو أشخاص ينتفخون بعد تناول الطعام.
المقلق أكثر أن عدداً كبيراً من المتابعين اعتقد أن هذه المقاطع حقيقية، بفضل جودة سورا 2 التي تجعل من الصعب التمييز بين المشاهد المصطنعة والواقعية.
ويرى خبراء أن المشكلة لا تتوقف عند حدود الذوق السيئ، بل تكمن في أن أدوات الذكاء الاصطناعي باتت تمكّن أي شخص، مهما كانت نواياه، من إنتاج محتوى مسيء بكميات هائلة وفي ثوانٍ معدودة، بعدما كان الأمر يحتاج سابقاً إلى خبرات وتقنيات وإنتاج معقد.
وتكشف هذه الظاهرة، بحسب مراقبين، عن فشل أدوات الحماية والضوابط التي تتحدث عنها شركات الذكاء الاصطناعي، والتي يُفترض أن تمنع نشر المحتوى العنصري والمسيء، إلا أن المقاطع المنتشرة حالياً تثبت العكس.




