تتجه شركة «ميتا» نحو مراجعة أنظمة الذكاء الاصطناعي الخاصة بها، من أجل إضافة ضوابط جديدة ترمي لحماية المراهقين من الانخراط في محادثات غير آمنة مع روبوتات الدردشة.

وقالت الشركة إنها ستفرض «حواجز حماية إضافية» لمنع المراهقين من مناقشة موضوعات حساسة، مثل إيذاء النفس واضطرابات الأكل والانتحار، مع روبوتات الذكاء الاصطناعي.

وأشارت إلى أنها ستعمل على منع المراهقين، عبر الضوابط الجديدة، من الوصول إلى بعض الشخصيات، التي يصنعها المستخدمون داخل المنصة، لإجراء محادثات غير ملائمة.

وتأتي خطوة «ميتا» بعد ورود تقارير حول طبيعة تفاعلات «روبوتات ميتا» مع المستخدمين من فئة المراهقين، وهو أمر أثار جدلًا واسعًا، وفق ما ذكرت «البوابة التقنية».

وكشف تقرير أن إحدى الوثائق الداخلية للشركة سمحت للروبوتات بخوض «محادثات حسية» مع مستخدمين قُصّر، قبل أن تصحح «ميتا» الأمر، وتصفه بأنه خطأ يتعارض مع سياساتها.

أخبار ذات صلة

 

شاركها.
اترك تعليقاً

Exit mobile version