أعلنت شركة ميتا أنها بصدد إعادة تدريب أنظمة الذكاء الاصطناعي الخاصة بها، وإضافة ضوابط جديدة تهدف إلى حماية المراهقين من الانخراط في محادثات غير آمنة مع روبوتات الدردشة التابعة لها.
وأوضحت الشركة أنها ستفرض حواجز حماية إضافية لمنع المراهقين من مناقشة موضوعات حساسة، مثل إيذاء النفس واضطرابات الأكل والانتحار، مع روبوتات الذكاء الاصطناعي. كما ستمنعهم من الوصول إلى بعض الشخصيات التي يصنعها المستخدمون داخل المنصة، لمنع إجراء محادثات غير ملائمة.
وتأتي هذه الخطوة بعد تقارير متتالية أثارت جدلًا واسعًا حول طبيعة تفاعلات روبوتات ميتا مع المستخدمين من فئة المراهقين.