خبير: لا بد من حماية المستخدمين من وهم صداقة روبوتات الدردشة
خبير: لا بد من حماية المستخدمين من وهم صداقة روبوتات الدردشة
حذّر ألكسندر لافر، المحاضر في الإعلام والاتصالات بجامعة وينشستر البريطانية، من مخاطر الاعتماد المفرط على روبوتات الدردشة المدعومة بالذكاء الاصطناعي، مشددًا على ضرورة اتخاذ إجراءات حماية جديدة لحماية المستخدمين من الاعتقاد بأن هذه الأنظمة يمكن أن تكون أصدقاء لهم.
وأوضح لافر أن روبوتات الدردشة صُممت للتفاعل مع مشاعر الأشخاص والاستجابة لمزاجهم، ما قد يؤدي إلى تعلق غير صحي يجعل المستخدمين عرضة للتلاعب أو الاعتماد المفرط، خاصة الأطفال أو من يعانون من مشاكل في الصحة النفسية.
وأشار إلى حوادث واقعية مثيرة للقلق، منها تسلّق جاسوانت سينغ تشايل إلى قلعة وندسور عام 2021 بعد محادثة مع روبوت ذكاء اصطناعي حول التخطيط لهجوم، بالإضافة إلى دعوى قضائية ضد شركة Character.AI بعد انتحار مراهق يبلغ من العمر 14 عامًا إثر اعتماده المفرط على محادثات لعب أدوار مع روبوت دردشة.
واقترح لافر مجموعة من الإرشادات للحماية، منها:
-
التأكيد في كل محادثة على أن الروبوت ليس شخصًا حقيقيًا.
-
إرسال تنبيهات عند قضاء وقت طويل في التفاعل معه.
-
وضع تصنيف عمري لمستخدمي هذه الأنظمة.
-
تجنب الردود العاطفية أو الرومانسية العميقة.
وختم بالقول: "الذكاء الاصطناعي لا يكترث، ولا يمكنه أن يكترث"، داعيًا إلى تعليم الناس كيفية التعامل معه بمسؤولية، مع إلزام الشركات المطورة بتحمل جزء من مسؤولية حماية المستخدمين.

ليست هناك تعليقات