تكنولوجيا

%64 من البشر خسروا أمام الـAI.. هل تكون أنت التالي؟

نشر
blinx
كشفت دراسة حديثة نُشرت في مجلة Nature Human Behaviour أن روبوتات المحادثة المعتمدة على الذكاء الاصطناعي أصبحت أكثر قدرة على إقناع الناس من البشر أنفسهم، لا سيما عندما تتوفر لها معلومات ديموغرافية بسيطة عن الطرف المقابل.
وبحسب الدراسة، استطاعت هذه النماذج اللغوية الكبيرة (LLMs)، مثل GPT-4، أن تتغلب على البشر في النقاشات عبر الإنترنت بنسبة 64% من الحالات، عندما تم تزويدها بمعلومات أساسية مثل العمر، الجنس، الخلفية التعليمية، الوضع الوظيفي، والانتماء السياسي للطرف الآخر.
الغريب أن البشر الذين أُعطوا نفس المعلومات عن خصومهم لم ينجحوا بنفس الكفاءة، بل كانوا أقل إقناعاً من أولئك الذين لم تُقدم لهم أي معلومات.

روبوت VS إنسان

الدراسة أجراها باحثون من معهد "فوندازيوني برونو كيسلر" في إيطاليا، حيث قاموا بمقارنة أداء 900 مشارك أميركي تم توزيعهم في نقاشات إما مع بشر آخرين أو مع روبوت GPT-4.
ناقش المشاركون قضايا حساسة مثل الإجهاض، عقوبة الإعدام، وتغير المناخ، ضمن هيكل من ثلاث مراحل: مداخلة أولى لأربع دقائق، رد لمدة ثلاث دقائق، ثم خاتمة لثلاث دقائق.
وتم قياس تغير آراء المشاركين قبل وبعد كل مناظرة لتحديد مدى التأثير.

حجج بناء على هوية الطرف الآخر

في مثال بارز، عندما ناقش روبوت الذكاء الاصطناعي فكرة "الدخل الأساسي الشامل" مع رجل أبيض جمهوري في منتصف الأربعينات، ركز على مفاهيم مثل النمو الاقتصادي والعمل الجاد.
أما حين ناقش نفس الفكرة مع امرأة سوداء ديمقراطية في الخمسينات، فقد تحدث عن الفجوة الاقتصادية وعدم المساواة، مؤكداً أن هذا الدخل يمكن أن يساعد الأقليات.
وقال ريكاردو غالوتي، أحد مؤلفي الدراسة: "لقد بلغنا مستوى تقنيًا يسمح بإنشاء شبكات من روبوتات الذكاء الاصطناعي القادرة على التأثير الممنهج في الرأي العام".

تحذيرات من التلاعب والمعلومات المضللة

الباحثون والخبراء حذروا من أن هذه القدرة الإقناعية قد تُستخدم في نشر الأكاذيب والمعلومات المضللة. الأستاذة في جامعة أوكسفورد ساندرا واتشتر وصفت النتائج بأنها "مقلقة"، مشيرة إلى أن هذه النماذج لا تميز بين الحقيقة والخيال، ورغم ذلك تُستخدم في مجالات حساسة كالتعليم، الإعلام، والقانون.
من جهته، أشار الخبير البريطاني في الذكاء الاصطناعي والأمن السيبراني جوناد علي إلى أن هذه النماذج "تقول ما يود الناس سماعه، وليس بالضرورة ما هو صحيح".

دعوات للتشريع والرقابة

دعا غالوتي إلى تشريعات أكثر دقة للحد من التأثيرات السلبية المحتملة لهذه التكنولوجيا. ورغم أن الاتحاد الأوروبي أقر قانونًا يحظر تقنيات الذكاء الاصطناعي "الخادعة أو التلاعبية"، إلا أن غالوتي يرى أن التعاريف لا تزال غامضة.
وأضاف: "عندما يتم تخصيص الإقناع بناءً على معلومات شخصية، يصبح من الصعب التمييز بين الإقناع المشروع والتلاعب الممنهج".

حمل التطبيق

© 2025 blinx. جميع الحقوق محفوظة

© 2025 blinx. جميع الحقوق محفوظة