أعدّت "إيركيك" التي تجري حاليا دراسة سريرية، بحسب باي، تنبيهات في حالة الأزمة أو الأفكار الانتحارية، يرصدها نموذج الذكاء الاصطناعي في المحادثة.
ويقول باي "إن الحالات الخطرة جدا لا يمكن معالجتها بالذكاء الاصطناعي. نحن هنا للدعم اليومي". ويضيف إنّ "الاتصال بالمعالج النفسي عند الساعة الثانية ليلا أمر غير ممكن"، بينما يكون روبوت الدردشة متاحا على مدار الساعة طوال أيام الأسبوع.
يعاني دارين من اضطراب ما بعد الصدمة، ويستخدم برنامج "تشات جي بي تي" الذي على عكس "ايركيك" و"تيرابوت" ليس مصمما خصيصا للصحة النفسية.
ويقول "أشعر أن الأمر يسير بشكل جيد لي"، مع أنه يأمل في بدء جلسات مع معالج بشري قريبا. ويوضح "أوصي به للأشخاص الذين يعانون من قلق ومحنة".
تقول دارلين كينغ من الجمعية الأميركية للطب النفسي "إذا كان من الممكن استخدام هذه التكنولوجيا بأمان تحت إشراف متخصص، فأرى فيها إمكانات كبيرة"، مشيرة إلى أن التطبيقات المتداولة حاليا لا تُستخدم تحت إشراف متخصص. وتضيف "قبل أن نتمكن من دعم الذكاء الاصطناعي التوليدي للعلاج، يتعيّن الإجابة على أسئلة كثيرة عالقة بشأن الفوائد والمخاطر".
ويشير رايت إلى أن "هذه المنتجات ابتُكرت بهدف الربح"، وبالتالي تسعى النماذج إلى "إبقاء المستخدمين على المنصة لأطول فترة ممكنة، من خلال إخبارهم بالضبط بما يريدون سماعه". وهي ظاهرة تؤكد أن الأطفال أكثر عرضة لها.
ويريد مايكل هاينز ونيك جاكوبسون أن يكون "تيرابوت" أداة غير ربحية لتجنب هذه الانتهاكات المحتملة وجعل الخدمة متاحة "للناس حتى لو كانوا عاجزين عن الدفع للحصول عليها"، بحسب هاينز. ويتابع "في بعض الأحيان يكون هؤلاء بحاجة إلى مساعدة أكثر من غيرهم".