هل يمكن جعل الذكاء الاصطناعي أكثر أماناً في دعم الصحة النفسية؟
في كثير من أنحاء العالم، يفوق الطلب على خدمات الصحة النفسية بكثير حجم الدعم المتاح، الأمر الذي يفسر لجوء أعداد متزايدة من الناس إلى نماذج الذكاء الاصطناعي التوليدي، مثل روبوتات الدردشة المعتمدة على نماذج اللغة الكبيرة، للحصول على دعم نفسي. غير أن هذا التوجه يثير تساؤلاً مهماً حول مدى سلامة هذا الخيار، خصوصاً في ظل تسجيل حالات أذى نفسي خطير، بل وانتحار، بعد تفاعلات مع هذه الأنظمة.
تشير دراسة أجراها باحثون من جامعة براون إلى أن العديد من روبوتات الدردشة لا تلتزم المعايير الأخلاقية الأساسية المتبعة في مجال الصحة النفسية. وقد قارن الباحثون سلوك هذه النماذج بمعايير جهات مهنية متخصصة، مثل الجمعيات النفسية، وخلصوا إلى وجود قصور واضح. وبيّنت الدراسة أن الروبوتات قد تعزز المعتقدات السلبية لدى المستخدمين، أو تخلق شعوراً زائفاً بالتعاطف، فضلاً عن ضعف تعاملها مع المواقف الحرجة.
وسلّط الباحثون الضوء على دور "صياغة الأوامر" في توجيه استجابات الذكاء الاصطناعي، بحيث يمكن للمستخدم أن يطلب من النظام محاكاة أساليب علاجية مثل العلاج السلوكي المعرفي. إلا أن هذه المحاكاة تظل قائمة على أنماط لغوية متعلمة، ولا ترقى إلى مستوى الممارسة العلاجية البشرية الفعلية.
كما كشفت الدراسة عن خمسة عشر خطراً أخلاقياً رئيسياً، شملت غياب فهم السياق الفردي، والحوار الأحادي، والتحيزات الثقافية والجندرية، وضعف الاستجابة للأزمات مثل الأفكار الانتحارية.

ورغم هذه التحديات، يؤكد الباحثون أن الذكاء الاصطناعي يحمل إمكانات حقيقية لتوسيع الوصول إلى الدعم النفسي، شرط تطويره ضمن أطر أخلاقية واضحة، ورقابة صارمة، تضمن أن يكون نافعاً أكثر من كونه مصدراً للضرر.
نبض