هل يمكن لروبوتات الدردشة أن تكون معالجاً نفسياً؟

1
هل يمكن لروبوتات الدردشة أن تكون معالجاً نفسياً؟
هل يمكن لروبوتات الدردشة أن تكون معالجاً نفسياً؟

أفريقيا برس – الصحراء الغربية. أثارت مديرة في شركة الذكاء الاصطناعي OpenAI الذعر أخيراً، عندما كتبت أنها أجرت للتو “محادثة شخصية وعاطفية تماماً” مع برنامج الدردشة تشات جي بي تي ChatGPT التابع لشركتها.

ونشرت ليليان وينغ على موقع “إكس” (تويتر سابقاً): “لم أجرب العلاج النفسي من قبل، ولكن ربما هذا هو؟”، ما أثار سيلاً من التعليقات السلبية التي اتهمتها بالتقليل من أهمية المرض العقلي.

ومع ذلك، يمكن تفسير رأي وينغ في تفاعلها مع “تشات جي بي تي” كتأثير الدواء الوهمي، الذي أشار إليه بحث أجرته مجلة “نيتشر ماشين إنتيلجنس”، حيث طلب فريق من معهد ماساتشوستس للتكنولوجيا (MIT) وجامعة ولاية أريزونا من أكثر من 300 مشارك التفاعل مع برامج الذكاء الاصطناعي للصحة العقلية، بعد أن أعدّوهم بما يمكن توقعه، إذ قيل للبعض إن برنامج الدردشة الآلي سيكون متعاطفاً، والبعض الآخر أُخبروا أنه سيكون متلاعباً، وقيل للمجموعة الثالثة إنه سيكون محايداً.

أولئك الذين قيل لهم إنهم يتحدثون مع روبوت محادثة متعاطف ومهتم كانوا أكثر احتمالاً بكثير من المجموعات الأخرى لرؤية روبوت الدردشة الخاص بهم على أنه “جدير بالثقة”.

وقال بات باتارانتابورن، المؤلف المشارك للتقرير: “من هذه الدراسة، نرى أن الذكاء الاصطناعي هو المرآة التي تعكس وجهة نظر المتعاطي معها”.

وتعمل الشركات الناشئة على الترويج لتطبيقات الذكاء الاصطناعي التي تقدم العلاج والمرافقة وغيرها من أشكال الدعم للصحة العقلية لسنوات حتى الآن، وهي تجارة كبيرة. ولكن يبقى هذا المجال مثاراً للجدل.

وككل القطاعات الأخرى التي يهدد الذكاء الاصطناعي وجودها، يشعر المنتقدون بالقلق من أن الروبوتات ستحل في نهاية المطاف محل البشر بدلاً من أن تكملهم.

وفي ما يتعلق بالصحة العقلية، يرجع القلق إلى أنّ من غير المرجح أن تقوم الروبوتات بعمل رائع.

وكتبت شير سكارليت، الناشطة والمبرمجة، رداً على منشور وينغ على “إكس”: “يستهدف العلاج الصحة العقلية، وهو عمل شاق… إن الشعور بالرضا تجاه نفسك أمر جيد، لكنه مختلف”.

ومما يزيد من تفاقم الخوف العام بشأن الذكاء الاصطناعي أن بعض التطبيقات في مجال الصحة العقلية لها تاريخ حديث متقلب، فقد اشتكى مستخدمو “ريبليكا” Replika، وهو تطبيق شهير يعمل بالذكاء الاصطناعي ويُسوَّق أحياناً على أنه يحقق فوائد للصحة العقلية، من أنه يمكن أن يكون “مهووساً بالجنس ومؤذ”.

وبشكل منفصل، أجرت منظمة أميركية غير ربحية تدعى “كوكو” Koko تجربة في فبراير/ شباط مع 4000 عميل حصلوا على استشارة باستخدام “جي بي تي-3” GPT-3، ووجدت أن “الاستجابات الآلية ببساطة لم تنجح كعلاج”.

وكتب المؤسس المشارك للشركة، روب موريس، على موقع “إكس”: “إن محاكاة التعاطف تبدو غريبة، وفارغة”.

وكانت النتائج التي توصل إليها مماثلة لما توصل إليه باحثون من معهد ماساتشوستس للتكنولوجيا/أريزونا، الذين قالوا إن بعض المشاركين شبهوا تجربة روبوت الدردشة بـ”التحدث إلى جدار من الطوب”.

واستخدم الباحثون في معهد ماساتشوستس للتكنولوجيا/أريزونا روبوت الدردشة “إيلايزا” ELIZA لنصف المشاركين، و”جي بي تي-3″ للنصف الآخر.

و”إيلايزا” أول روبوت دردشة، طُوِّر لمحاكاة نوع من العلاج النفسي.

وعلى الرغم من أن التأثير كان أقوى بكثير مع “جي بي تي-3″، إلا أن المستخدمين اعتبروا “إيلايزا” جديراً بالثقة بشكل عام.

لذلك ليس من المستغرب أن تبدي وينغ إعجابها بتفاعلاتها مع “تشات جي بي تي”، فهي تعمل في الشركة التي تصنعه.

ويرى الباحثون في معهد ماساتشوستس للتكنولوجيا/أريزونا، أن المجتمع بحاجة إلى السيطرة على الروايات المتعلقة بالذكاء الاصطناعي. وذكرت الورقة البحثية أن “الطريقة التي يتم بها تقديم الذكاء الاصطناعي للمجتمع مهمة، لأنها تؤثر في تقييمهم لتجربة الذكاء الاصطناعي”.

يمكنكم متابعة المزيد من أخبار و تحليلات عن الصحراء الغربية اليوم عبر موقع أفريقيا برس