هوش مصنوعی و روان‌شناسی، ایجاد تعادل بین نوآوری و اخلاق

 

سارا فرانسس گوردُن*

هوش مصنوعی (AI) با دگرگون کردن شیوه‌های عرضه خدمات سلامت روان و انجام پژوهش‌های مرتبط، تحول مهمی در حوزه روانشناسی ایجاد کرده است. هوش مصنوعی با استفاده از الگوریتم‌ها و داده‌ها، هوش انسانی را شبیه‌سازی می‌کند و ابزارهایی برای تحلیل داده‌ها، خودکارسازی فرآیندها و ارایه درمان‌های شخصی‌سازی شده فراهم می‌آورد(بنتیس رویاس، 2024). این گفتار نقش تحول‌آفرین هوش مصنوعی را در حوزه روانشناسی بررسی کرده و بر تاریخچه کاربردها و ملاحظات اخلاقی به ویژه اینکه هوش مصنوعی چگونه صداقت و راستی را در پژوهش به خطر می‌اندازد تمرکز می‌کند. 

تاریخچه هوش مصنوعی

تکنولوژی هوش مصنوعی کامپیوترها را توانا می‌کند که با تکیه بر الگوریتم‌های پیشرفته و مجموعه‌ای از داده‌های گسترده، وظایفی را انجام دهند که به‌طور معمول به هوش انسانی نیاز دارند. ازنخستین پیشگامان این حوزه آلن تورینگ بود که در سال ۱۹۵۰ با معرفی « آزمون تورینگ» و طرح پرسش مشهور خود که « آیا ماشین‌ها می‌توانند بیندیشند؟ » (تورینگ، 1950) بنیانی نظری برای سنجش توانایی اندیشیدن در ماشین‌ها بنا نهاد. پرسش او سرآغاز دورانی نوین در شکل‌گیری هوش مصنوعی بود. 

 در سال ۱۹۵۶ در کنفرانس دارتموس جان مک کارتی، ماروین مینسکی، ناتانیلروچستر و کلود شانون اصطلاح هوش مصنوعی را برای نخستین‌بار به کار بردند و یک پروژه پژوهشی تابستانی را با محوریت مطالعه هوش و ماشینی پیشنهاد کردند (بنتیزروخاس، 2024). از مهم‌ترین دستاوردهای اولیه این حوزه می‌توان به توسعه الیزا در سال ۱۹۶۵- نخستین چت‌بات جهان- و نیز برنامه پیروزی برنامه«آبی عمیقِ » شرکت‌ای. بی. ام در قلمرو شطرنج بر‌گری کاسپاروف در سال ۱۹۹۷ اشاره کرد (بنتیزروخاس، 2024؛ تامپسون، 2022). روند تکامل هوش مصنوعی در دهه‌های بعدی شتاب بیشتری گرفت. از سال 2016 و همزمان با تأسیس Open AIموج تازه‌ای از پیشرفت‌های ساختاری در این حوزه آغاز شد. پیروزی آلفاگو بر لی سدول (1) در سال 2017 نقطه عطف مهمی در توانمندی‌های«یادگیری تقویتی عمیق» بود. معرفی مدل‌های مولّد مانند جی پی تی-وان در سال ۲۰۱۸ و سپس چت جی‌پی‌تی در سال ۲۰۲۲ عرصه ارتباط انسان و ماشین را به‌طور بنیادین دگرگون کرد. این دگرگونی‌ها تا سال ۲۰۲۳ و با توسعه چت جی‌پی‌تی و سایر مدل‌های زبانی بزرگ (LLM) با سرعت چشمگیری ادامه یافت. 

رابطه هوش مصنوعی با روانشناسی

با افزایش و گسترش نقش و اهمیت هوش مصنوعی، ضروری است که ظرفیت این تکنولوژی را در دگرگون‌سازی حوزه روانشناسی به درستی مورد توجه قرار دهیم. در آگوست ۲۰۲۴ انجمن روانشناسی امریکا بیانیه‌ای سیاست‌گذارانه منتشر کرد که در آن تأکید شده است که اگرچه هوش مصنوعی می‌تواند ارزیابی، مداخله و پژوهش را در حوزه روانشناسی دگرگون کند اما گسترش و بهره‌گیری از آن باید بر بنیان‌های اخلاقی مبتنی بر حقوق بشر و نیزمعیارهای علمی سختگیرانه استوار باشد. همچنین پژوهشگران برجسته نیز بر این باورند که زیر شاخه جدیدی به نام «روانشناسی و هوش مصنوعی» در حال شکل‌گیری است که بر پایه سه‌دهه پژوهش و پیشرفت در روانشناسی سایبری قرار دارد (کراگلو و مدودف، 2025). این دگرگونی‌ها و پیشرفت‌ها بیانگر افزایش مسوولیت جامعه روانشناسی در راستای ارتقای کاربردهای اخلاقی و عملی هوش مصنوعی در حوزه عمل و پژوهش‌های بالینی است. 

استفاده از هوش مصنوعی در حوزه روانشناسی

روانشناسی در گسترش و به کارگیری هوش مصنوعی نقش اساسی دارد. روانشناسان با بهره‌گیری از چارچوب‌های نظری می‌توانند به اعتبارسنجی الگوریتم‌های تشخیصی، تشخیص سوگیری‌های پنهان در مدل‌های زبانی و ارزیابی پیامدهای اخلاقی و اجتماعی ابزارهای دیجیتال کمک کنند. این همکاری به افزایش دقت تشخیص و ارتقای سطح شخصی‌سازی در مداخلات می‌انجامد (لی و همکاران، 2021). به علاوه، روانشناسان می‌توانند با روش‌های گوناگون از ظرفیت‌های هوش مصنوعی در حوزه تخصصی خود بهره ببرند که در ادامه گسترده‌تر بررسی خواهیم کرد.  

اپلیکیشن‌های سلامت روان دیجیتال

اپلیکیشن‌های سلامت روان دیجیتال شامل دامنه‌ای از مداخلات موبایلی مبتنی بر وب هستند که با بهره‌گیری از تکنولوژی هوش مصنوعی امکان عرضه نوعی پشتیبانی روانی مقیاس‌پذیر، در دسترس و تقاضا محور را برای همه فراهم می‌آورند. با وجود تعداد فراوان این اپلیکیشن‌ها، تنها تعداد محدودی از آن‌ها تاکنون با آزمایش‌های دقیق بالینی و کنترل شده مورد ارزیابی قرار گرفته‌اند (کاسو و همکاران، 2024). 

یادگیری ماشینی و دقت تشخیصی

الگوریتم‌های یادگیری ماشینی این قابلیت را دارند که به روانشناسان یاری رسانند الگوهای پیچیده رفتاری و عصب- روانشناختی را تشخیص دهند و از این طریق دقت تشخیص‌های روانپزشکی را بالا ببرند و پیش‌بینی‌های درمانی را بهتر کنند (لی و همکاران، 2021). 

پردازش زبان طبیعی (NLP) در پژوهش‌های روانشناسی و طب بالینی

پردازش زبان طبیعی از زیر شاخه‌های هوش مصنوعی است که از طریق تحلیل یادداشت‌های بالینی، مصاحبه‌های بیمار، روایت‌نویسی و محتوای تولید شده در رسانه‌های اجتماعی به شناسایی نشانگرهای زبانی مرتبط با پریشانی روانی کمک می‌کند (لی و همکاران، 2012؛ مالگارولی وهمکاران، 2023؛ ژانگ و همکاران، 2022). استفاده از تکنیک‌های پردازش زبان طبیعی امکان شناسایی سیگنال‌های هشدارِ اولیه برای اختلال‌هایی مانند افسردگی و روان‌پریشی را فراهم می‌آورد زیرا با استفاده از این تکنیک‌ها و تحلیل الگوهای زبانی در متن‌ها می‌توان شاخص‌های اولیه بیماری روانی را یافت (ژانگ و همکاران، 2022). با این حال مدل‌های پردازش زبان طبیعی ممکن است دارای سوگیری‌های فرهنگی یا زبانی باشند، به گونه‌ای که برخی گویش‌های غیر استاندارد یا ساختارهای زبانی نامعمول را به اشتباه طبقه‌بندی کنند (لاریچوا و همکاران، 2024).   پردازش زبان طبیعی در پژوهش‌های کیفی مجموعه گسترده‌ای از تکنیک‌ها را بر پایه هوش مصنوعی فراهم می‌آورد، تکنیک‌هایی که می‌توانند تمام مرحله‌های تحلیل متن را، از آماده‌سازی داده‌ها گرفته تا گزارش‌دهی تسهیل کنند. به‌طور ویژه، هوش مصنوعی می‌تواند به صورت خودکار واژه‌های کلیدی و عبارت‌های پرتکرار را با بهره‌گیری از روش‌های آماری و مدل‌های یادگیری ماشینی شناسایی کرده و بیرون بکشد و بدین سان اطلاعات مهم و درون‌مایه‌های ضروری را در مجموعه‌های بزرگ متن برجسته کند. 

کاربرد هوش مصنوعی در پژوهش‌های کیفی روانشناسی

روش‌های گوناگونی برای به کارگیری هوش مصنوعی در پژوهش‌های کیفی وجود دارد. پژوهشگران کیفی می‌توانند با استفاده از خدمات رونویسی مبتنی بر هوش مصنوعی محتوای مصاحبه‌ها، گفت‌وگوهای گروه‌های متمرکز و سایر فایل‌های صوتی را با دقت بالا به متن تبدیل کنند. در مرحله تحلیل، نرم‌افزارهای پیشرفته‌ای مانند NVivo و MAXQDA از الگوریتم‌های یادگیری ماشینی برای شناسایی خودکار درون‌مایه‌ها، الگوهای مفهومی و واژه‌های کلیدی بهره می‌گیرند. این سامانه‌ها پیشنهادهای کدگذاری خودکار ارایه می‌دهند و به‌طور یکپارچه و هماهنگ در گردش کار پژوهش‌های کیفی جذب می‌شوند، به گونه‌ای که حجم قابل توجهی از کارهای دستی در مراحل کدگذاری کاسته می‌شود و این کدگذاری‌ها دقت تحلیل پژوهشگران را بیشتر می‌کند. ابزارهای کدگذاری مبتنی بر هوش مصنوعی- از جمله قابلیت‌های جدیدATLAS- کدگذاری را آسان می‌کنند. هوش مصنوعی کدگذاری بتاti با شناسایی داده، کدهای اولیه را پیشنهاد می‌کند.   همچنین ابزارهای تجسم داده‌ها مبتنی بر هوش مصنوعی می‌توانند ابرهای واژگانی و خوشه‌های معنایی تولید کنند و بدین سان داده‌های پیچیده را از طریق نمایش‌های گرافیکی، ساده می‌کنند. در پژوهش‌هایی که داده‌هایش چند زبانه است ابزارهای ترجمه مانند چت جی‌پی‌تی و سایر ابزارها این امکان را فراهم می‌کنند که پژوهشگران بتوانند پاسخ‌ها را به‌طور دقیق بخوانند و تحلیل کنند (چان و تنگ، 2024؛ لی، 2024؛ لین لین،؛ 2024). کیفیت یک ترجمه نه‌تنها به توانمندی‌های هوش مصنوعی، بلکه به میزان مهارت پژوهشگر در به کارگیری تکنیک‌های مناسب مهندسی درخواست بستگی دارد. به سخن دیگر یک ترجمه دقیق و معتبر مستلزم آن است که پژوهشگر جزییاتی مانند هدف ترجمه مخاطب هدف و اطلاعات زمینه‌ای مرتبط را درخواست نماید (چان و تنگ، 2024). 

اخلاق و حریم خصوصی

اگرچه هوش مصنوعی می‌تواند با خودکار کردن ارزیابی‌های اولیه و نظارت بر پیشرفت، وقت روانشناسان را برای انجام فعالیت‌های پیچیده‌تر بالینی آزاد کند اما با مجموعه‌ای از خطرات و چالش‌های اخلاقی و موضوع حریم خصوصی نیز رو به رو است. این چالش‌ها شامل مسائلی چون رضایت آگاهانه، امنیت داده‌ها، صداقت در پژوهش و حفظ اتحادِ درمانی در تعاملات ماشین - انسان هستند. روان‌شناسان در شناسایی و پیشگیری از تخلفات اخلاقی در حوزه پژوهش و کار بالینی نقشی اساسی و مهم دارند (ایوانز، 2024). آن‌ها باید اصول مهمی چون نیکوکاری، عدالت و احترام به شأن انسان‌ها را در استفاده از تکنولوژی‌های جدید به کار گیرند. همچنین نظارت انسانی در اعتبارسنجی خروجی‌های هوش مصنوعی و جلوگیری از بروز اطلاعات نادرست ضروری است. هوش مصنوعی می‌تواند برخی وظایف اداری را ساده کند و دسترسی پژوهشگران را به منابع و تحلیل‌های پیچیده بیشتر کند اما نظارت اخلاقی دقیق و ارزیابی مستمر انسانی نیز برای جلوگیری از آسیب‌ها و حفظ اعتماد عمومی ضروری‌ است (آبرامز، 2025؛ ایسرسال و همکاران، 2024). برای نمونه خود من در نقش ویراستار یک مجله، شاهد موج فزاینده‌ای از مقاله‌ها هستم که حاوی استنادهای تولید شده توسط هوش مصنوعی هستند. این مساله به ویژه در ابزارهایی مانند چت جی‌پی‌تی برای نوشتن مقاله شایع و رایج است. از نمونه‌های رایجِ این نوع استنادهای نادرست، «ارجاع واهی» است. ارجاع واهی ارجاعی است که « در آن عناصر یک مرجع با عناصر دیگر از منبعی دیگر که هیچ ارتباطی با آن ندارد ترکیب می‌شود» (دانفورد و همکاران، 2024).   ارجاع‌های واهی و سایر ارجاع‌های ساخته شده با هوش مصنوعی را می‌توان با جست‌وجوی شناسه شی دیجیتال یا با بررسی جلد یا با بررسی جلد و شماره مجله در فهرست منابع شناسایی کرد. استنادهای ساختگی یکپارچگی پژوهش را تضعیف می‌کنند و در واقع نوعی آسیب به علم وارد می‌کنند (امسلی، 2023). اغلب فراموش می‌کنیم که چت جی‌پی‌تی در اصل ابزاری برای پردازش زبان است نه سامانه‌ای برای بازیابی اطلاعات. بنابراین چت جی‌پی‌تی برخلاف یک پژوهشگر انسانی به اینکه خروجی‌اش دقیق، درست و معتبر باشد بی‌تفاوت است (والترز و ویلرز، 2023). همچنین هوش مصنوعی می‌تواند برای دستکاری تصویرها و تولید داده‌های ساختگی مورد استفاده قرار گیرد. کارخانه‌های کاغذ‌سازی هم از هوش مصنوعی در مقیاس بسیار بزرگ استفاده می‌کنند. ساده‌ترین روش‌ها برای تشخیص اینکه یک مقاله با استفاده از هوش مصنوعی نوشته شده است یا نه، تحلیل کتاب‌شناسی یا فهرست منابع آن است. این تحلیل می‌تواند سرنخ‌های خوبی درباره یکپارچگی پژوهش در اختیار ما قرار دهد (دانفورد و همکاران، 2024). اما چگونه می‌توان به چالش‌هایی که هوش مصنوعی برای حوزه ما ایجاد می‌کند پرداخت؟ درحوزه بالینی باید از شیوه‌های اخلاقی هوش مصنوعی در روانشناسی پشتیبانی کنیم. متخصصان باید موضوع رضایت آگاهانه و شفاف را سرلوحه کار خود قرار دهند، به گونه‌ای که نوع داده‌های جمع‌آوری شده، چگونگی بهره‌برداری از آن‌ها و افرادی که ممکن است این اطلاعات با آن‌ها مطرح شود به مراجعان توضیح داده شود. اطلاعات باید از طریق فرم‌های رضایت‌نامه قابل فهم و تعاملی ارایه شود. همچنین متخصصان باید به اصل حداقل‌سازی داده‌ها پایبند باشند و تنها اطلاعاتی را گردآوری کنند که به کارشان می‌آید. انجام ممیزی‌های منظم و انتشار خلاصه گزارش‌ها نیز می‌تواند نقش مهمی در تضمین پاسخگویی و شفافیت داشته باشد. افزون بر این، اِعمال نظارت انسانی از طریق الزام متخصصان به بررسی همه تصمیم‌های پرخطر (مانند تشخیص یا پیش‌بینی خطر) مولفه‌ای ضروری در بهره‌گیری مسوولانه از هوش مصنوعی است. در حوزه پژوهش، ارایه آموزش‌ها و تدوین دستورالعمل‌های دقیق برای کاربردهای هوش مصنوعی و جلوگیری از خطرات ناشی از استفاده غیر اخلاقی از آن بسیار ضروری است. سردبیران مجله‌ها نیز باید فهرست منابع و کتاب‌شناسی نسخه‌های خطی ارسالی را با دقت ارزیابی کنند تا تهدیدهای بالقوه برای صداقت علمی را شناسایی کنند. با رشد روزافزون استفاده از هوش مصنوعی باید به پیامدهای احتمالی آن در حوزه صداقت پژوهش هوشیار باشیم. 

نتیجه‌گیری

با نفوذ روز‌افزون هوش‌مصنوعی در پژوهش‌ها و کارهای بالینی، چهره روانشناسی به‌طور بنیادین در حال دگرگونی است. پژوهشگران اکنون می‌توانند از یادگیری ماشینی در کشف الگوهای رفتاری انسان بهره بگیرند. درمانگران نیز می‌توانند از مولفه‌های گفتاری برای کاهش بار وظایف اداری استفاده کنند. با افزایش نفوذ و اهمیت هوش مصنوعی پرسش بنیادی آلن تورینگ که «آیا ماشین‌ها می‌توانند بیندیشند؟ » بار دیگر اهمیت می‌یابد و ما را وامی‌دارد که بین تقلید محاسباتی و ادراک واقعی تمایز بیفکنیم. با این حال چیزی که ما انسان‌ها از آن برخورداریم اما هنوز هوش مصنوعی آن را ندارد توانایی تفکر انتقادی، داوری اخلاقی و تصمیم‌گیری‌های مبتنی بر انصاف و عدالت اجتماعی است. در چنین وضعیتی باید به حدود اخلاقی و شناختی هوش مصنوعی بیندیشیم، از اتکای بیش از حد به مدل‌های جعبه سیاه بپرهیزیم و در همان حال ابعاد ویژه انسانی ازجمله اعتماد، همدلی، اصول اخلاقی و اندیشه اصیل و راستین را حفظ کنیم؛ که البته همه اینها برای کار ما به عنوان روانشناس و پژوهشگر در این حوزه ضروری هستند. 

*(دانشگاه ایبرو-امریکایی، مکزیکوسیتی) 

ترجمه: علیرضا عباسی (پژوهشگر و استاد فلسفه) 

منابع در دفتر روزنامه موجود است

پاورقی

1- هوش مصنوعی آلفاگو موفق شد لی سدول، قهرمان 18 دوره از مسابقاتGO را ببرد. بازی GO یک بازی تخته‌ای بسیار پیچیده است با احتمال‌های بسیار زیاد برای هر حرکت. /مترجم