عصر هوش مصنوعی (AI) نه تنها نزدیك است، البته در حال حاضر گویی خیلی وقت است از راه رسیده است. بدون شك هم‌اكنون هم زندگی ما را متحول كرده و ارزش‌ها، قوانین و هنجارهای اجتماعی ما را بیش از پیش به چالش خواهد كشید. واقعیت این است كه ما به یك قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم. دقت كنید اكنون تازه به سرآغاز مسیری رسیدیم كه خیلی پیش‌تر آغاز شده بود، به ‌طور مثال تحقیقات روی شبكه‌های عصبی سایبرنتیك در قرن گذشته و در آغازین سال‌های دهه پنجم قرن بیستم (حدودا سال 1940 میلادی) آغاز شد، اما تركیب مجموعه‌های داده عظیم و پیشرفت علوم موازی و رشد قدرت پردازش كامپیوترها منجر به یك اتفاق هیجان‌انگیز و عمیق در یادگیری ذهن ماشین شد كه سایر صنایع را به كل متحول كرد.

این روزها هوش مصنوعی در انواع محصولات مصرفی كه ما برای كار و اوقات فراغت استفاده می‌كنیم حضور پررنگی دارد. به وضوح در مورد پیشرفت چشمگیر هوش مصنوعی تبلیغات وجود دارد و سرمایه‌داران دست به شانتاژ عمیق خبری در این حوزه می‌زنند، اما پیشرفت‌های بزرگ نیز قابل اغماض نیستند. برخی معتقدند توان اقتصاد مبتنی بر هوش مصنوعی به این معناست كه ما در یك حباب حدس و گمان قرار داریم و انتهای راه مشخص نیست. حتی اگر این موضوع صحت داشته باشد، ما هنوز باید به‌طور عمومی در مورد تاثیرات اجتماعی میان‌مدت این فناوری‌ها بحث كنیم. به هر حال، آشوب حباب دات كام (بحران اقتصادی در خلال سال‌های ۱۹۹۵ تا ۲۰۰۰ میلادی) در دهه 1990 مانع از تغییر اساسی اینترنت در جامعه مدرن نشد. در واقع، پیش‌بینی می‌شود كه سال 2024 سالی باشد كه ما از صحبت بیشتر در مورد هوش مصنوعی به فراگیر شدن آن در زندگی خود تغییر می‌كنیم.

 

خطرات هوش مصنوعی: ترس از منسوخ شدن

مزایای اجتماعی و اقتصادی می‌تواند بسیار زیاد باشد، اما خطرات ممكن است به همان اندازه قابل توجه باشند. خطرات بالقوه تاثیر هوش مصنوعی بر انتخابات توسط كارشناسان برای سال‌ها پیش‌بینی شده است و نگرانی‌ها در مورد اختلالات اقتصادی و تغییرات شدید در بازار كار باعث ایجاد اضطراب اضافی در نظم اجتماعی می‌شود كه در حال حاضر هم حتی نشانه‌هایی از استرس شدید را میان افراد شاغل و نیروهای كار نشان می‌دهد. در اروپا، تقریبا نیمی از افراد خانواده‌های در سن كار در كشورهای OECD (سازمان توسعه و همكاری اقتصادی بین‌المللی شامل 38 عضو) از نظر مالی شكننده هستند و شبح تاریك از دست دادن شغل به دلیل رشد پدیده هوش مصنوعی در حال حاضر به عنوان یك عامل نگران‌كننده برای كارگران در سراسر جهان ثبت شده است.

یك نظرسنجی گالوپ در سال 2023 در ایالات‌متحده نشان داد كه 22درصد از كارگران از منسوخ شدن شغل آنها توسط فناوری‌های جدید مانند هوش مصنوعی می‌ترسند كه نسبت به سال 2021 شاخص این نگرانی 7درصد افزایش یافته است. این پدیده و به عبارتی ترس جدید به اختصار FOBO نامیده می‌شود، به این پدیده ترس از منسوخ شدن مشاغل می‌گویند. در اتحادیه اروپا، ترس از پدیده فوبو ممكن است حتی شدیدتر باشد، زیرا یك نظرسنجی یوروبارومتر در سال 2017 نشان داد كه 72درصد از كارگران اروپایی می‌ترسند فناوری‌های جدید «شغل مردم را بدزدند.»

مطالعات درخصوص ركود بزرگ و ظهور فاشیسم در دهه 1930 خطراتی را برای جامعه نشان می‌دهد كه بخش عمده‌ای از جامعه معیشت خود را از دست می‌دهند. اضطراب گسترده زمینه مساعدی را برای پوپولیست‌ها و عوام‌فریبی اقتدارگرا برای به دست آوردن قدرت ایجاد می‌كند و این چالش بزرگی برای دموكراسی است كه برابری در جامعه و حاكمیت قانون را به خطر می‌اندازد.

بیشتر مطالعات در زمینه هوش مصنوعی و بازارهای كار نشان می‌دهد كه تاثیر كلی كمتری بر نرخ اشتغال دارد، اما تعداد قابل‌توجهی از كارگران ممكن است به آموزش‌های جدید نیاز داشته باشند تا همچنان قابل اشتغال به كار را داشته باشند.

 

ساعات كار طولانی‌تر

چه كسی مسوولیت پرداخت این هزینه‌ها را به عهده خواهد گرفت؟ تكلیف افرادی كه نمی‌توانند یا در این بازآموزی شركت داده نمی‌شوند، چیست؟ مطالعه‌ای در سال 2023 توسط گلدمن ساكس نشان داد كه تقریبا دوسوم مشاغل در اتحادیه اروپا و ایالات‌متحده تحت‌تاثیر هوش مصنوعی قرار می‌گیرند و این می‌تواند جایگزین یك‌چهارم مشاغل فعلی شود. همان مطالعه همچنین به افزایش 7درصدی تولید ناخالص داخلی جهانی و ایجاد مشاغل جدید اشاره می‌كند كه شاید جایگزین بسیاری از موقعیت‌های ازدست رفته در دوران گذار شود.

مطالعات مقایسه‌ای توسط سازمان بین‌المللی كار، بانك مركزی اروپا و صندوق بین‌المللی پول نیز یافته‌های مشابهی را نشان می‌دهند، اما همین نتایج مطالعه به ندرت به عناوین روشن برای عموم تبدیل می‌شود. حتی زمانی كه آنها آزادانه و بدون جهت‌گیری منتشر می‌شوند، مردم به آنها بی‌اعتماد هستند، زیرا آنان از سمت همان صداهایی می‌آیند كه به آنها اطمینان داده بودند كه بخش مالی نیازی به مقررات قوی در پیش از بحران اقتصادی سال 2008 ندارند.

علاوه بر این، بدون مشاهده سیاست‌های مشخص برای اطمینان از نتایج مثبت و فراگیر برای انتقال هوش مصنوعی، نمی‌توان مردم را به دلیل بدبینی آنها سرزنش كرد. مردم زمانی را به خاطر می‌آورند كه به آنها گفته شد فناوری زندگی آنها را آسان‌تر می‌كند، حجم كاری آنها را كاهش می‌دهد و افراد با اتكا به این فناوری‌ها زمان بیشتری را برای كارهای شخصی خود آزاد می‌كنند. درعوض آنچه كه در عمل اتفاق افتاد كاملا برعكس بود، پیدایش فناوری‌های جدید باعث شد آنها حتی ساعت‌های طولانی‌تری كار كنند و كارفرمایان را قادر می‌سازد تا آنها را دقیق‌تر زیرنظر داشته باشند و حتی آنها را در زمان استراحت‌شان موظف به كار كنند.

 

وحشت از آینده

پدیده فوبو باعث می‌شود امروزه بسیاری از شهروندان به جای اعتماد به نفس، با ترس و وحشت به آینده نگاه كنند، زیرا بسیاری از پیش‌بینی‌های قبلی آنها اشتباه از آب در آمده است. آنها به دنبال پاسخ هستند و اگر دولت‌ها و نهادها پاسخ دقیق مدنظر آنها را ارایه ندهند، پوپولیست‌ها و بازیگران سیاسی متمایل به اقتدارگرایی میدان را در دست خواهند گرفت. عموم مردم با این پرسش مواجه می‌شوند كه آیا باز هم می‌توانم كار كنم؟ آیا برای تغذیه و هزینه اجاره خانه خانواده‌ام به اندازه كافی درآمد كسب خواهم كرد؟ این برای چه مدت دوام خواهد داشت؟ آیا زندگی من 10 سال دیگر بهتر خواهد شد یا بدتر؟ در مورد زندگی فرزندانم چطور؟ آیا ثروتمندان ثروتمندتر می‌شوند درحالی كه فقیرها فقیر می‌مانند؟

عصر هوش مصنوعی جنبه‌هایی از زندگی ما را
به گونه‌ای متحول خواهد كرد كه ارزش‌ها، قوانین و هنجارهای اجتماعی ما را به راستی به چالش‌هایی جدید می‌كشد كه پیش از آن هیچ تجربه‌ای از نحوه مواجهه با آن نداریم، اما هنوز مشخص نیست كه آیا عصر جدید در جهت برابری و رفاه بیشتر رقم می‌خورد یا خیر و قضیه كاملا برخلاف تصور عمومی است. باتوجه به تجربیات تاریخی اخیر در حوزه توسعه فناوری و جامعه، چشم‌انداز روشنی وجود نخواهد داشت مگر اینكه ما یك تلاش آگاهانه و جمعی انجام دهیم. به همین دلیل است كه ما به یك قرارداد اجتماعی جدید برای ورود به عصر هوش مصنوعی نیاز داریم.

 

اختراع آینده

دنیس گابور، برنده جایزه نوبل، نویسنده كتاب «اختراع آینده» (1963) یك جمله طلایی در این خصوص دارد: «آینده را نمی‌توان پیش‌بینی كرد، اما آینده را می‌توان اختراع كرد.» درحالی كه یك قرارداد اجتماعی ذاتا یك تلاش جمعی برای بحث، ساختن و توافق بر سر هنجارها و ارزش‌های اجتماعی است، چند سوال كلیدی را می‌توان شناسایی كرد. انسان محصور در حلقه یا انسان در كنترل؟ ممكن است خلبانان خودكار بتوانند هواپیماها را به پرواز درآورند اما انسان‌ها باید همیشه در كابین خلبان باشند. رویكرد انسان تحت كنترل، مسوولیت‌پذیری انسان را درقبال تصمیمات اتخاذ شده توسط و با هوش مصنوعی كه می‌تواند بر زندگی، سلامت و دارایی تاثیر بگذارد، تضمین می‌كند. قوانین اتحادیه اروپا در حال حاضر محافظت در برابر نظارت و تصمیم‌گیری خودكار را ارایه می‌دهد، اما با فراگیرتر شدن ابزارهای مبتنی بر هوش مصنوعی، ممكن است نیاز به شفاف‌سازی و حتی گسترش این حمایت‌ها داشته باشیم، به ویژه در مواردی كه تصمیمات بر كرامت انسانی در استخدام، مراقبت‌های بهداشتی، آموزش و پرورش و مسائل مالی تاثیر می‌گذارند. به عنوان مثال، «مدیریت الگوریتمی كارگران» به خودی خود یك پلتفرم مشكل‌ساز در عصر حاضر است، اكنون باید از خود بپرسیم كه آیا از پذیرش مدیریت هوش مصنوعی كارگران در آینده خوشحال خواهیم بود یا این تبدیل به یك نگرانی عمیق خواهد شد؟ و بعد از آن رابطه بین مردم و پدیده هوش مصنوعی چگونه خواهد بود؟ چگونه می‌توانیم مردم را از خطر سلطه یك هوش برتر ایمن نگه داریم و اطمینان حاصل كنیم كه پیشرفت‌های فناوری جدید با ارزش‌های جوامع ما همسو هستند؟ در ساده‌ترین عبارت، این به معنای موافقت، تدوین و اجرای مجموعه‌ای از قوانین است كه نشان می‌دهد هوش مصنوعی چه كاری را می‌تواند انجام دهد و چه كاری را نمی‌تواند انجام دهد و انسان‌ها چگونه می‌توانند از آن استفاده كنند یا ممكن است در جاهایی تصمیم بگیرند كه آن را كنار بگذارند. این باید شامل نیاز به رضایت انسان در مورد اینكه چگونه و چه زمانی ممكن است به هوش مصنوعی اجازه داده شود تا در تعاملات یك فرد با دنیای دیجیتال واسطه شود، باشد تا مبادا عاملیت انسانی به خطر بیفتد.

 

آموزش و هوش مصنوعی

چگونه می‌توانیم سیستم‌های آموزشی را برای تشویق همكاری انسان و هوش مصنوعی به جای جایگزینی انسان با هوش مصنوعی طراحی كنیم؟ قطعا همه‌چیز نیازی به استفاده از هوش مصنوعی ندارد و سیستم‌های آموزشی باید به آموزش مهارت‌های اساسی ادامه دهند. با این وجود، به وضوح آموزش و یادگیری مادام‌العمر توسط فناوری‌های هوش مصنوعی تغییر می‌یابند كه اجازه می‌دهد شخصی‌سازی بیشتر متناسب با رویكردهای یادگیری تك‌تك دانش‌آموزان باشد.

دانش‌آموزان در هر سنی باید آموزش ببینند و با سیستم‌های هوش مصنوعی كار كنند، ازجمله نحوه تعامل انتقادی و اخلاقی با الگوریتم‌های یادگیری عمیق و سایر فناوری‌های هوش مصنوعی. با توجه به تقاضاهای بسیار زیاد در سیستم‌های آموزشی، این امر مستلزم سرمایه‌گذاری عمومی استراتژیك و تمركز بر آموزش معلمان است.

 

كارگران و هوش مصنوعی

چگونه می‌توانیم یك انتقال عادلانه را برای كارگران تضمین كنیم؟ در بازار كار، نقش‌های شغلی باید مانند همیشه با فناوری‌های جدید تكامل یابد. این ممكن است به معنای ایجاد موقعیت‌های جدیدی باشد كه بر همكاری انسان و هوش مصنوعی تمركز می‌كند، از جمله اطمینان از اینكه سیستم‌های هوش مصنوعی همان‌طور كه درنظر گرفته شده عمل می‌كنند و مسوولانه استفاده می‌شوند.

دولت‌ها و بخش خصوصی باید با اتخاذ شیوه‌های صحیح و آموخته‌شده از انتقال به یك دوران جدید با حداكثر صیانت از حقوق افراد و همیاری یكدیگر به به كارگران كمك كنند تا در یك گذار عادلانه سازگار شوند كه بیشترین بخش‌ها را در معرض پیشگیری از مخاطرات قرار دهند، همچنین به موازات آن مهارت‌های گسترده موردنیاز برای اطمینان از استفاده مسوولانه از هوش مصنوعی را توسعه دهند.

 

ارزش‌های انسانی و هوش مصنوعی

از چه توانایی‌ها و چه ارزش‌های انسانی می‌خواهیم محافظت كنیم؟ انسان‌ها برای كار، زندگی نمی‌كنند بلكه برای رفاه زندگی كار می‌كنند، اما ما انسان‌ها از داشتن احساس هدف و رسیدن به اهداف‌مان در زندگی معنا می‌گیریم. اگر هوش مصنوعی یك صنعت را به‌ شدت تغییر دهد و اكثر كارگران برای كارهای دیگر مناسب نباشند، چگونه می‌توانند بدون كار یا دستاوردهای مشابه از زندگی خود معنایی بگیرند؟ هوش مصنوعی در حال حاضر هنر و موسیقی خود را می‌سازد درحالی كه بیشتر انسان‌ها برای انجام فعالیت‌های خلاقانه و رضایت‌بخش كمتر تلاش می‌كنند.

آیا مهارت‌های خاصی وجود دارد كه بشر بخواهد آنها را حفظ كند و تا قرن‌ها فعالیت حرفه‌ای و فرهنگی از بین نرود؟ در بسیاری از زمینه‌های زندگی بشر، ممكن است برای ما كاملا مشروع باشد كه بخواهیم از رویكردهای «ارگانیك» یا «زیستی» بدون هوش مصنوعی محافظت كنیم، درست همان‌طور كه برخی از كشورهای اتحادیه اروپا قوانینی در مورد زبان‌ها و تولیدات فرهنگی دارند. حتی اگر بخواهیم به مصرف‌كنندگان آزادی انتخاب بدهیم، باید درنظر بگیریم كه آیا به قوانینی در مورد برچسب‌گذاری محتوای تولید شده توسط هوش مصنوعی نیاز داریم تا انتخاب مصرف‌كننده معنادار باشد.

چگونه می‌توانیم انتقال هوش مصنوعی را فراگیر كنیم؟ در حال حاضر آگاهی بیشتری در مورد خطرات سوگیری الگوریتمی و تبعیض الگوریتمی وجود دارد، اما این چالش‌ها با پذیرش گسترده فناوری‌های یادگیری ماشین تشدید خواهد شد. افزایش تنوع در سراسر اكوسیستم هوش مصنوعی، از بخش‌های تحقیقاتی گرفته تا هیات‌های اجرایی، به حمایت از انتقال هوش مصنوعی فراگیرتر و همچنین تمركز بر تنوع بیشتر در مجموعه داده‌های آموزشی كمك می‌كند.

چگونه از عقب ماندن مردم جلوگیری كنیم؟ این انتقال فناوری ممكن است با امواج قبلی متفاوت باشد، زیرا می‌تواند بر مشاغل حرفه‌ای بسیار ماهر كه قبلا در برابر اتوماسیون «ایمن» تلقی می‌شدند نیز تاثیر بگذارد.

با پیشرفت تكنولوژی، همه افراد به ‌طور بالقوه درمعرض خطر احساس منسوخ شدن و «جای ماندن» هستند. بنابراین، ما باید همیشه به یاد داشته باشیم كه انسان‌ها به خودی خود یك هدف هستند و هر پیشرفتی كه مردم را پشت سر بگذارد، پیشرفت نیست. به ‌جای پذیرش این فرض كه انسان‌ها باید با اتوماسیون رقابت كنند، سیستم‌های رفاهی و حمایت‌های كارگری باید برای حمایت از زمان و فضای خلاقانه‌ای كه مردم به آن نیاز دارند وفق دهند تا هوش فرهنگی و اجتماعی انسانی غنی و متنوعی را تولید كنند كه مدل‌های یادگیری عمیق آن را بازسازی كرده و در خروجی هوش مصنوعی تركیب می‌كنند.

 

جعبه سیاه هوش مصنوعی

آیا تركیبی از خدمات پایه جهانی (UBS) و درآمد پایه جهانی (UBI) وجود دارد كه رفاه و كرامت انسان را حفظ كند؟ شاید این می‌تواند تا حدی توسط نوعی مالیات توسط هوش مصنوعی تامین شود. چگونه می‌توانیم تضمین كنیم كه «تولید‌كنندگان داده‌ها به عنوان نیروی كار» با پرداخت عوارض و مالیات به ‌طور عادلانه با نیروی كار انسانی رقابت كنند؟ همان‌طور كه «ای گلن ویل» و «جارن لنیر» از پیشگامان فناوری در سال 2018 این نظریه را مطرح می‌كنند كه فناوری‌هایی مانند الگوریتم‌های یادگیری عمیق و شبكه‌های عصبی امروزی برای انجام كارهای سنگین به «داده به عنوان كار» متكی هستند پس صراحتا این نكته قابل تكرار است كه مدل‌های یادگیری عمیق بدون داده‌های آموزشی تولید شده توسط انسان نمی‌توانند كاری را كه انجام می‌دهند تكمیل كنند. حتی داده‌های مصنوعی یا داده‌های آموزشی تولید شده توسط مدل‌های هوش مصنوعی، درنهایت محصول داده‌های اولیه انسانی به عنوان نیروی كار است.

تصمیم‌گیری در سیستم‌های هوش مصنوعی مانند یك «جعبه سیاه» درون هواپیماها و زیردریایی‌هاست، اما سیاست‌گذاران این عرصه می‌توانند با طراحی مقرراتی كه چانه‌زنی جمعی را بین سازمان‌هایی كه نماینده كارگرانی كه داده‌های آموزشی را ایجاد می‌كنند و صاحبان مدل‌های هوش مصنوعی كه به صورت تجاری از این داده‌ها بهره‌برداری می‌كنند، تسهیل كنند و این روند به ایجاد شفافیت در مدل‌های تعاملی كمك كند.

چگونه می‌توانیم سیستم‌های هوش مصنوعی پایدار را در یك اقتصاد زنجیروار كه به ‌صورت یك چرخه سلسله مراتبی شكل یافته است، جانمایی كنیم؟ الگوریتم‌های یادگیری عمیق به منابع محاسباتی قابل‌توجهی نیاز دارند كه انرژی زیادی دارند و همچنین روی سخت‌افزاری اجرا می‌شوند كه به مواد خام استخراج ‌شده از زمین نیاز دارد. این یكی از دلایلی است كه وقتی رویكردهای ارزان‌تر (ازجمله رویكردهای الگوریتمی ارزان‌تر) به همان خوبی كار را انجام می‌دهند، درنظر داشته باشید كه هوش مصنوعی به همه ‌چیز اتكای منطقی اقتصادی یا زیست محیطی ندارد. با این حال، در جایی كه یك مورد مسوول برای هوش مصنوعی وجود دارد، چگونه می‌توانیم اطمینان حاصل كنیم كه باعث انتشار كربن و استخراج منابع مخرب زیست محیطی نمی‌شود؟
در واقع، در صورت استفاده مسوولانه، هوش مصنوعی به‌طور بالقوه می‌تواند به جوامع كمك كند تا انرژی كارآمدتر و پایدارتر شوند.

چه كسی صاحب نوآوری‌های ایجاد شده توسط هوش مصنوعی خواهد شد؟ در سال 2021، آفریقای جنوبی اولین كشوری بود كه به یك مدل هوش مصنوعی جدید حق اختراع اعطا كرد، اگرچه سایر دفاتر ثبت اختراع در سراسر جهان در این خصوص بسیار محتاط‌تر عمل كردند. در دسامبر 2023 سرویس گوگل دیپ مایند یك راه‌حل كاملا جدید برای یك مساله ریاضی ارایه كرد، اما از ثبت حق اختراع نوآوری هوش مصنوعی‌اش در آن زمان ایالات‌متحده بازماند، یك نكته دیگر كه ضرورت دارد مغفول نماند این مثال و پاسخ به پرسش مطرح شد در ادامه آن است: همان‌طور كه سیستم‌های هوش مصنوعی شروع به تولید نوآوری‌هایی مانند داروهای جدید می‌كنند، چگونه سیستم‌های مالكیت معنوی تضمین می‌كنند كه ابزار نوآوری به نفع همه است و صرفا به ‌طور دایمی توسط ثروتمندترین‌ها تسخیر نمی‌شود؟ آیا به هوش مصنوعی عمومی نیاز داریم؟

همان‌طور كه مدل‌های هوش مصنوعی پیچیده‌تر می‌شوند، به منابع محاسباتی بیشتری نیاز خواهند داشت كه در حال حاضر به یك مانع اقتصادی برای دسترسی تبدیل شده است.

تاریخچه طولانی موسسات عمومی وجود دارد كه برای ارایه دسترسی رایگان یا مقرون به‌صرفه به خدمات اطلاعاتی، از كتابخانه‌های عمومی تا خدمات پخش عمومی، طراحی شده‌اند. به جای یك سیستم دو لایه، با پیشرفته‌ترین هوش مصنوعی پنهان در پشت دیوارهای پرداخت و دسترسی آزاد (یا محدود) به هوش مصنوعی اولیه، آیا همه شهروندان نباید به هوش مصنوعی عمومی پیشرفته دسترسی داشته باشند.

به نظر می‌رسد با روند كنونی اتحادیه اروپا باید شهروندانش را در یك بحث عمومی گسترده و پویا درمورد سوالات فوق و هر سوال دیگری كه پیش می‌آید، مشاركت دهد.

در كنار سیاست‌های سنتی نمایندگی، كنفرانس آینده اروپا و پانل‌های شهروندان اروپایی نشان می‌دهد كه چگونه فرآیندهای سیاسی مشورتی ممكن است به شناسایی و حفظ پاسخ‌ها در روح دموكراتیك قرارداد اجتماعی كه توسط ژان ژاك روسو تدوین شده، كمك كند.

یك ضرب‌المثل قدیمی از روزهای اولیه محاسبات وجود دارد؛ مثال زباله وارد شده و زباله خارج شده یا همان (GIGO) به این معنی كه خروجی یك كامپیوتر فقط به اندازه ورودی داده خوب است به این معنی كه خروجی‌ها به كیفیت ورودی‌ها بستگی مستقیم دارند. هوش مصنوعی به سادگی هر چه تمام‌تر می‌تواند دایره باطل مثال GIGO را نشان دهد. اگر انسان‌ها را مجبور به رقابت با اتوماسیون كنیم، جامعه را تنزل خواهیم داد كه نه تنها داده‌های آموزش هوش مصنوعی آینده بلكه زمینه اجتماعی را كه شركت‌ها و دانشمندانی كه سیستم‌های هوش مصنوعی می‌سازند از آن بیرون می‌آیند را نیز تخریب می‌كنند، این قطعا همان آینده‌ای است كه به فاجعه ختم خواهد شد. اما آینده‌ای جایگزین وجود دارد كه در آن هوش مصنوعی هوش اجتماعی انسان را در یك دایره فضیلتمند گسترش داده و از آن پشتیبانی می‌كند كه به درون خود بازخورد می‌دهد و شكوفایی بشریت را تشویق می‌كند، البته خوشبختانه همچنان در آغاز راه هستیم و هنوز فرصت كافی داریم تا آینده و سرنوشت‌مان را خودمان انتخاب كنیم.

این مطلب را با گفته‌ای از ژان ژاك روسو درخصوص قرارداد اجتماعی خاتمه می‌دهیم: «در حقیقت، قوانین همیشه برای مالكان مفید هستند و برای كسانی كه چیزی ندارند مضر. از آن نتیجه می‌شود كه دولت اجتماعی تنها زمانی برای مردمان سودمند است كه همه ‌چیزی داشته باشند و هیچ‌كس بیش از حد نداشته باشد.»

كریس كرمیداس كورتنی مشاور ارشد، دفاع از دموكراسی

جو لیتوبارسكی محقق دكترای تاریخ فناوری و دموكراسی، دانشگاه ماستریخت