چهارشنبه ٠١ بهمن ١٣٩٩
 


چاپ خبر Print
یادداشت: هوش مصنوعی اجتماعی

موضوعات مرتبط: محصولات دانشی توسعه و تفکر راهبردی

هوش مصنوعی اجتماعی

 

هوش مصنوعی اجتماعی

محمّدمیلاد احمدی؛ دانشجوی دکتری مدیریت سیستم‌های دانشگاه جامع امام حسین (ع)- رایانامه: mmahmadi@ihu. ac. ir

 

هوش مصنوعی یا (AI Artificial Intelligence) ، استفاده از برنامه‌نویسی و علوم کامپیوتر جهت تکرار و تکثیر افکار و اعمال انسان‌ها است که با تجزیه و تحلیل داده‌های زمینه‌ای، حل کردن یا پیش‌بینی کردن مشکلات و یادگیری یا خودآموزی برای انطباق با کارهای مختلف انجام می‌پذیرد. به‌کارگیری هوش مصنوعی بر توسعۀ دستگاه‌های هوشمند در راستای فکر کردن و کار کردن مانند انسان‌ها تأکید می‌کند. به عنوان مثال تشخیص گفتار، حلّ مسأله، خودیادگیری و توان برنامه‌ریزی نمونه‌هایی از این عملکرد هستند. مباحث هوش مصنوعی به چهار دستۀ دستگاه‌های واکنشی، حافظۀ محدود، نظریۀ ذهن و خودآگاهی قابل تقسیم است.

 

 ارتباط میان خودکارسازی، تحوّلات عصر دیجیتال، و فنّاوری‌های هوش مصنوعی

شکل 1 - ارتباط میان خودکارسازی، تحوّلات عصر دیجیتال، و فنّاوری‌های هوش مصنوعی (الکساندر، 2020)

علاوه بر پیشرفت پژوهش‌های هوش مصنوعی در حوزه‌های مختلف و به ویژه فنّاوری‌ اطّلاعات که خاستگاه آن بوده است، توجّه به جنبه‌های نرم، انسانی و اجتماعی آن نیز همواره مدّنظر دانشمندان، پژوهشگران، مدیران و نخبگان جوامع قرار گرفته است. عبارت هوش مصنوعی اجتماعی یا (ASI Artificial Social Intelligence) نیز از همین جنبه وارد حیطه‌های مطالعات میان‌رشته‌ای علوم کامپیوتر و داده، و علوم اجتماعی و رفتاری شده است. عبارتی که اگرچه از گذشته نیز رواج داشته، امّا امروزه تفسیرهای متنوّعی پیدا کرده است.

 

هوش مصنوعی اجتماعیبه طور کلّی، هوش مصنوعی اجتماعی را می‌توان به‌کارگیری تکنیک‌های دستگاه‌های هوشمند در پدیده‌های اجتماعی دانست. بینبریج و همکاران (1994) در سطح تئوری‌پردازی، ASI را شامل شبیه‌سازی رایانه‌ای جوامع یا گروه‌هایی از سازمان‌ها می‌دانند که در آن افراد به عنوان «بازیگران هوشمند» مدل‌سازی می‌شوند. هم‌چنین در سطح تجزیه و تحلیل، ASI را شامل استفاده از تکنیک‌های هوش مصنوعی برای جستجوی هوشمندانه و تجزیه و تحلیل داده‌های اجتماعی تعریف می‌کنند.توجّه به جنبه‌های اجتماعی هوش مصنوعی از آن حیث حائر اهمیّتی ویژه است که علوم اجتماعی همواره تحت تأثیر توسعۀ جامعه شکل گرفته و چارچوب‌های مفهومی، روش‌شناختی و نظری را با پدیده‌های اجتماعی نوظهور تنظیم می‌کند. در سال‌های اخیر، با جهش در پیشرفت هوش مصنوعی و ازدیاد کاربردهای روزمرۀ آن، «بازیگران هوشمند غیرانسانی» (Non-Human Intelligent Actors) به طور فزایندهای بخشی از جامعه شده‌اند. این امر در گسترش قلمروهای سامانه‌های هوشمند خانگی، وسایل نقلیۀ خودکار، بات‌های مکالمه، نمایشگرهای عمومی هوشمند و ... به تدریج آشکار می‌شود (ملینار و همکاران، 2018).

شرکت مایکروسافت در گزارشی پژوهشی بیان می‌کند که سیستم‌های هوش مصنوعی، باید اطمینان حاصل کنند که جدا از انجام وظیفۀ اصلی، کاربرشان تجربه‌ای دلپذیر و حرفه‌ای دریافت می‌کند که از نظر «فرهنگی- اجتماعی» مناسب است. به عبارت دیگر، سیستم‌های هوش مصنوعی باید بسیار فراتر از هوش عملکردی باشند- یعنی آن‌ها باید به لحاظ فرهنگی- اجتماعی دارای مهارت باشند و از نظر رفتاری نیز هوشمند عمل کنند. مایکروسافت از این پدیده به عنوان هوش مصنوعی اجتماعی و از سیستم‌های متعاقب آن، به عنوان «عوامل هوشمند اجتماعی» یاد می‌کند.

شرکت مایکروسافت

آژانس پروژه‌های پژوهشی پیشرفتۀ دفاعی یا دارپا (DARPA)

آژانس پروژه‌های پژوهشی پیشرفتۀ دفاعی یا دارپا (DARPA) نیز پروژه‌ای تحت عنوان «هوش مصنوعی اجتماعی برای تیم‌های موفق (ASIST) » را دنبال می‌کند که به دنبال توسعۀ تئوری بنیادی هوش مصنوعی و سیستم‌هایی است که مهارت‌های اساسی اجتماعی مورد نیاز ماشین برای استنباط اهداف را تقویت می‌نمایند. دانشی که برای شرکای انسانی هوش مصنوعی نیازهای لازم را پیش‌بینی کرده و اقدامات آگاهانه‌ای را به عنوان یک هم‌تیمی -آن هم یک هم‌تیمی سازگار و انعطاف‌پذیر- ارائه می‌دهد (الیوت، 2019).

وجه دیگری از اهمیت هوش مصنوعی اجتماعی را در گزارشی از مرکز پژوهشی کنگرۀ ایالات متحده (Congressional Research Service) می‌یابیم که به تاریخ 21 نوامبر 2019 منتشر شده است. عنوان این گزارش «هوش مصنوعی و امنیّت ملّی» است. مضمون اصلی گزارش شرح ابعاد وکارکردهای هوش مصنوعی در سطوح راهبردی حاکمیتی به ویژه در عرصه‌های امنیّت اجتماعی است. کاربردهای هوش مصنوعی برای وزارت دفاع، نظارت و شناسایی، مجموعۀ فناوری‌ها- فرآیندها- پرسنل و فرهنگ ارتش، رقابت‌های جهانی با رقبایی هم‌چون روسیه و چین و اثرگذاری هوش مصنوعی در نبردهای آینده از جمله سرفصل‌های این گزارش هستند.

شِمایی دیگر از هوش مصنوعی اجتماعی، در یک سریال تلویزیونی به نام «فرد تحت نظر» (Person of Interest) با بیش از میلیون‌ها بیننده در سراسر جهان نمایش داده شده که در فاصلۀ سال‌های 2011 تا 2016 ساخته و منتشر شده است. در این سریال علمی- تخیّلی -که به نظر می‌رسد وجوه تخیّل آن تا حدود بسیاری به حقیقت پیوسته است- یک ابرکامپیوتر پیشرفته با حمایت بخشی از بدنۀ حاکمیتی ایالات متّحده طرّاحی و عملیاتی شده است که با دسترسی به تمامی منابع اطّلاعاتی شهروندی از جمله تصاویر دوربین‌های مداربسته، صدای گفت‌وگوها، سیستم‌های اطّلاعاتی سازمانی، تراکنش‌های مالی، تلفن‌های همراه و ... ضمن تحلیل مجموعه‌ای از الگوها و رفتارهای فردی و اجتماعی، می‌تواند احتمال وقوع عمل تروریستی را پیش‌بینی کرده و مظنونین را به نیروهای امنیّتی معرّفی کند.

شکل 2 - تصاویر نمادین از عملکرد درونی ASI- که مردم را تماشا می‌کند، به مکالمات گوش فرامی‌دهد، آینده را با توجّه به احتمالات پیش‌بینی می‌کند و عواقب را تجزیه و تحلیل می‌نماید.

شکل 2 - تصاویر نمادین از عملکرد درونی ASI- که مردم را تماشا می‌کند، به مکالمات گوش فرامی‌دهد، آینده را با توجّه به احتمالات پیش‌بینی می‌کند و عواقب را تجزیه و تحلیل می‌نماید.

در سناریوی سریال، این «دستگاه»، وقوع تمام حوادث خشونت‌آمیز از جمله دزدی‌ها، مزاحمت‌ها، اختلافات و دعاوی، خشونت‌های خانگی و ... را تشخیص می‌دهد امّا دولت این موارد را «نامربوط» (Irrelevant) می‌داند و تنها مواردی را که به امنیت ملّی مربوط (Relevant) است، پیگیری می‌کند. عملکرد «ماشین»، فسادهای پنهان ساختارهای اداری و نهادهای حاکمیتی مانند پلیس‌های فاسد، تخطّی مأموران مخفی از قوانین و لابی‌گری نمایندگان کنگره را نیز برملا می‌سازد. این هوش مصنوعی دانای کلی است که دنیای تکنولوژیک غرب، او را حاکم جدید می‌خواند و پیدا است که در صورت محدود نکردن او، تبدیل به قدرت بلامنازعی در برابر تمام بشریت خواهد شد.

چالش دیگری در این سریال که رشد هوش مصنوعی اجتماعی را با تمام مشکلاتش برای امنیت شیشه‌ای دنیای غرب محدود می‌سازد، حفظ حریم و حقوق شهروندی در «دنیای آزاد» است. دوگانۀ آزادی و امنیّتی که بناست مخاطب را به این باور برساند که جهت حفظ مصالح عمومی جامعه، باید چشمی همه‌چیز را ببیند و گوشی همه‌چیز را بشنود.

برخی مطبوعات مضمون «ماشین» و «سیستم اطّلاعاتی- نظارتی» بسیار هوشمند این سریال را با افشاگری‌های ادوارد اسنودن در خصوص برنامه‌های جاسوسی، مراقبت و نظارت مقایسه کرده‌اند و وجود سیستم‌هایی مشابه و واقعی را بسیار محتمل دانسته‌اند.

به هر رو، پیشرفت روزافزون فنّاوری‌های اطّلاعاتی و ارتباطی امری غیرقابل اجتناب است و هوشمندی اطّلاعات نیز مانند سایر مؤلّفه‌های قدرت، ابزاری است که جهت استفادۀ آن مفید یا مضر بودن آن را تعیین می‌کند. جهش سخت‌افزارهای رایانه‌ای در کم‌تر از چندسال امری بسیار برجسته بود، چنان‌که مشاهدۀ گوشی‌های هوشمند، لپ‌تاپ‌ها، کامپیوترهای کوچک در اتومبیل، سازمان‌ها، فروشگاه‌ها و ... اکنون برای ما امری بسیار عادی است. پس از این باید منتظر جهشی در مغزافزار این دستگاه‌ها باشیم که به مرور برخی از ادراکات ما را تکرار کنند. تلاش می‌کنند تا یاد بگیرند، با ما سخن بگویند، تا حدودی فکر کنند و شاید روزی -مانند آن‌چه که در آثار هنری یا آینده‌پژوهانه می‌بینیم- احساس کنند.

چگونگی تعامل اجتماعی در جامعه‌ای که هوش‌های مصنوعی بخشی از آن باشند، دغدغه‌ای رو به رشد است که ممکن است به زودی زمینه‌ساز مطالعاتی مانند جامعه‌شناسی هوشمند، اقتصاد هوشمند، یا مدیریت هوشمند (فراتر از هوشمندی کسب‌وکاری که امروز می‌شناسیم) باشد.

امّا آن‌چه که تا کنون از آن اطمینان داریم، تمایل و ارادۀ انسانی بر کنترل و بهره‌گیری از هوشمندی‌های ساختۀ دست خود است. ایّوب و پاین (2015) در مقالۀ خود با عنوان «راهبرد در عصر هوش مصنوعی» اذعان می‌دارند: «در حال حاضر، حتّی یک هوش مصنوعی با قدرتی عظیم نخواهد توانست پیامدها را در یک سیستم اجتماعی پیچیده تعیین کند. پیامدها بسیار پیچیده‌اند؛ حتّی بدون ارادۀ آزاد عوامل دارای احساس. مهم نیست که طرّاحان راهبرد به‌وسیلۀ هوش مصنوعی مدل شده و جنگ با استفاده از لشکر روبات‌های خودکار یاری شوند، راهبردی که شامل انسان می‌شود، در هر صورت طعم اجتناب‌ناپذیر انسان بودن را حفظ خواهد کرد! »

 

منابع:

·        Alexander, S. (2020). Future of Management in an Artificial Intelligence based Workplace. Studies in Indian Place Names (UGC Care Journal). 40 (4): 477- 488.

·        Ayoub, K. , and Payne, K. (2015). Strategy in the Age of Artificial Intelligence. Journal of Strategic Studies. 39 (5-6): 793-819.

·        Bainbridge, W. S. , Brent, E. E. , Carley, K. M. , Heise, D. R. , Macy, M. W. , Markovsky, B. , and Skvoretz, J. (1994). Artificial Social Intelligence. Annual Review of Sociology. 20: 407- 436.

·        Congressional Research Service (2019). Artificial Intelligence and National Security. November 21, 2019. R45178.

·        Elliott, J. (2019). Artificial Social Intelligence for Successful Teams (ASIST). Defense Advanced Research Projects Agency, Program Information.

·        Microsoft Research (2017). Microsoft Research India Summer Workshop on Artificial Social Intelligence. June 5, 2017 - June 30, 2017.

·        Mlynář J. , Alavi, H. S. , Verma, H. , and Cantoni L. (2018) Towards a Sociological Conception of Artificial Intelligence. In: Iklé M. , Franz A. , Rzepka R. , Goertzel B. (eds) Artificial General Intelligence. AGI 2018. Lecture Notes in Computer Science, vol 10999. Cham: Springer.

 

-

 

1399/02/02 - ٠٩:١٢ / شماره خبر: ١١٢٢ / تعداد نمایش خبر: 236
1399/02/02 - ٠٩:١٢ / Code: ١١٢٢ / Number: 236
امتیازدهی
برای این خبر نظری ثبت نشده است
نظر شما
نام :
ايميل : 
*نظرات :
متن تصویر را وارد کنید:
 





«نشریات علمی دانشکده»

  فصلنامه مدیریت راهبردی دانش سازمانی          فصلنامه پژوهش‌های مدیریت منابع انسانی          فصلنامه مدیریت اسلامی          فصلنامه علمی پژوهش های راهبردی بودجه و مالی           نشریه علمی پژوهش های مدیریت سیستم

آدرس: تهران - بزرگراه شهید بابایی - دانشگاه جامع امام حسین (ع) - پردیس مرکزی- دانشكده و پژوهشكده مدیریت و اقتصاد

تلفن تماس: 77105823-021    پست الکترونیکی: ckm@ihu.ac.ir

تمام حقوق مادی و معنوی این سایت متعلق به دانشگاه جامع امام حسین(علیه السلام) می باشد.
همراهان این صفحه:46728