با توجه به سرعت چشمگیر رشد هوش مصنوعی و کاربردهای آن در زمینههای متعدد، تأثیر این فناوری بر اخلاق اجتماعی سؤالهایی به وجود آورده است.
فناوری اطلاعات دیجیتال دسترسی همهگیر به اطلاعات را در هر زمان و هر نقطهای آسان کرده است. این روند تأثیر چشمگیری بر شکلگیری تمام ابعاد جامعه از تولید تا توزیع صنعتی تا مصرف کالاها و خدمات گذاشته است. تأثیر فناوری اطلاعات دیجیتال مانند تحولات فناوری در گذشته بسیار فراگیر است؛ به طوری که انسان نهتنها خود را با آن تطبیق میدهد؛ بلکه رفتار خود را هم منطبق با آن تغییر میدهد.
امروزه، فناوری اطلاعات دیجیتال نحوهی تعامل افراد با یکدیگر در جامعه و حتی شراکت با دیگران را هم تعریف میکند. روابط بازتعریف بین مصرفکنندگان و تولیدکنندگان و تأمینکنندگان؛ و صنایع و نیروهای کار؛ و ارائهدهندگان خدمات و مشتریان؛ و دوستان و شرکا به تغییرات چشمگیری در جوامع منجر شده است که میتواند هشداری برای نتیجهگیریهای اخلاقی باشد. خیلی زود انسان امروزی با موج بعدی تحولات فناوری روبهرو خواهد شد: هوش مصنوعی. انقلاب دیجیتال اواخر قرن بیستم دسترسی به اطلاعات را بسیار ساده کرده است و امکان تصمیمگیری سریع را فراهم میکند؛ به طوری که برای مثال، سازمانها صرفا به اتخاذ تصمیمهای بنیادی اکتفا میکنند و سایر تصمیمها را واگذار میکنند.
خودکارسازی تصمیم گیری
هوش مصنوعی در حال تغییر است و با خودکارسازی فرایند تصمیمگیری، نویدبخش نتایج باکیفیتتر و بهبود بازدهی است. موفقیتهای سیستمهای بازی هوش مصنوعی در شکست قهرمان شطرنج گری کاسپاروف و قهرمان Go، کی جای، ابعاد کیفی هوش مصنوعی و برتری آن بر انسان در محاسباتی مثل تأثیر تصمیمگیری لحظهای بر حرکتهای احتمالی آینده را ثابت میکنند. متأسفانه هوش مصنوعی در فرایند تصمیمگیری، شفافیت، قابلیت توصیف، قابلیت پیشگویی، قابلیت آموزش، قابلیت محاسبهی حرکت انسانی را حذف کرده و ابهام را جایگزین آنها میکند. منطق حرکت نهتنها برای بازیکنان، بلکه برای خالق برنامه هم مجهول است. در چنین شرایطی، وقتی هوش مصنوعی شروع به تصمیمگیری میکند، دیگر اثری از شفافیت و قابلیت پیشگویی دیده نمیشود.
حالا فرض کنید کودکی از والدین خود برای تماشای فیلم با دوستانش اجازه بخواهد و والدین موافقت میکنند، یک هفته بعد، کودک دیگر همان درخواست را میکند؛ اما اینبار والدین رد میکنند. این داستان ساده، مسئلهی نابرابری و سلیقهمحوری را مطرح میکند. برای اجتناب از اتهام سلیقهمحوری، والدین به کودک خود توضیح میدهند که قبل از دریافت پولتوجیبی باید تکالیف خود را انجام دهد. در صورتی که والدین به کودک خود دلیل این کار را توضیح ندهند، احتمال شدتگرفتن تنش در خانواده وجود دارد. حالا فرض کنید سیستم هوش مصنوعی چنین نقشی را ایفا کند که از هزاران خانواده در موقعیتهای مختلف داده جمعآوری کرده است. سیستم با بررسی پیامد اجازهدادن در خانوادهها میتواند این طور نتیجه بگیرد که یکی از بچهها میتواند پولتوجیبی بگیرد؛ در حالی که دیگری مجاز به دریافت پول نیست.
با این حال، سیستم هوش مصنوعی نمیتواند دلیل کار خود را توضیح دهد؛ بلکه فقط میتواند با وزندهی به معیارهایی مثل رنگ مو، وزن، قد و دیگر مشخصات کودک، بهترین تصمیم ممکن را برای خانوادههای دیگر هم اتخاذ کند. این سیستم چگونه کار میکند؟ در دادگاههای قدیم، حتی در صورت یکساننبودن شرایط و شباهت تقریبی آنها، تصمیمگیری نهایی براساس ترکیبی از حکمها اتخاذ میشد. این در حالی است که هوش مصنوعی به رأی بر مبنای سابقه یا قاعدهی سابقه نیازی ندارد. تصمیمهای هوش مصنوعی میتوانند برای انسانها ساختگی به نظر برسند؛ زیرا معمولا انسانها به مجموعهی محدودی از تجربههای مستقیم و غیرمستقیم تمایل دارند؛ در حالی که ماشینها به مجموعهی گستردهای از دادهها دسترسی دارند.
هوش
انسانها نمیتوانند با دقت زیاد تجربیات خود را در بازهی زمانی طولانیمدت جستوجو کنند؛ در حالی که این کار برای ماشین بسیار ساده است. انسانها معمولا معیارهایی را حذف میکنند که به نظر غیرمرتبط یا غیرمنطقی میرسند؛ در حالی که ماشین معمولا چیزی را حذف نمیکند. درنتیجه، ماشین ممکن است تصمیمهای غیرمرتبط باسابقه را اتخاذ کند که در مقیاس درکپذیر انسان قرار ندارد. با حرکت سریع کسبوکارها و جوامع بهسمت هوش مصنوعی و بهبود تصمیمگیری در افق زمانی طولانیتر، انسان به دلیل چشمانداز محدود عقبنشینی میکند و ناامید میشود و تنها ارزش برای عملکرد صحیح جامعه، یعنی اعتماد، هم به مرور کاهش پیدا میکند.
برای درک میزان ساختگیبودن تصمیمهای هوش مصنوعی، باید روش تصمیمگیری انسان را بررسی کرد. انسانها معمولا براساس مجموعهای از قوانین آشکار یا روابط مبتنی بر پیامدگرایی و ترکیب تصمیم میگیرند. انسانها در برابر اطلاعات مرتبط برای تصمیمگیری گزینشی عمل میکنند؛ اما ماشینها بهصورت غیرگزینشی عمل میکنند و حتی معیارهایی را در نظر میگیرند که در روند تصمیمگیری برای انسان اهمیتی ندارند. مثالهای بیشماری از این نمونه وجود دارد که میتوان به غیرفعالسازی ربات چت مایکروسافت پس از ارسال متنهای ضدیهودی در توییتر یا بررسی دانشگاه بوتسون اشاره کرد که رابطهی جنسیتی کلماتی مثل Boss و Architect و Financier با مردان و رابطهی جنسیتی کلماتی مثل Nurse و Receptionist با زنان را آشکار کرد. این خروجیها را احتمالا دادهها تولید میکنند؛ اما در تضاد با ارزشهای آشکار انسانی هستند. اگر فرایندهای دادهمحور به خروجی الگوریتمهای هوش مصنوعی وابسته باشند، تصمیمهای انحرافی را به بار خواهند آورد که اغلب اوقات در تضاد با ارزشهای اخلاقی هستند.
نفوذناپذیری هوش مصنوعی مانع از تصمیمگیری صحیح میشود
در سال ۲۰۱۶، ProPublica شواهد چشمگیری از این دست را ارائه داد. برای مثال، دادگاههای ایالات متحده از برنامهای کامپیوتری استفاده کرده بودند که بهاشتباه متهمان سیاهپوست را که در بازهای دوساله مرتکب جرمی نشده بودند، بهعنوان مجرم با نرخ دوبرابر متهمان سیاهپوست بار دیگر پرچمگذاری کرده بود (۴۵ در مقایسه با ۲۳ درصد). این در حالی است که اگر انسانی این کار را انجام میداد، لقب نژادپرست به او داده میشد.
هوش مصنوعی میتواند بین تجربیات جمعی و ارزشهای آشکار جدایی بیندازد. تجربههای جمعی ایستا نیستند؛ بلکه براساس تصمیمهای مهم اجتماعی شکل میگیرند. تصمیمهای اجتماعی هم براساس ارزشهای اخلاقی اتخاذ میشوند؛ بنابراین، آیا فرایند تصمیمگیری به ماشینی واگذار میشود که صرفا دربارهی گذشته به یادگیری میپردازد نه آینده؟ با توجه به مقیاس کاربردهای هوش مصنوعی در زمینههایی مثل تشخیص پزشکی، خدمات مالی و نظارت بر کارمند، حتی تغییرات کوچک هم پیامدهای شدید خواهند داشت. از آنجا که روزبهروز عملکرد الگوریتمها در زمینهی پیشگویی بهبود پیدا میکند، منطق ناظر بر چنین تصمیمهایی هم نفوذناپذیر خواهند شد.
بر همین اساس، انسان دیدگاه جامع تصمیمگیری را از دست میدهد و تمام اصول گذشته را کنار میگذارد. در بعضی نمونهها، این مسئله میتواند غیراخلاقی و غیرقانونی و حتی کوتهبینانه باشد. برای مثال، الگوریتم تکرار جرم اصولی مثل سابقهی بیگناهی و برابری فرصتها را نادیده گرفته است. سازگاری یکی از پیشنیازهای لازم اخلاق و یکپارچهسازی است. تصمیمها باید به استانداردهایی بیشتر از دقت آماری وابسته باشند. قرنها است که فضیلتهای مشترکی مثل اعتماد متقابل، کاهش آسیب، برابری و عدالت خود را بهعنوان شاخصهای بقای هرگونه سیستم استنتاجی ثابت کردهاند.
بدون سازگاری منطقی، سیستمهای هوش مصنوعی از ثبات و پاسخگویی محروم میشوند. ثبات و پاسخگویی دو عامل اساسی برای اعتمادسازی در طبیعت به شمار میروند. نفوذناپذیری تصمیمهای دادهمحور با ایجاد شکاف بین تمایلهای اخلاقی و استدلالهای منطقی، مانع از دخالت در فرایندهای تصمیمگیری میشود. دنیای جدید انسان اینگونه است؛ جایی که تصمیمهای پیچیده به انتخابهای انعکاسی تقلیل مییابند و براساس خروجیهای نظارتشده اعمال میشوند؛ جایی که پیچیدگی بهسادگی تبدیل میشود و فناپذیری به کاربردپذیری. امروزه، ادراک انسان از اخلاق به منزلهی چارچوبی برای تصمیمگیری در نظر گرفته میشود. مدت زیادی نیست که تصمیمگیریهای انسان، سایهی شک را بر اخلاق انداخته است.
لینک مطلب:
https://www.eranico.com/fa/content/101748