خرید تور تابستان

هوش مصنوعی با قدرت تصمیم‌گیری طبیعی!

شان هایگرتای در سایت Philosophers Take On the World مطلبی درباره‌ی هوش مصنوعی نوشته است که با ترجمه‌ی سمانه عرفان در سایت خانه اخلاق پژوهان جوان منتشر شده است. متن کامل را در ادامه بخوانید.

«هوش مصنوعی روزبه‌روز در حال پیشرفت است. شکی نیست که چالش‌های جدیدی پیشِ روی ما قرار خواهد داد. یکی از این چالش‌ها، چالش تصمیم‌گیری است. آیا باید تصمیم‌گیری را منحصر در انسان بدانیم؟ یا می‌توانیم تصمیم‌گیری را به ربات‌های فوق هوشمند یا هوش مصنوعی واگذار کنیم؟

وقت آن است که هوش مصنوعی را جدی بگیریم. سرمایه­‌گذاران در حال حاضر به شرکت­‌های هوش مصنوعی هجوم آورده‌­اند و خودروهای خودران که پیش از این صرفاً در فیلم های علمی-تخیلی حضور داشتند، به واقعیت تبدیل می‌کنند. تحلیل­گران به این واقعیت پی برده­‌اند که این فناوری، در آینده­‌ای نزدیک، تحولات شگرفی را در شیوۀ زندگی ایجاد خواهد کرد.

در ژانویۀ سال ۲۰۰۵، کنفرانسی دربارۀ تأثیرات بلندمدت هوش مصنوعی برگزار شد که نتیجۀ آن به صورت نامۀ سرگشاده در هر روزنامۀ مهمی پوشش داده شد. نامه با لحن جسورانه‌­ای می‌­گوید: «ما قادر به پیش‌بینیِ دستاوردهای هوش بشریِ تقویت‌شده با ابزارهای هوش مصنوعی نیستیم؛ بااین‌حال، ریشه‌­کنی بیماری و فقر دور از دسترس به نظر نمی­‌رسد.»

در تاریخ ۲۸ ژوئیۀ ۲۰۰۵، من به همراه جمعی از پژوهشگران هوش مصنوعی و رباتیک، نامه‌­ای را امضا کردیم. در این نامه، خواستار ممنوعیت سلاح­‌های تهاجمی خودکاری شدیم که هیچ­‌گونه «مدیریت انسانی مؤثری» بر روی آنان نیست.

تصمیم­‌گیری بهتر

تعریف کردن مفهوم «هوش» دشوار است. در متن این نامه، در زمینۀ هوش مصنوعی، هوش را به «توانایی تصمیم‌گیری، برنامه‌ریزی یا استدلال صحیح» تعریف کرده است. سیستم­‌های هوش مصنوعی علی­رغم پیشرفت­‌های چشمگیر، قادر به جایگزینی مغز انسان با توانایی­‌های منحصر به فرد آن در حل مسائل پیچیده، نوآوری و ارادۀ آزاد، حداقل در چند دهۀ آینده نخواهد بود. بااین‌حال، دامنۀ تصمیماتی که آن‌ها از طرف ما خواهند گرفت افزایش خواهد یافت و بیشتر تصمیمات [حتی تصمیمات کاربردی] پیامدهای اخلاقی دارند. در بسیاری از وضعیت­‌ها، هوش مصنوعی در مقایسه با ما تصمیم اخلاقی بهتری خواهد گرفت.

آیا این امر به نظر دور از ذهن است؟ مطالعه‌­ای در سال ۲۰۰۰ انجام شد که نشان داد قضات در جلسات آزادی مشروط، پس از صرف ناهار رویکردی بسیار ملایم‌­تر اتخاذ می­‌کردند. سیستم‌­های هوش مصنوعی خسته یا گرسنه نمی‌­شوند. ربات­‌های خودمختار میدان نبرد را در نظر بگیرید که مغلوب خستگی، گرسنگی یا ترس نخواهند شد.

در میان گروه

در اخلاق نظامی بحث‌های گسترده‌­ای در مورد وضعیت­‌هایی وجود دارد که چه زمانی سیستم هوش مصنوعی باید همراه انسان در یک گروه به کار گرفته شود و چه زمانی سیستم هوش مصنوعی باید کاملاً مستقل کار کند. در بسیاری جهات، سیستم­‌های خودکار در حال حاضر درک و عکس­‌العمل بهتری نسبت‌به انسان دارند و با دخالت انسان کُند می‌شوند. ارزش افزودۀ انسانی ناشی از قضاوت و تصمیم‌گیری ماست، اما این‌ها مصون از خطا نیستند.

همان­‌گونه که رزا بروکس، استاد حقوق جورج تاون و مقام سابق پنتاگون، وسوسه‌انگیز بیان کرد که سابقۀ ایالات متحده در تصمیم‌گیری های مربوط به کشتار در میدان جنگ «وحشتناک» است. پرسش اصلی این است آیا از نظر اخلاقی صحیح است که بخواهیم ماشین‌ها از تصمیم‌گیری خودداری کنند «به ویژه زمانی که قادرند این کار را بهتر از انسان انجام دهند؟»

ممکن است اضافه شدن قضاوت انسانی به گروهِ [انسان و هوش مصنوعی] به جای تضمین و حراست، باعث ایجاد نقص شود.

هوش مصنوعی در مقایسه با ما تصمیم اخلاقی بهتری خواهد گرفت.

اعتماد به ماشین

در وضعیت‌­های مشخص و محدود (مثلاً در تصمیمات درمانی پزشکی، تصمیم بر چگونگی تخصیص بودجۀ پروژه به بهترین نحو یا تصمیم بر این‌که آیا هدف ورودی یک جنگنده دشمن است یا خیر) احتمالاً به زودی هوش مصنوعی­‌ای خواهیم داشت که بتواند واقعیت‌­ها را بسنجد و به خوبی انسان یا بهتر از او در کسری از ثانیه تصمیم­‌گیری کند. تصمیمات ماشینی با سوگیری و براساس اطلاعات بسیار بیشتر شفاف خواهد شد.

برخی افراد به‌طور غریزی در مورد واگذاری تصمیم‌­گیری به ماشین­‌ها احساس نگرانی می­‌کنند. اما اعتماد به دیگر انسان‌ها و واگذاری تصمیمات اخلاقی به آن‌­ها را طبیعی می­‌دانند. ما زمان و فرصت کافی و تمامی مهارت­‌ها را برای گرفتن یک تصمیم اخلاقی بی‌­عیب و آگاهانه در مورد هر امری را در اختیار نداریم. به قانون­‌گذاران، قضات و هیئت منصفه اختیار می­‌دهیم قوانین اخلاقی را طراحی و اِعمال کنند و ما در جامعه آن را اجرا می­‌کنیم. سیاست­مدارانی را انتخاب می­‌کنیم که تصمیم می­‌گیرند چه مقدار از مالیات­‌های ما صرف حمایت از فقرا، امور مربوط به سلامتی و یارانۀ انرژی­‌های تجدیدپذیر شود. در زندگی روزمره، به دوستان و همکاران­‌مان اجازه می­‌دهیم ما را راهنمایی کنند یا به روش‌های گوناگونی به جای ما عمل کنند.

پس چرا به ماشین اعتماد نکنیم؟ در واقع، چندین دلیل خوب برای محتاط بودن وجود دارد.

درست است که تصمیم‌­گیری انسانی مملو از تعصبات و تناقضاتی است، اما این تناقضات تا حد زیادی قابل‌پیش­‌بینی هستند. ما روش­‌‎هایی را برای محاسبه و جبران این تعصبات می‌­شناسیم. علاوه بر این، به دلیل وجود مفهومی مبهم و غیرقابل محاسبه به نام «فهم مشترک»، محدودیت­‌هایی برای اشتباهات تصمیم­‌گیری افراد باهوش و متعادل وجود دارد.

این لزوماً در مورد هوش مصنوعی صدق نمی‌­کند. وقتی هوش مصنوعی اشتباه می­‌کند، ممکن است اشتباهی چشمگیر و با نتایج غیرقابل پیش‌­بینی بیشتری باشد. الگوریتم‌­های ساده باید بسیار قابل‌پیش­‌بینی باشند در عین حال بتوانند در وضعیت­‌های غیرمعمول تصمیم­‌های غیرمأنوس بگیرند. یک مثال پیش پا افتاده این است که در سال ۲۰۰۰ دو الگوریتم بسیار اساسی برای فروش طراحی شد که یکی از آن‌ها برنامه‌­ریزی شد تا کتابی را کمی ارزان‌­تر از نزدیک‌ترین رقیب بفروشد و دیگری برنامه­‌ریزی شد تا کتابی را با قیمت قابل توجّهی بالاتر از رقبای خود بفروشد.

این دو الگوریتم به طور خودکار به یکدیگر فشار آوردند به طوری که قیمت­‌ها بالا رفت، تا جایی که یک کتاب درسی در آمازون به قیمت ۲۳ میلیون دلار به فروش رفت. مثالی جدی‌­تر می‌­آوریم: در موقعیتی خاص که نگرانی در مورد بحران بدهی اروپا وجود داشت و این بحران منجر به فروش غیرعادی سهام الگوریتمی شد. همچنین مجموعه‌­ای از تعاملات غیرمنتظره میان الگوریتم‌­های معاملات با فرکانس بالا در طول سقوط ناگهانی (Flash Crash) سال ۲۰۰۰ نقش کلیدی در از میان بردن یک تریلیون دلار از بازار سهام ایالات متحده داشتند.

هوش مصنوعی با قدرت تصمیم‌گیری طبیعی!
هوش مصنوعی با قدرت تصمیم‌گیری طبیعی!

همان­طور که فرایند تصمیم­‌گیری پیچیده‌­تر می‌شود و مجموعه اقدامات ناشی از آن‌ها کمتر حسی-شهودی می‌­شود، حتی برای افراد ماهر و فنی همیشه دشوارتر می­‌شود که در یک نگاه تشخیص دهند آیا استدلال پشت تصمیم­‌ها درست است؛ مشروط بر این­‌که نتایج در اکثریت قریب به اتفاق مواقع به خوبی تشخیص داده شود. در نتیجه ما حقیقتاً باید بیشتر و بیشتر به روش­‌ها اعتماد کنیم. همچنین تشخیص این‌که چگونه، چرا و در چه موقعیت­‌هایی ماشین دچار خطا می‌شود و اهمیت شکست چقدر خواهد بود، دشوارتر می‌­شود.

مطالعه‌­ای در سال ۲۰۰۰ انجام شد که نشان داد قضات در جلسات آزادی مشروط، پس از صرف ناهار رویکردی بسیار ملایم‌­تر اتخاذ می­‌کردند. سیستم‌­های هوش مصنوعی خسته یا گرسنه نمی‌­شوند. ربات­‌های خودمختار میدان نبرد را در نظر بگیرید که مغلوب خستگی، گرسنگی یا ترس نخواهند شد.

ماشین­‌هایی که ما آن‌­ها را درک می­‌کنیم و آن­‌ها ما را!

سه چالش داریم که نیاز به بررسی فوری دارد. یکی چالش فنی است؛ چیزهایی را طراحی می­‌کنیم، اگرچه پیش‌­بینی هر موقعیتی که در آن هوش مصنوعی ممکن است تصمیم بگیرد و آن­چه ممکن است اشتباه باشد، بسیار دشوار است، اما فرصتی برای تفکر دقیق در مورد اقدامات حفاظتی و محدودکردن میزان شکست وجود دارد. برای این‌که کاربرهای انسانی آسان‌­تر بتوانند در مورد فرایندهای داخلی تکنیک‌­هایی مانند شبکۀ عصبی تحقیق کنند، پیشنهاد می‌­کنیم تحقیقاتی انجام شود.

چالش دوم جنبۀ انسانی است. این سیستم‌ها برای همه، غیر از کاربرانی که از نظر فنی ماهر هستند «جعبه­‌های سیاه» محسوب می‌شوند. ما می‌­توانیم ورودی‌­ها و خروجی‌­ها را ببینیم، اما نمی­‌توانیم درک روشنی از عملکردهای داخلی داشته باشیم. بنابراین، ما باید محدودیت­‌های این “جعبه‌­های سیاه” را به‌وضوح درک کنیم. باید مطمئن شویم که وقتی سیستم­‌های هوش مصنوعی با سناریوهایی مواجه می‌­شوند که نمی­‌توانند از عهدۀ آن برآیند، مهارت‌­هایی برای تصمیم‌­گیری مؤثر در اختیار داریم، حتی اگر به ندرت دلیلی برای مداخله داشته باشیم. صنعت هوانوردی نسخه‌­ای از این چالش را «مسئلۀ خلبان خودکار» می‌­نامد، که در آن اتکای بیش از حد به خلبان خودکار می­‌تواند منجر به این شود که خلبانان انسانی برای پاسخ صحیح به مشکلات پرواز فاقد مهارت باشند. مثلاً در سال ۲۰۰۰ ، در پرواز ۴۴۰ ، بعد از این‌­که خلبان خودکار ارتباطش قطع شد، خطای خلبان انسانی منجر به سقوط هواپیما و مرگ همۀ سرنشینان آن شد.

سومین چالش فلسفه و محاسبات را از هم جدا می کند: همانطور که ما به سمت هوش مصنوعیِ قوی‌تر و عمومی‌تر پیش می‌رویم، با هدف نهایی هوش مصنوعی «قوی»، [یعنی هوش مصنوعی از نظر عملکردی در همه حوزه‌های فکری که برای ما اهمیت دارد معادل با یک انسان (یا بیشتر) بشود]. این کار ضروری است برای این‌که راه‌هایی بیابیم که سیستم‌های هوش مصنوعی را سرشار از انگیزه‌هایی کنیم که ارزش‌های مشترک انسانی را به طور جامع و قابل اعتماد در بر بگیرد.

به‌عبارت دیگر، ما می‌خواهیم ماشین‌هایی را طراحی کنیم که ممکن است از ما باهوش‌تر شوند، زیرا محدودیت‌های بی‌شمار زیست‌­شناسی را کنار می‌زنند اما همچنان بر طبق بهترین منافع ما عمل می‌کنند. گفتن این کار آسان‌تر از انجام آن است، زیرا ارزش‌های انسانی فوق‌العاده پیچیده و اغلب متناقض‌اند و به هیچ وجه جهانی نیستند. در حالی که قوانین رباتیک آسیموف جذاب است، معایب آن‌ها پس از اندکی تفکر آشکار می‌شود. طراحی چنین فناوری قدرتمند، ایمن و سودمندی برای بشریت ممکن است بزرگ‌ترین چالش برای همه باشد.»

منبع: Philosophers Take On the World

انتهای پیام

بانک صادرات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا