خرید تور تابستان ایران بوم گردی

در اخلاق هم چرتکه بنداز | اخلاق ریاضی‌وار چیست؟

الاد اوزانیس درباره‌ی اخلاق ریاضی‌وار مطلبی در سایت ایان نوشته‌است که با ترجمه‌ی امیرحسین آقامحمد در سایت خانه اخلاق پژوهان جوان منتشر شده‌است. متن کامل را در ادامه می‌خوانید.

به کسی که سرش در حساب و کتاب است، می‌گویند آدم دقیق و حواس‌جمع! اما زندگی که صرفاً مجموعه‌ای از معادلات و معاملات نیست. گاهی باید بنشینیم و ببینیم با خود چندچندیم. کارهایی که کرده و می‌کنیم، تصمیماتی که گرفته و می‌گیریم، همه‌وهمه تأثیر خاص خود را بر جای می‌گذارند. جدای از کسب‌وکارمان، بد نیست که در زندگی روزمره‌مان نیز گاهی یک دودوتاچهارتایی کنیم، به‌خصوص اگر پای اخلاق در میان باشد. اخلاق ریاضی‌وار یعنی همین.

اخلاق ریاضی‌وار چیست؟

اندیشیدن به رابطۀ میان ریاضیات و اخلاق، آسان است، اما درک آن سخت. فرض کنید خانمی به نام جِین شاهد غرق‌شدن پنج نفر در یک طرف دریاچه و یک نفر در طرف دیگر است. در دو طرف دریاچه، حلقه‌های نجات وجود دارد. او می‌تواند یک طرف را نجات دهد، یا آن پنج نفر یا آن یکی را. مشخصاً باید آن پنج نفر را نجات دهد. این یک مثال ساده از استفاده از ریاضیات برای تصمیم‌گیری اخلاقی است؛ پنج، بزرگ‌تر از یک است، بنابراین جِین باید پنج نفر را نجات دهد.

اخلاقِ ریاضی‌وار یعنی به‌کارگیری روش‌های ریاضی ــ مانند منطق صوری و احتمال ــ در حل مسائل اخلاقی. اخلاق، شامل مفاهیم اخلاقی ــ مانند خوب و بد و درست و غلط ــ است. اما اخلاق، مفاهیم کمّی را نیز شامل می‌شود، مانند آسیب‌رساندن به افراد با تعداد بیشتر یا کمتر، و انجام اقداماتی با احتمال منفعت‌بخشی یا ضرررسانی بیشتر یا کمتر. ابزارهای ریاضی برای انجام چنین مقایسه‌های کمّی‌ای مفیدند. آن‌ها همچنین در زمینه‌های بی‌شمار دیگر مثل وقتی که نمی‌دانیم عواقب اعمال‌مان چه خواهد بود، سودمندند. چنین داستان‌هایی، ما را به درگیرشدن در تفکر احتمالی و ارزیابی احتمال نتایج خاص ملزم می‌کند. استدلال شهودی، در چنین مواردی، بسیار خطاپذیرند، و همان‌طور که خواهیم دید، استفاده از ابزارهای ریاضی، دقت استدلال ما را بالا می‌برد و به ما کمک می‌کند تا خطا و سردرگمی را از بین ببریم.

اخلاق ریاضی‌وار از اعداد و معادلات برای نشان‌دادن روابط بین زندگی انسان‌ها، تعهدات و محدودیت‌ها بهره می‌برد. شاید برخی این کار را ایراددار بدانند. برنارد ویلیامزِ فیلسوف، زمانی نوشت که اخلاق ریاضی‌وار «حتی درمورد تفاوت بین قتل‌عام ۷۰۰۰۰۰۰ نفر و قتل‌عام ۷۰۰۰۰۰۱ نفر چیزی برای گفتن خواهد داشت». ویلیامز از این احساس مشترک سخن می‌گوید که اخلاق ریاضی‌وار آنچه را واقعاً در رابطه‌ با اخلاق مهم است نادیده می‌گیرد: توجه به زندگی انسان، شخصیت افراد، اعمال آن‌ها و روابط‌شان با یکدیگر. اما این بدان معنا نیست که استدلال ریاضی نقشی در اخلاق ندارد. نظریه‌های اخلاقی می‌سنجند که آیا یک عمل نسبت‌به عمل دیگر، اخلاقاً بهتر است یا بدتر. اما آن‌ها همچنین میزان بهتر یا بدتربودن یک عمل نسبت‌به عملی دیگر را بررسی می‌کنند. اخلاق را نمی‌توان صرفاً به اعداد تقلیل داد، اما همان‌طور که خواهیم دید، بدون دودوتاچهارتای اخلاقی، اصول اخلاقی متوقف می‌شود.

در این مقاله، من از روش‌های مختلفی می‌گویم که در آن‌ها می‌توان از اخلاق ریاضی‌وار برای رویارویی با سؤالات و مسائل اخلاقی استفاده کرد، و اینکه در درجۀ اول، بر رابطۀ بین اخلاق، احتمال و عدم قطعیت تمرکز می‌کند. اخلاق ریاضی‌وار محدودیت‌هایی دارد، و من تصمیم‌گیری دربارۀ آیندۀ آن را شرح می‌دهم.

اخلاق ریاضی‌وار به چه کارِ ما می‌آید؟

توی اخلاق هم چرتکه بنداز | اخلاق ریاضی‌وار چیست؟
درک پارفیت

بیایید با درنظرگرفتن اینکه چگونه اخلاق نباید از ریاضیات استفاده کند شروع کنیم. دِرِک پارفیت، فیلسوف، در کتاب تأثیرگذار خود، دلایل و اشخاص (۱۹۸۴)، چندین اصل نادرست اخلاق ریاضی‌وار را موردتوجه قرار می‌دهد. یکی سهم از کل است، یعنی خوبی یا بدی عمل شخص با سهمی که او در ایجاد خیر یا شر دارد، تعیین می‌شود. براساس این دیدگاه، کمک به چهار نفر دیگر برای نجات ۱۰۰ کارگر که در معدن گیر افتاده‌اند، بهتر از رفتن به جاهای دیگر و نجات ۱۰ کارگر معدنی است که به‌ دام‌ افتاده‌اند؛ حتی اگر تمام آن ۱۰۰ کارگر به‌تنهایی توسط چهار نفر نجات پیدا کنند. به همین دلیل است که سهم یک نفر از خیر کل، نجات ۲۰ نفر (۱۰۰/۵) است که این مقدار معادل دو برابر نجات ۱۰ نفر می‌شود. اما این باعث می‌شود که ۱۰ نفر بی‌دلیل بمیرند. اصلِ سهم از کل، این نکته را نادیده می‌گیرد که پیوستن به چهار نفر در نجات ۱۰۰ کارگر معدن، به‌طور علّی کمکی به نجات آن‌ها نمی‌کند، درحالی‌که رفتن به جاهای دیگر برای نجات ۱۰ کارگر معدن حتماً کمک می‌کند.

یکی دیگر از اصول اشتباه، نادیده‌گرفتن احتمالات کوچک است. ما اعمال بسیاری را به‌طور منظم انجام می‌دهیم. احتمال کمی وجود دارد که این‌ها سبب خیر یا آسیب‌های بزرگ شوند. بااین‌حال، معمولاً نتایج بسیار نامحتمل را در محاسبات اخلاقی خود نادیده می‌گیریم. نادیده‌گرفتن احتمالات کوچک نشان از شکست عقلانیت است، نه اخلاق، ولی ممکن است وقتی در اخلاق ریاضی‌وار به کار می‌رود، منجر به نتایج اخلاقی اشتباه شود. هنگامی که نتیجه می‌تواند بر بسیاری از افراد تأثیر بگذارد، مثلاً در انتخابات، این احتمالات کوچک ممکن است همه‌چیز را تغییر دهد.

اصل نادرست دیگر، نادیده‌گرفتن اثرات نامحسوس است. مثالش زمانی است که ضرر یا منافع نامحسوس (غیرقابل‌مشاهده)، بخشی از یک اقدام جمعی است. فرض کنید ۱۰۰۰ مرد مجروح به آب نیاز دارند و قرار است از یک بشکۀ ۱۰۰۰ لیتری که ۱۰۰۰ نفر هرکدام ۱ لیتر آب به آن اضافه می‌کنند، بین آن‌ها توزیع شود. درحالی‌که هر ۱ لیتر آبِ اضافه‌شده، فقط ۱ از ۱۰۰۰ لیتر را به هر مجروح می‌دهد، ازنظر اخلاقی مهم است که شما یک لیتر خود را اضافه کنید، زیرا ۱۰۰۰ نفر با افزودن یک لیتر به‌طور جمعی به ۱۰۰۰ مرد مجروح هر کدام یک لیتر می‌دهند. برعکس، فرض کنید هر یک از ۱۰۰۰ نفر، یک شوک الکتریکی نامحسوس و کوچکی را به یک فرد بی‌گناه وارد کنند؛ شوک ترکیبی منجر به مرگ آن فرد می‌شود. بسیار اشتباه است که آن‌ها با وجود نامحسوس‌بودن شوک‌های کوچک خود، آن را اعمال کنند.

بنابراین، اخلاق ریاضی‌وار باید به چنین دام‌های رایج در استدلال عملی توجه داشته باشد و سعی کند از آن اجتناب نماید. اخلاق ریاضی‌وار باید نسبت‌به شرایط حساس باشد. اغلب باید احتمالات مرتبط با فواید یا مضرات بسیار کوچک و ناچیز را در نظر بگیرد. اما این نتیجه‌گیری با الزام دیگری از اخلاق ریاضی‌وار در چالش است: باید عملی باشد، که مستلزم تحمل خطا و توانایی پاسخگویی به عدم قطعیت است.

در طول جنگ جهانی دوم، بمب‌افکن‌های متفقین از سامانۀ نشانه‌گیر بمبِ نوردن استفاده کردند، یک کامپیوتر آنالوگ که محل برخورد بمب‌های هواپیما را بر اساس ارتفاع، سرعت و سایر متغیرها محاسبه می‌کرد. اما دستگاه نشانه‌گیری بمب نسبت‌به خطا بسیار حساس بود. علی‌رغم واردکردن داده‌های مشابه (یا بسیار مشابه) در سامانۀ نشانه‌گیر بمب نوردن، ممکن است به دو بمب‌افکن در یک بمباران دستور داده شود که بمب‌های خود را در زمان‌های بسیار متفاوت پرتاب کنند. این اتفاق به‌دلیل تغییرات اندک در داده‌هایی بود که وارد می‌کردند یا به این دلیل که اجزای دو دستگاهِ نشانه‌گیری بمب کاملاً یکسان نبودند. اخلاق ریاضی‌وار باید مانند یک دستگاه نشانه‌گیری بمب به شرایط حساس باشد، اما نه خیلی حساس. اگر به یاد داشته باشیم که همۀ احتمالات، مضرات و منافع کوچک، به‌شکل یکسان ایجاد نمی‌شوند، می‌توانیم به این امر دست یابیم.

باتوجه‌به مکانیک آماری، احتمال کمی وجود دارد که ذرات زیر اتمی در حالت تعادل ترمودینامیکی به‌خودیِ‌خود، خود را به شکل یک فرد زنده بازآرایی کنند. آن فرد را یک شخص بولتزمن بنامید – نوعی از «مغز بولتسمان» که آرتور ادینگتون، ستاره‌شناس انگلیسی، در یک آزمایش فکری در سال ۱۹۳۱ پیشنهاد داد با این هدف که مشکلی را با راه‌حل لودویگ بولتزمن برای یک معما در مکانیک آماری نشان دهد. من می‌توانم خطر ظهور ناگهانی چنین شخصی، درست جلوی ماشینم را نادیده بگیرم. منطقی نیست که به‌خاطر این احتمال، با سرعت ۱۰ کیلومتر در ساعت به‌سمت فروشگاه رانندگی کنم. اما من مجاز نیستم خودرویم را با بی‌احتیاطی برانم و خطر زیرگرفتن عابران پیاده را نادیده بگیرم. احتمال برخورد با عابرپیاده کم است، اما نه بی‌نهایت کم. چنین اتفاقاتی اگرچه نادر است، اما هر روز اتفاق می‌افتد. به‌قول چارلز سندرز پیرس، فیلسوف آمریکایی، یک «تردید همیشگی» وجود دارد که آیا هنگام رانندگی با عابرپیاده برخورد خواهم کرد یا نه؟ بنابراین، باید با احتیاط رانندگی کنم تا این احتمال را به حداقل برسانم. اما من تردیدی ندارم که شخصی جلوی ماشینم ظاهر می‌شود یا نه. پس می‌توان این احتمال را با خیال راحت نادیده گرفت.

احتمال دارد رویدادهایی با اثرات نامحسوس که در یک موقعیت، مهم هستند، در موقعیت دیگر بی‌اهمیت باشند. اخلاق ریاضی‌وار به توضیح این مسئله کمک می‌کند. افزودن ۱ از ۱۰۰۰ لیتر آب برای یک مجروح درصورتی مهم می‌شود که بسیاری دیگر نیز سهم خود را اضافه کنند، بنابراین، فایدۀ کل آن حائز اهمیت است. اما به‌طور جداگانه، زمانی که کل مقدار آبی که به یک مجروح داده می‌شود ۱ از ۱۰۰۰ لیتر است، این مزیت آن‌قدر ناچیز می‌نماید که تقریباً هر اقدام دیگری ــ مثلاً یک دقیقه زودتر با آمبولانس تماس‌گرفتن ــ احتمالاً باعث افزایش بیشتر فایدۀ کل می‌شود. برعکس، واردکردن شوک الکتریکی نامحسوس و ناچیز به یک فرد بسیار اشتباه است، زیرا به آسیب کل آن، که شکنجۀ یک فرد تا حد مرگ است منجر می‌شود. اما انجام یک شوک الکتریکی کوچک به‌عنوان شوخی، مانند آن آدامس‌هایی که با بیرون‌کشیدن‌شان یک شوک الکتریکی ناچیز ایجاد می‌شد، بسیار کم‌اهمیت‌تر است، زیرا آسیب کل آن بسیار ناچیز می‌شود.

اخلاق ریاضی‌وار در همۀ تصمیم‌گیری‌های اخلاقی، همیشه تحت‌الشعاع عدم قطعیت است.

اخلاق ریاضی‌وار همچنین به ما کمک می‌کند که سطح موردنیاز از دقت را برای مجموعه‌ای از شرایط خاص تعیین کنیم. بث ازسوی یک سارق مسلح تهدید می‌شود، بنابراین او مجاز است از نیروی لازم و متناسب برای جلوگیری از سرقت استفاده کند. فرض کنید او به سارق شلیک می‌کند تا او را متوقف کند. حتی اگر او به‌طور قابل‌توجهی از نیروی بیشتری استفاده کند ــ مثلاً تیراندازی به ضاربش به هر دو پا ــ باز می‌تواند کاری اخلاقی انجام داده باشد، چون او درمورد نیروی دقیقِ موردنیاز برای متوقف‌کردن سارق، بسیار نامطمئن است. خطری که با آن روبه‌روست، بسیار زیاد است، بنابراین او در استفاده از نیروی بسیار بیشتر برای محافظت از خود کاملاً موجه است، حتی اگر درنهایت متوجه شود از نیروی زیادی استفاده کرده‌است. با اندازه‌گیری خطری که بث با آن مواجه شده، اخلاق ریاضی‌وار به او اجازه می‌دهد تا میزان نیرویی را که مُجاز است به کار ببرد، محاسبه کند.

بنابراین، اخلاق ریاضی‌وار باید نسبت‌به شرایط حساس باشد و در برابر خطاهای ناشی از عدم قطعیت، مانند استفادۀ بیش‌ازحد اما قابل‌توجیه بث از زور منعطف باشد. کاربرد اخلاق ریاضی‌وار، در واقع کاربرد همۀ تصمیم‌گیری‌های اخلاقی، همیشه به‌واسطۀ عدم قطعیت، تحت‌الشعاع است. همان‌طور که برتراند راسل در تاریخ فلسفۀ غرب (۱۹۴۵) نوشت: «عدم قطعیت، در حضور امیدها و ترس‌ها، دردناک است، اما اگر نمی‌خواهیم با داستان‌های تخیلی خودمان را گول بزنیم و تسکین دهیم، باید آن را تحمل کرد.»

در پاسخ به عدم قطعیت، بسیاری از زمینه‌ها، مانند سیاست عمومی، محاسبات اکچوئری و نوع‌دوستی مؤثر، از نظریۀ مطلوبیت انتظاری استفاده می‌کنند که یکی از قدرتمندترین ابزارهای اخلاق ریاضی‌وار است. نظریۀ مطلوبیت انتظاری در کاربرد هنجاری خود توضیح می‌دهد که مردم چگونه در زمانی که نتایج اقداماتشان با قطعیت مشخص نشده‌ است، بایستی واکنش نشان دهند. به هر نتیجه، مقدار «مطلوبیت» اختصاص می‌دهد ــ عددی که نشانگر میزان ارجحیت یا دلپذیریِ یک نتیجه است ــ و می‌گوید بهترین گزینه آن است که بالاترین مطلوبیت انتظاری را داشته باشد که این مطلوبیت، با محاسبۀ احتمالات تعیین می‌شود.

در نظریۀ مطلوبیت انتظاری استاندارد، مطلوبیت نتایج، ذهنی است. فرض کنید دو گزینه وجود دارد: برنده‌شدن ۱ میلیون پوند به‌طور قطعی یا برنده‌شدن ۳ میلیون پوند با احتمال ۵۰ درصد. شهود ما درمورد چنین مواردی نامشخص است. پرداخت تضمینی عالی به نظر می‌رسد، اما شانس ۵۰ درصد برای یک برد بزرگ‌تر بسیار وسوسه‌انگیز است. تئوری مطلوبیت انتظاری این سردرگمی بالقوه را از بین می‌برد. برنده‌شدن ۱ میلیون پوند برای باب مطلوبیت ۱۰۰ دارد. برنده‌شدن ۳ میلیون پوند مطلوبیتش فقط ۱۵۰ است، زیرا باب می‌تواند تقریباً با ۱ میلیون پوند زندگی خوبی داشته باشد، با ۳ میلیون پوند هم همین‌طور. این مشخصۀ کاهش مطلوبیت جانبی از منابع اضافی، همان دقتی است که استدلال شهودی با آن به مشکل می‌خورد. ازطرف‌دیگر، برنده‌شدن هیچ‌چیز، مطلوبیت منفی ۵۰ دارد. چراکه باب نه‌تنها پولی برنده نخواهد شد، بلکه عمیقاً از عدم دریافت ۱ میلیون پوندِ تضمین‌شده پشیمان خواهد شد. برای باب، مطلوبیت انتظاری گزینۀ اول چنین است:

۱۰۰ = ۱ × ۱۰۰

مطلوبیت انتظاری گزینۀ دوم چنین است:

۵۰ = ۰٫۵ × (۵۰-) + ۰٫۵ × ۱۵۰

پس ۱ میلیون پوندِ تضمین‌شده، گزینۀ بهتری‌ است.

برعکس، فرض کنید مشکل پزشکی آلیس، زندگی او را تهدید می‌کند. عمل جراحی برای نجات جان او ۲ میلیون پوند هزینه دارد. برای آلیس، مطلوبیت ۰ پوند و ۱ میلیون پوند هر دو ۰ هستند؛ هیچ‌یک از نتایج او را نجات نمی‌دهد. اما مطلوبیت ۳ میلیون پوندی ۵۰۰ است، زیرا زندگی او را نجات می‌دهد و او را میلیونر می‌کند. برای آلیس، مطلوبیت انتظاریِ گزینۀ اول چنین است:

۰ = ۱ × ۰

مطلوبیت انتظاریِ گزینۀ دوم چنین است:

۲۵۰ = ۰٫۵× ۰ + ۰٫۵ × ۵۰۰

برای آلیس، ۵۰ درصد شانس برنده‌شدن ۳ میلیون پوند بهتر از یک میلیون پوندِ تضمین‌شده است. این نشان می‌دهد که چگونه اخلاق ریاضی‌وار، دقت مناسبی را به استدلالِ شهودیِ احتمالاً سردرگمِ ما اضافه می‌کند.

بسیاری معتقدند که اخلاق، عینی است. به همین دلیل، اخلاق ریاضی‌وار اغلب از نظریۀ ارزش انتظاری استفاده می‌کند، که در آن مطلوبیت اخلاقی نتایج، عینی است. به ساده‌ترین بیان، ارزش اخلاقی یعنی یک عمل ازنظر اخلاقی چقدر خوب یا بد است. فرض کنید آلیس و بابِ میلیونر در نظر دارند هرکدام یک میلیون پوند برای نجات جنگل‌های بارانی حوزۀ آمازون یا کاهش فقر جهانی اهدا کنند. نظریۀ ارزش انتظاری توصیه می‌کند گزینه‌ای را انتخاب کنند که با بالاترین هدف مطلوبیت اخلاقی انتظاری همراه است. تعیین اینکه کدام مؤسسۀ خیریه بالاترین هدف مطلوبیت اخلاقی انتظاری را دارد دشوار است. اما بعد از اینکه آلیس و باب تصمیم‌شان را گرفتند، هر دو باید به آن کمک کنند. حقیقتاً یکی از آن دو گزینه، ازنظر اخلاقی بهتر است.

در اخلاق هم چرتکه بنداز | اخلاق ریاضی‌وار چیست؟
در اخلاق هم چرتکه بنداز | اخلاق ریاضی‌وار چیست؟

نظریۀ مطلوبیت انتظاری، مانند نظریۀ ارزش انتظاری، یک ابزار ریاضی‌وار اخلاقی و قدرتمند برای پاسخ به عدم قطعیت است. اما هر دو نظریه به‌دلیل اتکای به احتمالات، با خطر سوء‌استفاده مواجه‌اند. انسان‌ها در استدلال احتمالی بسیار بد عمل می‌کنند. احتمال کمی برای برنده‌شدن در قرعه‌کشی‌های خاص یا مرگ بر اثر حملۀ کوسه وجود دارد که تقریباً ۱ در چند میلیون تخمین زده می‌شود. بااین‌حال، ما تمایل داریم احتمالات چنین رویدادهای نادری را بیش از حد تخمین بزنیم، زیرا درک ما از احتمال وقوع آن‌ها به‌دست چیزهایی مانند خیال‌پردازی و ترس دستخوش تغییر می‌شود. ما معمولاً احتمال وقوع اتفاقات خیلی خوب و خیلی بد را بیش از حد تخمین می‌زنیم.

هرچه کمتر درمورد آینده بدانیم، کمتر می‌توانیم احتمالات دقیق را در زمان حال تعیین کنیم.

از اشتباهات دیگر این است که احتمال بالایی را به نتیجه‌ای اختصاص می‌دهیم که در واقع احتمال کمتری دارد. یک مثال، مغالطۀ قمارباز است: قمارباز دلیل می‌آورد که اگر در یک بازی رولت رنگ «سیاه» ۱۰ بار متوالی ظاهر شود، بعدی دیگر قطعاً «قرمز» خواهد بود. قمارباز به‌اشتباه، احتمال خیلی بالایی را به «قرمز» اختصاص می‌دهد. اشتباه دیگر اصل بی‌تفاوتی است: در غیاب شواهد، باید احتمال مساوی را برای همۀ نتایج قائل شویم. اگر کسی اطلاعی از وضع سکه‌ای که بالا می‌اندازیم نداشته باشد، احتمال آمدن شیر یا خط را ۰٫۵ در نظر می‌گیریم. این احتمال فقط در صورتی باید تغییر کند که متوجه شویم سکه مشکلی دارد.

بااین‌حال، نوع دیگری از اشتباه، تخصیص مقادیر معین است درحالی‌که مقادیرمان نامشخص هستند. یک رویداد بسیار با ارزش را در نظر بگیرید که احتمال بسیار کمی دارد به وقوع بپیوندد. فرض کنید یکی از مأموریت‌های کماندویی، احتمال بسیار کمی برای پیروزی در یک نبرد دارد. اینکه آیا برنده‌شدن در یک نبرد، جان ۱ میلیون یا ۱۰ میلیون نفر را نجات می‌دهد و اینکه آیا احتمال موفقیت در مأموریت ۰٫۰۰۰۱ یا ۰٫۰۰۰۰۰۰۰۱ است، مواردی حدسی هستند. ارزش اخلاقی انتظاری مأموریت با ضریب ۱۰۰۰۰ متغیر است: از ۰٫۱ جان نجات‌یافته (۰٫۰۰۰۰۰۰۱ × ۱٫۰۰۰٫۰۰۰) تا ۱۰۰۰ جان (۰٫۰۰۰۱ × ۱۰٫۰۰۰٫۰۰۰). بنابراین نظریۀ ارزش انتظاری ممکن است مناسب بداند که این مأموریت لغو شود چراکه حتی ارزش آن را ندارد که جان یک سرباز (چون: ۱ > ۰٫۱) به‌خاطرش گرفته شود یا اینکه آن مأموریت انجام شود حتی اگر مطمئن باشیم دقیقاً ۹۹۹ نفر جان خود را از دست می‌دهند (چون: ۱۰۰۰ > ۹۹۹).

نظریۀ ارزش انتظاری در این مورد کمک چندانی نمی‌کند. تنها زمانی در پاسخ به عدم قطعیت مفید است که احتمالات براساس داده‌های موجود باشد. هرچه کمتر درمورد آینده بدانیم، کمتر می‌توانیم احتمالات دقیق را در زمان حال تعیین کنیم. زمانی که این ارقام مبتنی بر داده‌های موجود نیستند، نباید صرفاً یک احتمال خاص و ارزش اخلاقی تعیین کرد، به‌ویژه برای حصول ارزش انتظاری بالا. نتایجی که احتمال موفقیت اندکی دارند، فقط به این دلیل که موفقیت‌شان باعث خیر و خوبی زیاد می‌شود، مُجاز یا ضروری نمی‌شوند. اخلاق ریاضی‌وار می‌تواند ما را وسوسه کند تا در جایی که هیچ‌چیزی در دسترس نیست، به‌دنبال دقت باشیم و بنابراین ما را قادر می‌سازد تا محاسبات عینی و فرضیِ نظریۀ ارزش انتظاری را تغییر دهیم.

پس در چه مقیاس زمانی‌ای می‌توانیم احتمالات کمی را به وقوع رویدادهای آینده اختصاص دهیم و چرا؟ در مقیاس زمانی کوتاه‌تر، عدم قطعیت می‌تواند کمتر شود. رویدادی با احتمال وقوع ۱ درصد روزانه بسیار محتمل است که در سال آینده رخ دهد، با فرض اینکه احتمال روزانه ۱ درصد باقی بماند. در مقیاس زمانی طولانی‌تر، عدم قطعیت درمورد وقوع رویدادهایی با احتمال کم افزایش می‌یابد. ما به‌ندرت می‌توانیم بگوییم که یک رویداد تا ۱۰ سال بعد، روزانه ۱ درصد احتمال وقوع دارد. اگر هر اقدامی بتواند به نتایج متعددی منجر شود، عدم قطعیت به‌سرعت تشدید می‌شود و مانند سود مرکب در یک وام بلندمدت افزایش می‌یابد. در واقع، طبق ادبیات تجربی اخیر، «شواهد آماری وجود دارد که نشان می‌دهد پیش‌بینی‌های بلندمدت نسبت‌به حدس‌های تصادفی، میزان موفقیت پایین‌تری دارند.» ظرفیت ما برای ارزیابی آینده با افزایش افق‌های زمانی به میزان قابل‌توجهی کاهش می‌یابد.

اما اکنون، بلندمدت‌گرایی را در نظر بگیرید، ایده‌ای که می‌گوید «به‌دلیل گستردگی بالقوۀ آیندۀ تاریخ بشریت و سایر موجودات ذی‌شعور، تعیین‌کنندۀ اصلی سیاست مطلوب، بشردوستی و سایر اقدامات، تأثیرات آن سیاست‌ها و اقدامات بر آیندۀ بلندمدت است، نه بر ملاحظات لحظه‌ای و زودهنگام.» بلندمدت‌گرایی در حال حاضر کاربردی مشهور در اخلاق ریاضی‌وار است، اما برخی از اشتباهات را نشان می‌دهد که اگر به محدودیت‌های آن توجه کافی نداشته باشیم، ممکن است دچارشان شویم.

بلندمدت‌گرایان ادعا می‌کنند که بشریت در یک نقطۀ محوری قرار دارد؛ انتخاب‌های انجام‌شده در این قرن ممکن است کل آیندۀ آن را رقم بزند. ما می‌توانیم از دو طریق بر آیندۀ خود تأثیر مثبت بگذاریم. اول، با جلوگیری از خطرات وجودی مانند بیماری‌های همه‌گیرِ ساختۀ دست بشر، جنگ هسته‌ای و تغییرات آب‌وهوایی فاجعه‌بار. این امر باعث افزایش تعداد و رفاه افراد آینده خواهد شد. دوم، با تغییر مسیر تمدن ــ یعنی انتقال وجوه و سایر منابع ــ به اهداف بلندمدت.

تعداد افرادی که بلندمدت‌گرایی در آینده در نظر می‌گیرد بسیار زیاد است. اگر بشر ۱،۰۰۰،۰۰۰ سال دیگر باقی بماند ــ زمان معمولی برای گونۀ پستانداران ــ تعداد انسان‌هایی که هنوز متولد نشده‌اند، حداقل به چند تریلیون می‌رسد. اگر پیشرفت تکنولوژی مردم آینده را قادر سازد تا سیارات دیگر را تحت سیطرۀ خود درآورند، این اعداد بسیار بزرگ‌تر می‌شوند، به‌طوری‌که به‌قول نیک بکستید «تعداد اولاد ما در طی میلیون‌ها، میلیاردها یا تریلیون‌ها سال آینده زیاد می‌شود.» براساس برآورد ذکرشده در کتاب ابرهوش اثر نیک بوستروم (۲۰۱۴)، تعداد افراد در آینده می‌تواند به ۱۰۵۸ یا عدد ۱ با ۵۸ صفر مقابل آن برسد.

نظریۀ ارزش انتظاری، اولویت بالاتری برای اکتشافات فضایی قائل است تا کاهش فقر جهانی.

اکنون و در اینجا، سعادت نسل‌های آینده برای ما یک مسئلۀ مهم است، زیرا آینده تحت‌تأثیر زمان حال و اعمال ما قرار می‌گیرد. این موضوع را آرتور سیسیل پیگو، اقتصاددان بریتانیایی، بیش از ۱۰۰ سال پیش در کتاب تأثیرگذارش اقتصاد رفاه (۱۹۲۰) بیان کرد. پیگو دربارۀ تمایل نسل‌های کنونی به اختصاص منابع بسیار کم به منافع نسل‌های آینده هشدار داد. او چنین نوشت: «محیط‌زیست یک نسل می‌تواند نتیجۀ ماندنی‌ای داشته باشد، زیرا می‌تواند بر محیط‌زیست نسل‌های آینده تأثیر بگذارد.» فرانک رمزی، فیلسوف، ریاضی‌دان و اقتصاددان، در مقالۀ «نظریۀ ریاضی پس‌انداز» (۱۹۲۸) به این سؤال پرداخت که جامعه چقدر باید برای نسل‌های آینده پس‌انداز کند: بیش از آن‌چه افراد برای فرزندان یا نوه‌هایشان پس‌انداز می‌کنند؟ کتاب دلایل و اشخاص پارفیت خود کهن‌نمونۀ اخلاق جمعیت است، حوزه‌ای که مشکلات و تضادهای ناشی از این نکته را موردبحث قرار می‌دهد؛ که اعمال ما ممکن است بر هویت کسانی که به وجود خواهند آمد تأثیر بگذارد. همان‌طور که پارفیت در «نسل‌های آینده: مشکلات بیشتر» (۱۹۸۲) نوشت، «ما باید به یک اندازه نگران تأثیرات قابل پیش‌بینی اعمال‌مان باشیم، چه این اعمال در ۲۰۰ سال آینده رخ دهد چه ۴۰۰ سال آینده.»

دیدگاه‌های پیگو، رمزی و پارفیت به تفکر بلندمدتِ نسبتاً کوتاه‌مدت مربوط می‌شود که صرفاً با صدها سال سروکار دارد. ازسوی‌‌دیگر، بلندمدت‌گرایی با پیامدهای انتخاب‌های ما بر تمام نسل‌های آینده ــ هزاران، میلیون‌ها و میلیاردها سال آینده ــ سروکار دارد. اما این تفکر بلندمدت با دو چالش عمده روبه‌رو است: ۱ـ پیش‌بینی این آیندۀ بسیار دور، سخت است؛ عوامل زیادی که اکنون نمی‌توانیم درباره‌شان چیزی بدانیم، تعیین می‌کنند که اقدامات فعلی ما به چه ختم می‌شود. ۲ـ ما رسماً از اثراتی که اعمال‌مان در بلندمدت بر جای می‌گذارد، بی‌اطلاعیم. بنابراین، بلندمدت‌گرایی آنچه را که هیلاری گریوز، فیلسوف از دانشگاه آکسفورد، «ناآگاهی مطلق» نامیده است، به خطر می‌اندازد: که اثرات بلندمدت و ناشناختۀ اقدامات ما با درنظرگرفتن عواقب منطقی و قابل پیش‌بینی آن‌ها، هر نتیجه‌ای را که به آن می‌رسیم، در باتلاق فرو خواهد برد.

همان‌طور که ویلیام مک اسکیل، فیلسوف اخلاق، تابستان امسال به گاردین گفت، بلندمدت‌گرایی ادعا می‌کند که «اکنون می‌توانیم از نظریۀ ارزش انتظاری برای مقابله با عدم قطعیت استفاده کنیم.» این استدلال می‌گوید پیامدهای ناشناخته، در بسیاری از شرایط، توانایی ما را برای تصمیم‌گیری آگاهانه براساس پیامدهای قابل پیش‌بینی اعمال‌مان تحت‌تأثیر قرار نمی‌دهند. مثلاً ما احتمال موفقیت در اکتشافات فضایی را امری قطعی نمی‌دانیم. اما اگر موفق شویم، تریلیون‌ها بار انسان‌های بیشتری در آینده در فضا وجود خواهند داشت نسبت‌به زمانی که بشر هرگز زمین را ترک نکند. برای هر احتمال موفقیت در اکتشافات فضایی بالاتر از مثلاً ۰٫۰۰۰۰۰۰۰۰۰۱ درصد، نظریۀ ارزش انتظاری توصیه می‌کند که اکتشافات فضایی را بر کاهش فقر جهانی اولویت قرار دهیم، حتی اگر کاهش فقر جهانی جان میلیون‌ها نفر را نجات دهد.

اگر دست‌کم احتمال حداقلی وجود داشته باشد که اکتشافات فضایی، به‌نفع یک تریلیون نفر در آینده است، مسلماً ارزش انتظاری اولویت‌دادن به اکتشافات فضایی بسیار بالا خواهد بود. اما احتمال حداقلی دیگری نیز وجود دارد که در اولویت قراردادن کاهش فقر جهانی، می‌تواند بهترین راه سودبخشی به تریلیون‌ها نفر در آینده باشد. شاید یکی از کسانی که نجات می‌یابند، نابغه‌ای باشد که روشی عملی برای سفر در فضا ایجاد کند.

این نتیجه‌گیری بسیار ناخوشایند است. آیا واقعاً باید فداکاری‌های قابل‌توجهی انجام دهیم تا به‌طور جزئی احتمال نتایج بسیار بد را کاهش دهیم یا احتمال نتایج بسیار خوب را به‌طور جزئی افزایش دهیم؟ در پاسخ، برخی از بلندمدت‌گراها به‌نفع تعصب‌گرایی استدلال آورند. تعصب‌گرایی یعنی برای هر نتیجۀ تضمین‌شده، هرچقدر که بد باشد، و برای هر احتمال، هرچقدر که کم باشد، همیشه یک فاجعۀ بسیار بزرگ، اما بسیار بعید وجود دارد، به‌طوری‌که یک نتیجۀ قطعیِ بد، بهتر از احتمالِ ناچیز یک فاجعۀ شدید است. برعکس، برای هر نتیجه، هرچقدر که خوب باشد، و هر احتمال، هرچقدر که کم باشد، همیشه مقداری خوبیِ فزاینده وجود دارد، به‌طوری‌که احتمال ناچیز این خوبی ارتقایافته، هنوز بهتر از نتیجۀ خوبِ تضمین‌شده است. تعصب‌گرایی نشان می‌دهد که نجات جان میلیون‌ها نفر در حال حاضر بدتر از احتمال ناچیز منتفع‌شدنِ تریلیون‌ها نفر در آینده است. در الویت قراردادن اکتشافات فضایی نسبت‌به زندگی میلیون‌ها نفر امروزی، زاییدۀ نظریۀ ارزش انتظاری نیست، بلکه اثباتی بر دستیابی به نتیجۀ اخلاقیِ صحیح است.

بااینکه تعصب‌گرایی جذاب است، نمی‌تواند با عدم قطعیت بسیار زیاد در احتمالات مرتبط با آیندۀ دور مقابله کند و بااین‌حال، همچنان راهِ استفاده از نظریۀ ارزش انتظاری را هموار می‌سازد. عدم قطعیت اطلاعاتِ ما دربارۀ تأثیر سیاست‌های فعلی بر آیندۀ دور تقریباً کامل است. ما نمی‌توانیم شواهدی درمورد چگونگی استفاده از منابع برای دستیابی به اهدافی که بلندمدت‌گرایی از آن‌ها حمایت می‌کند، به دست آوریم؛ شواهدی که برای تخصیص احتمالات به نتایج، ضروری است. اما عدم قطعیت دربارۀ آیندۀ دور را نمی‌توان صرفاً با ضربِ تعداد احتمالاً نجومیِ آیندگان در رفاه موردانتظار آن‌ها کم‌اهمیت جلوه داد. استفاده از اخلاق ریاضی‌وار در چنین مواردی وسوسه‌انگیز است که در مواجهه با عدم قطعیت به‌دنبال وضوح و دقت باشیم، همان‌طور که در قرعه‌کشی و کمک‌های خیریه عمل می‌کنیم. اما نباید تصور کنیم که بیشتر از خودمان می‌دانیم. اگر استفاده از نظریۀ ارزش انتظاری برای تخمین اهمیت اخلاقی آیندۀ دور در شرایط عدم قطعیت منجر به تعصب‌گرایی یا ناآگاهی مطلق شود، آن‌گاه ابزار اشتباهی برای کار خواهد بود. گاهی اوقات، عدم قطعیتِ ما حقیقتاً بیش از حد بزرگ است، و کار اخلاقی این است که بپذیریم هیچ تصوری از احتمالات وقوع رویدادهای آینده نداریم.

اگر دست‌کم احتمال حداقلی وجود داشته باشد که اکتشافات فضایی، به‌نفع یک تریلیون نفر در آینده است، مسلماً ارزش انتظاری اولویت‌دادن به اکتشافات فضایی بسیار بالا خواهد بود. اما احتمال حداقلی دیگری نیز وجود دارد که در اولویت قراردادن کاهش فقر جهانی، می‌تواند بهترین راه سودبخشی به تریلیون‌ها نفر در آینده باشد. شاید یکی از کسانی که نجات می‌یابند، نابغه‌ای باشد که روشی عملی برای سفر در فضا ایجاد کند. علاوه‌بر این، اگر دست‌کم اندک‌احتمالی برای انقراض اجتناب‌ناپذیر انسان در آیندۀ نزدیک وجود داشته باشد، کاهش رنج فعلی باید در اولویت قرار گیرد. هنگامی که با آیندۀ بسیار دور و همزمان با احتمالات پایین سروکار داریم، نیاز است که عملاً هر سیاست قابل‌تصوری، بیشترین سود را برای مردم آینده داشته باشد.

بنابراین، نظریۀ ارزش انتظاری به بلندمدت‌گرایی کمک نمی‌کند که در شرایط عدم قطعیت، انتخاب‌ها را از میان ابزارها اولویت‌بندی کند. احتمال حقیقی اینکه سرمایه‌گذاری در اکتشافات فضایی، بشر را قادر سازد تا در ۱٫۰۰۰٫۰۰۰ سال آینده به ستاره‌ها برسد، ناشناخته است. ما فقط می‌دانیم که این کار، ممکن است (احتمال > ۰)، اما قطعی نیست (احتمال < 1). این نکته باعث می‌شود که ارزش انتظاری، نامشخص باشد و بنابراین، نظریۀ ارزش انتظاری نمی‌تواند اِعمال شود. به نتایج سرمایه‌گذاری در اکتشافات فضایی کنونی نمی‌توان احتمالاتی را هرچند زیاد یا کم نسبت داد. گالیله نمی‌توانست اولویت‌های خود را به این دلیل توجیه کند که تحقیقاتش درنهایت بشر را به فضا می‌برد، به‌ویژه به این دلیل که او نمی‌توانست هیچ احتمالی را، هرچند کم یا زیاد، برای فرود آپولو ۱۱ روی ماه، ۳۰۰ سال پس از مرگش قائل شود.

اخلاق ریاضی‌وار باعث دقت و وضوح می‌شود. به ما اجازه می‌دهد که تعهدات اخلاقی نظریه‌های اخلاقی خود را بهتر درک کنیم و منابع اختلاف آن‌ها را بشناسیم. به ما کمک می‌کند تا از مفروضات اخلاقی خود نتیجه‌گیری کنیم، استدلال‌ها و اصول اخلاقی مختلف را یکسان و کمّی کنیم تا بتوانیم اصول نهفته در مفاهیم اخلاقی خود را کشف نماییم.

صرف‌نظر از قدرت ریاضیات، نباید محدودیت‌های آن را درمورد مسائل اخلاقی فراموش کرد. لودویگ ویتگنشتاین استدلال کرد که سردرگمی زمانی به وجود می‌آید که ما توسط یک عکس جادو می‌شویم. فریفته‌شدن توسط اعدادِ قانع‌کننده‌ای که واقعیت را نادرست نشان می‌دهند، آسان است. برخی ممکن است فکر کنند که این دلیل خوبی برای جدا نگه‌داشتن اخلاق و ریاضیات است. اما من فکر می‌کنم این تنش درنهایت یک فضیلت است تا یک رذیلت. ادغام این دو حوزه باهم یکی از وظایف فلسفۀ اخلاق است. شاید همان‌طور که جان رالز در کتاب خود با عنوان «نظریه‌ای در باب عدالت» (۱۹۷۱) بیان کرده‌است، «اگر بتوانیم گزارش دقیقی از مفاهیم اخلاقی خود بیابیم، آن‌گاه پاسخ به پرسش‌های دربارة معنا و توجیه بسیار آسان‌تر خواهد بود.»

منبع: aeon.co

انتهای پیام

بانک صادرات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا