چند نکته که بهتر است درباره هوش مصنوعی بدانیم
بیبیسی نوشت: «به کار گرفتن کامپیوترها و یا ماشینها برای تولید رفتار هوشمند- بهسرعت در حال پیشرفت است. در ۱۰ سال گذشته هوش مصنوعی در زمینههای مختلفی مانند ایجاد حرکت با پاهای روباتی منعطف، تشخیص اجسام در تصاویر، تشخیص صدا و ترجمه خودکار پیشتاز شده است و با ورود اتومبیلهای هوشمند بهعنوان یکی از آخرین پیشرفتها، وارد مرحله جدیدی از حضور هوش مصنوعی شدهایم.
پیشرفت هوش مصنوعی در اینجا متوقف نمیشود. استفاده از هوش مصنوعی چندمنظوره در کارهای روزمره- وسایلی که میتوانند تمامکارهای یک انسان را انجام بدهند و چهبسا بهتر- میدان را به نفع هوش مصنوعی تغییر خواهد داد.
به اعتقاد پروفسور استوارت راسل، پیشرفت این تکنولوژی میتواند “بزرگترین واقعه در تاریخ بشر” باشد. او در مقاله مشترکی که با استیون هاوکینگ نوشت به این نتیجه رسید که “متأسفانه این واقعه احتمالاً میتواند آخرین واقعه برای بشر هم باشد.”
او در مجموعه سخنرانیهای شگفتانگیز و گاه شوکه کنندهاش، هشدارهای جدی میدهد.
هوش مصنوعی همهمنظوره هنوز بهطور کامل در زندگی ما جا نیفتاده اما راسل معتقد است باید از اکنون برای آن برنامهریزی کنیم تا کنترل آنچه در آینده در انتظارمان است را از دست ندهیم.
۱- هوش مصنوعی در حال حاضر هم بخش بزرگی از زندگی شما است
پروفسور راسل توضیح میدهد: “هر بار که از کارتبانکی یا کارت اعتباری استفاده میکنید یک سیستم هوش مصنوعی تصمیم میگیرد که آیا این پرداخت واقعی است یا کلاهبرداری. هر بار از سیری در تلفن آیفون خود سؤالی میپرسید یک سیستم هوشمند اول صدای شمارا تشخیص میدهد، سؤال شمارا متوجه میشود و بعد جواب صحیح آن را پیدا میکند.”
۲-هوش مصنوعی میتواند کارهای خیلی بیشتری انجام بدهد
هوش مصنوعی چندمنظوره، بهصورت تئوریک، به تمام دانش و مهارتهای بشر دسترسی دارد درنتیجه میتواند چندین کار را بهطور همزمان و باکیفیت بسیار بالاتر با هزینه بسیار کمتر و در ابعادی بسیار عظیمتر انجام دهد و این یعنی میتوانیم با کمک آن کیفیت زندگی تمام انسانهای روی کره زمین بالاتر ببریم. پروفسور راسل تخمین میزند درآمد سالانه میتواند به ۱۰ برابر سطح فعلی برسد رقمی که معادل ۱۴ کوآدریلیون خواهد بود.
۳- هوش مصنوعی میتواند به ما آسیب بزند
تا همینجا هم شاهد تأثیرات منفی سوءاستفاده از هوش مصنوعی بودهایم. این نتایج منفی را در حیطه مسائل نژادی و جنسی، جعل عمیق تصاویر (دیپ فیک) و جرم و جنایتهای مجازی شاهد بودهایم. بااینحال پروفسور راسل معتقد است حتی وقتی از هوش مصنوعی به شکل درست و برنامهریزیشدهاش استفاده میکنیم بازهم در آن قابلیت صدمه رساندن هست.
در شکل استاندارد، برای طراحی هوش مصنوعی یک هدف/صورتمسئله مشخص برای هوش مصنوعی در نظر گرفته میشود و هوش مصنوعی قرار است بهترین راهحل را پیدا و به بهترین شکل اجرا کند. مشکل هوش مصنوعی وقتی وارد دنیای واقعی میشود این است که ما نمیتوانیم هدف کامل و صحیحی برایش تعریف کنیم.
داشتن اهداف ثابتی که ناقص هستند و یا ایراد دارند به هوش مصنوعی غیرقابلکنترلی ختم میشود که هیچچیز جز رسیدن به هدف از قبل تعیینشده، نمیتواند آن را متوقف کند. پروفسور راسل مثالهای مختلفی از رفتار هوش مصنوعی در شرایط زندگی روزمره میزند.
مثلاً یک روبات خانگی را در نظر بگیرید که برای مراقبت از کودکان طراحیشده است. در این سناریو، روبات سعی میکند به بچههای غذا بدهد اما هیچچیز در یخچال پیدا نمیکند: “و بعد چشم روبات به گربه خانه میافتد. متأسفانه روبات فاقد آن حد از درک است که بفهمد ارزش احساسی این گربه خانگی بهمراتب بیشتر ارزش غذایی آن است…خوب حتماً میتوانید حدس بزنید بعد چه اتفاقی میافتد.”
الگوریتمهای شبکههای مجازی که بر مبنی میزان کلیک خوردن محتوی تعیین و دستکاری میشوند بهخوبی نشان میدهند هدف یا پیشفرض ناقص یا بد تعریفشده چقدر میتواند به مسیر منحرف کشیده شود.
هرچند این الگوریتمها بسیار سادهاند اما در آینده وقتی سیستمهای هوش مصنوعی قدرتمندتر شوند و ما بیشتر بر آنها متکی شویم، شرایط میتواند بسیار بدتر شود. پروفسور راسل برای روشنتر شدن موضوع مثال ترسناکی میزند. او نشست جهانی اقلیمی در سال ۲۰۳۶ (کاپ ۳۶) را بهعنوان موقعیت فرضی مثالش در نظر میگیرد. فرض کنیم یکی از موارد نگرانی اقلیمی در این نشست اسیدی شدن آب اقیانوسها باشد. حتی اگر بتوانیم با در نظر گرفتن همه جوانب از تعریف یک هدف محدود و یکبعدی اجتناب کنیم، راهحلی که هوش مصنوعی برای حل مسئله اسیدی شدن آب اقیانوسهای پیدا میکند فرآیندی شیمیایی است که یکچهارم کل اکسیژن اتمسفر را مصرف خواهد کرد.
ممکن است کسانی بگویند، “پس باید در تعیین هدف برای هوش مصنوعی باید دقیقتر باشیم.” اما مسئله به این سادگی نیست. حتی طراحی فرمانهای مشخص و محدودی در رانندگی، تعریف محدودههای سرعت، امنیت، راحتی مسافران و رعایت احترام دیگر رانندگان برای هوش مصنوعی بسیار مشکل است.
۴- هوش مصنوعی نیاز به فروتنی دارد
اگر تعریف هدف کامل و بینقص در جهان واقعی امری غیرممکن است، بنا به پیشنهاد پروفسور راسل باید به شکل دیگری از طراحی دستگاههای هوش مصنوعی فکر کنیم. بهجای اینکه از سیستم هوشمند بخواهیم یک هدف مشخص را برآورده کند، سیستم هوشمند باید بداند که نمیداند هدف واقعی که انسان میخواهد دقیقاً چیست. هرچند او را طوری طراحی کردهاند که به آن برسد. این فروتنی و قبول ایراد باعث میشود سیستم هوش مصنوعی خود را همیشه تحت کنترل انسان نگه دارد. قبل انجام هر عملی که ممکن است با خواستههای انسانی مغایر باشد از آنها اجازه بگیرد و اجازه بدهد اگر انسان لازم دید آن را خاموش کند.
۵-جنگافزارهای هوشمند فقط در داستانهای علمی تخیلی نیستند. آنها همین حالا هم وجود دارند
ایده سلاحهای نابودکننده و مرگبار هوشمند در سال ۱۹۸۴ با فیلم ترمیناتور که در آن اسکای نت به دنبال نابودی جهان بود عمومی شد. پروفسور راسل میگوید: “مردم تصور میکنند سلاحهای خودکار هوشمند فقط در داستانهای علمی تخیلی وجود دارند. اینطور نیست. همین امروز هم میتوانید آنها را بخرید.”
پهپاد کارگو ۲ یک مورد از آنها است. در تبلیغ آن آمده توانایی حملات شخصی بهصورت خودکار دارد و میتواند هدف را با استفاده از نرمافزار تصویری و تشخیص چهره شناسایی و به آن حمله کند. این پهباد که بهاندازه یک بشقاب غذاخوری است، ساخته شرکت اس تی ام (وابسته به دولت ترکیه) است و بر اساس یکی از گزارشهای آخر سازمان ملل در سال ۲۰۲۰ برای ردگیری و حمله به هدفهای انسانی در لیبی مورداستفاده قرارگرفته است.
۶-شغل شما درخطر است
هرچند تصور روباتهای آدم کش ترسناک است اما آنچه بیشتر مردم را نگران میکند تأثیر هوش مصنوعی بر بازار کار است. پدر و مادرهای بسیاری از اینکه آینده تحصیلی و شغلی فرزندانشان را قرار است سیستمهای متکی بر هوش مصنوعی که فرم درخواست دانشگاه و کار را بررسی میکنند تعیین کنند، نگران هستند. چندین اقتصاددان برنده جایزه نوبل هوش مصنوعی را “بزرگترین مشکلی که اقتصاد جهانی با آن مواجه است” دانستهاند.
توسعه تکنولوژی منحنی اقتصادی کشورها را به شکل یک منحنی معکوس درآورده است. “تأثیر مستقیم تکنولوژی روی اقتصاد در دو مرحله است: اول تکنولوژی میتواند باکم کردن هزینه و افزایش تقاضا، میزان اشتغال را بالا ببرد. در ادامه این روند و با فراگیرتر شدن تکنولوژی و به حد اشباع رسیدن تقاضا تعداد کمتر و کمتری نیروی انسانی لازم خواهد بود.”
پروفسور راسل میگوید: “در اوایل قرن بیستم تکنولوژی باعث شد دهها میلیون اسب دیگر بلا استفاده باشند. حالا کار آنها این شده بود که یا تبدیل به غذای حیوانات خانگی شوند و یا از بدنشان چسب ساخته شود. بعید است نیروی کار انسانی با چنین تغییری سازگار باشد.”
۷-کارتن وال -ای میتواند مانند فیلم مستند به واقعیت بدل شود
واکنش اقتصاددانها به نگرانیهای ناشی از هوش مصنوعی، آنها را در دو گروه قرار داده است. گروه اول به ایده درآمد پایه همگانی (یو بی آی) تمایل دارند و گروه دیگر میگویند در پیش گرفتن مسیر درآمد پایه همگانی اعتراف به شکست است. گروه دوم معتقد است پرداخت تضمینشده یک حقوق پایه به همه جمعیت انگیزه برای تلاش را در افراد کم میکند و ما را به آن نوع زندگی که در کارتن وال – ای به تصویر کشیده شده نزدیک میکند. دنیایی که رباتها همه کارها را انجام میدهند و انسانهای تنبل و ضعیف شدهاند.
۸-انسان بودن بزرگترین سرمایه ما است
چالشهای اقتصادی حاصل از گسترش هوش مصنوعی احتمالاً به ما یاد خواهند داد دیدی احترامآمیزتر به مشاغلی که به امور شخصی افراد مربوط هستند پیدا کنیم. مشاغلی مانند روان درمانگری، مربیگری، معلمی، مشاوره، مددکاری اجتماعی، همدمها، پرستاری از سالمندان و کودکان. به نظر پروفسور راسل برخلاف دید رایج که این حرفهها را منجر به وابستگی و از دست رفتن استقلال افراد میداند، باید این مشاغل را حرفههایی دانست به رشد فردی کمک میکنند: “اگر قرار باشد در آینده نتوانیم کار فیزیکی و کار فکری منظم برای افراد داشته باشیم، همچنان برای برآورده کردن نیازهای انسانیمان به این نوع مشاغل احتیاج خواهیم داشت.”
۹-میدان هوش مصنوعی برنده بازی ندارد
پروفسور راسل از مردم میخواهد به مسئله هوش مصنوعی مانند رقابت تسلیحاتی قدرتهای بزرگ نگاه نکنند. او میگوید: “ما پوتین، رئیسجمهورهای آمریکا و دبیر اولهای حزب کمونیست چین را درصحنه داریم. همه آنها با لحنی درباره هوش مصنوعی حرف میزنند که گویا با به دست گرفتن آن اداره دنیا را در اختیار خواهند گرفت. اما به نظر من این اشتباه بزرگی است.”
به نظر پروفسور راسل کشمکش سر اینکه چه کسی کنترل کامل هوش مصنوعی چندمنظوره را دست خواهد گرفت به همان پوچی است که کسی بخواهد سر اینکه چه کسی بیشترین کپیهای دیجیتال یک روزنامه را دارد بحث کند: “اگر من یک کپی دیجیتال از فلان روزنامه داشته باشم، اصلاً به این معنی نیست که دیگران نمیتوانند همان نسخه دیجیتال را داشته باشند. درواقع اصلاً مهم نیست من چند نسخه بیشتر از آنها داشته باشم. هیچ فایده بخصوصی برایم نخواهد داشت.”
پروفسور استوارت راسل مؤسس مرکز هوش مصنوعی سازگار با انسان در دانشگاه برکلی است».
انتهای پیام