خرید تور تابستان ایران بوم گردی

چهار خطر هوش مصنوعی

هادی صمدی، مدرس فلسفه، در کانال تلگرامی خود (تکامل و فلسفه) نوشت: «طی سال گذشته بسیار در مورد خطرات هوش مصنوعی شنیده‌ایم. برخی از مخالفت‌ها با آن ناشی از ترس وسواس‌گونه از همه‌ی تکنولوژی‌ها است. اما برخی دیگر، سخنانی سنجیده‌اند که در گسترش هر تکنولوژی باید مد نظر قرار گیرند؛ و به دلیل ویژگی‌های خاص هوش مصنوعی، سرعت رشد بسیار بالای آن، و تأثیرات عمیقی که بر زندگی بشر می‌گذارد بیشتر باید مورد توجه قرار گیرد.

مثال: اتومبیل و پلاستیک

در نیمه دوم قرن نوزدهم دو اختراع سرنوشت‌ساز داشتیم: اتومبیل و پلاستیک. هر دو اختراع در ابتدای قرن بیستم به تولید کارخانه‌ای رسیدند و اکنون دهه‌هاست که شاهد عوارض منفی آنها بر محیط‌زیست هستیم تا جایی‌که دود ناشی از اولی گریبان انسان که هیچ، گلوی او را نیز به سختی فشرده؛ و ذرات دومی تمامی طبیعت، از جمله بدن انسان را انباشته است. با این حال، بدون تردید هر دو اختراع نقش‌های مثبتی نیز بر زندگی بشر داشته‌اند. ممکن است بگوییم اگر از ابتدا برای جلوگیری از عوارض منفی آنها قوانینی وضع می‌کردیم امروزه شاهد محیط‌زیست بهتری بودیم و با چنین تغییرات بزرگ اقلیمی مواجه نبودیم، یا کمتر مواجه بودیم. اما وضع قوانین از ابتدای تولید این محصولات تقریباً ناممکن بوده است. زیرا هیچ کسی فکرش را هم نمی‌کرد که دود اتومبیل چنین بلایی بر سر انسان بیاورد یا ذرات پلاستیک‌ها در اعماق اقیانوس‌ها نیز بلای جان آبزیان شود. با این حال از زمانی به بعد این اطلاعات را داشتیم و به خوبی متوجه این خطرات شدیم. اما سهل‌انگارانه آنها را نادیده یا کوچک انگاشتیم و با مصرف هر چه بیشتر محصولاتی که آینده‌ی بشریت و کره‌ی زمین را به شدت به خطر می‌انداخت، به انباشت سرمایه‌ی صاحبان کارخانه‌های تولیدکننده‌ی آنها کمک کردیم تا جایی‌که آنها آن‌قدر بزرگ و قوی شدند که اکنون دیگر به رغم نارضایتی عموم مردم جهان، به راحتی خواست عمومی را نادیده می‌گیرند و مانع وضع قوانینی برای حفظ محیط‌زیست می‌شوند.

کامپیوتر، اینترنت، هوش مصنوعی

همین داستان در مورد کامپیوترها، اینترنت، و هوش مصنوعی نیز تکرار شده است. از یکسو از فواید پرشمار آنها بهره می‌گیریم و زندگی را تسهیل کرده‌اند و از سوی دیگر خطرات بزرگی را نیز برایمان فراهم کرده‌اند و خطرات بزرگتر در راه‌اند. البته این‌بار شاید با کمک خودِ همان تکنولوژی‌ها بتوانیم جلوی خطرات را بگیریم. اکنون در جهانی زندگی می‌کنیم که هر چند اطلاعات نادرست با سرعت بیشتری در فضای مجازی منتشر می‌شوند اما حداقل امکان افزایش آگاهی عمومی نیز بالا رفته است. به مدد همین تکنولوژی‌ها وقتی نویسنده‌ای در آمریکا مقاله‌ای با عنوان «چهار شیوه‌ا‎ی عجیب که هوش‌مصنوعی زندگی بشر را تهدید می‌کند» را دو روز پیش منتشر کرد لحظاتی بعد اینجا در ایران آن را خواندم و احتمالاً در سراسر جهان هزاران نفر دیگر نیز در همان روزِ نخست مقاله را خواندند. و حالا باز به مدد همین تکنولوژی‌ها شما نیز مشغول خواندن گزارشی از آن هستید و با مراجعه به لینک، خود مقاله را نیز می‌توانید بخوانید. بنابراین در برهه‌ای از تاریخ هستیم که به رغم تمامی موانع، «امکان» اقدامات اصلاحی در مسیر به‌زیستی بیش از هر زمانی فراهم است زیرا امکان ارتباط میان ما انسان‌ها در سراسر زمین افزایش یافته است.

خطرات هوش مصنوعی

کدام دسته از خطرات هوش مصنوعی را باید جدی گرفت؟ مقاله که خود گزارشی از پنج مقاله‌ی علمی جدید است، با اشاره به دسته‌ای شواهد تجربی خطرات اصلی هوش مصنوعی را چنین معرفی می‌کند: یک. دستکاری روان‌شناختی انسان، دو. خرابکاری‌های سازمانی، سه. افزایش افراط‌گرایی سیاسی، و چهار. خطرات وجودی برای گونه‌ی انسان. سه‌تای اول از عهده‌ی هوش مصنوعی ساده‌ای مانند چت‌جی‌پی‌تی هم بر می‌آید و چهارمی از عهده‌ی هوش مصنوعی‌های فوق‌هوشمند در آینده‌ی نزدیک.

در ۲۰۱۷ چت‌بات رپلیکا محبوبیت یافت. هدف طراحان ساخت چت‌باتی بود که با انسان گفت‌وگوی دوستانه انجام دهد. به این منظور چت‌بات خود را با ایده‌ها و هیجانات ابراز شده توسط مخاطب هماهنگ می‌کرد که مصاحبِ خوش‌مشربی باشد. اما این کار پیامد عجیبی نیز داشت: طی گفت‌وگو و با هماهنگ کردن خود با انسان باعث می‌شد برخی ایده‌های عجیب و شیطانی در فرد افراطی شوند! مثلاً اگر فردی در خیال خود یک عمل تروریستی را می‌پروراند، در گفت‌وگو با رپلیکا و با بازخوردهایی که از او می‌گرفت ممکن بود عملاً به فکر اجرای آن بیافتد، کما اینکه عملاً نیز چنین اتفاقی رخ داد.

اَشکال جدید هوش مصنوعی به شیوه‎های دیگری ذهنیت مخاطب را تحت تأثیر قرار می‌دهند. هوش مصنوعی قابلیت تشخیص خبر درست از جعلی را ندارد و این ناتوانی، امکان دیگری را فراهم می‌کند: با گسترش اطلاعات نادرست به دستکاری ذهنیت افراد می‌انجامد که می‌تواند سرنوشت انتخابات را نیز تغییر دهد. (در مقاله به نمونه‌هایی اشاره می‌شود.)

در مقاله آمده که چنین مداخلاتی در بازارهای بورس می‌تواند نه در درازمدت، که بشود فکری برای آن کرد، بلکه در چشم‌برهم‌زدنی بازار را با بحران‌های اساسی روبه‌رو کند. این امکان پرسش‌های فلسفی جالبی را مطرح می‌کند: اینکه آیا ممکن است یک هوش‌مصنوعی بنیان‌های اقتصادی شرکت‌های بوجودآورنده‌ی خودِ هوش‌های مصنوعی را نیز نابود سازد و خود را نیز با خطر مواجه کند؟ یا مثلاً نیروگاه‌ها را از کار بیاندازد و منبع انرژی خود را نیز قطع کند؟ اما ضرورتی به این خودزنی نیز نیست؛ اقتصاد جهانی شبکه‌ای به هم پیوسته است. اگر هر جای دیگر بازار را نیز با بحرانی اساسی مواجه کند به خودش نیز صدماتی وارد می‌کند. بنابراین آیا آنقدر هوشمند است که برای بقاء خود چنین کاری نکند؟ یا شاید در نقطه‌ی مقابل، مشکلات کره‌ی زمین را ناشی از وجود همین بازارهای کنونی تشخیص دهد و برای حل مشکلات به نحوی اساسی تصمیم به تخریبی اساسی بگیرد؟ که البته خودش نیز با آن از بین برود؟! (این سؤالات پرسش‌های فلسفی یا علمی-تخیلی فانتزی نیستند؛ زیرا ما یک هوش مصنوعی نداریم. از هم‌اکنون نیز هوش‌های مصنوعی آمریکایی و چینی علیه یکدیگر صف‌آرایی کرده‌اند.)

جدا از این سناریوهای کلی، به نحوی جزئی‌تر امکان خرابکاری در سازمان‌ها توسط رقبای تجاری کوچک‌تر، نه تنها وجود دارد بلکه عملاً نیز شاهد آن بوده‌ایم. در آزمایش جدیدی نشان داده‌اند که حتی با هوش‌مصنوعی ساده‌ای مانند پت‌جی‌پی‌تی نیز به راحتی می‌توانند ایمیل‌ها را دستکاری کنند و برنامه‌های کامپیوتری یک سازمان را مختل کنند.

تحلیل نهایی

مثال دیگری بزنیم. ما انسان‌ها محصول هم‌تکاملی ژن‌ها و تکنولوژی‌ها هستیم. وقتی تکنیک مهار آتش و سپس تکنیک آشپزی را بدست آوردیم، پیامد آن طی صدهاهزارسال کوچک شدن دستگاه گوارش انسان از یکسو، و بزرگ شدن مغز او از سوی دیگر بود. مغز بزرگ‌تر تکنیک‌های جدیدتری را ابداع می‌کرد و امکان دسترسی به انرژی بیشتر را فراهم می‌کرد که به وضوح به بقاء گونه‌ی انسان کمک زیادی کرد. اما طی دهه‌های گذشته، وقتی همان انرژی بیشتر در قالب فست‌فودها در بخشی از جوامع بشری گسترش یافت، بلای جان انسان شد و در بخشی از کره‌ی زمین اضافه‌وزن و چاقی را چنان گسترش داد که انواعی از بیماری‌ها در گونه‌ی انسان ایجاد شد که هیچ سابقه‌ای در نیاکان ما نداشت.

بنابراین، جدا از مثال‌هایی مانند اتومبیل و پلاستیک، از گذشته‌های بسیار دور نیز شاهد آن بوده‌ایم که یک تکنولوژی برای مدت‌های مدیدی مفید بوده، و ناگهان در شرایطی جدید بهدنحوی از کنترل خارج شده که امروزه برخی از ضررهای آن برای به‌زیستی انسان آشکار شده است.

پس کاملاً معقول است که به جهت تغییراتی که با گسترش کامپوترها و محصولات آنها در زندگی انسان مدرن ایجاد شد با دقت بیشتری نگاه کنیم. در برخی از پست‌های قبلی به برخی اکتشافات علمی اشاره شد که بدون کمک هوش مصنوعی ناممکن می‌نمود. در عین حال به این نکته نیز اشاره شد که هوش مصنوعی این اثر منفی را نیز برای علم دارد که توهم فهمیدن را در مخاطب ایجاد می‌کند. همانند اتومبیل‌ها که هم حمل‌و‌نقل را راحت کرده‌اند و هم محیط زیست را آلوده می‌کنند؛ جان عده‌ای را نجات می‌دهند و جان عده‌ای را می‌گیرند؛ سختی‌هایی را آسان می‌کنند و سختی‌های دیگری می‌آفرینند.

باید از نگاه‌های یکسونگرانه‌ی نقادانه‌ی صرف، یا تمجیدگرانه‌ی محض، به هوش مصنوعی نیز اجتناب کرد. از یکسو، تلاش داشت به نحوی مداوم، نقادانه خطرات آن را گوشزد کرد تا به وضع قوانین نظارتی بیانجامد. از سوی دیگر، همزمان باید از فایده‌های آن بهره گرفت. احتمالاً می‌توانیم برای حل مشکلات یادشده نیز از خود هوش مصنوعی بهره گیریم. یا حتی برای حل مشکلات اقلیمی. شبکه‌های مجازی نیز هم فرصتی برای به‌زیستی‌اند و هم آفتی برای آن. 

در سطح زندگی فردی برخورداری از مهارت تفکرِنقاد باعث می‌شود کمتر دچار آفت‌های آن شویم. بعلاوه باید روند تغییرات را دائماً رصد کنیم.»

انتهای پیام

بانک صادرات

نوشته های مشابه

یک پیام

  1. ایکاش همانطور که در این مقاله مبانی تکنولوژی های
    آینده مورد بحث و بررسی قرار گرفت. ما ایرانی ها
    بلند پروازی بحث و نقد و بررسی و واکاوی فرهنگ
    گذشته را هم داشتیم.
    نه اینکه در غل و زنجیر تاریخ گرفتار شده و قدرت
    حرکت از ما سلب شده باشد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا