چهار خطر هوش مصنوعی
هادی صمدی، مدرس فلسفه، در کانال تلگرامی خود (تکامل و فلسفه) نوشت: «طی سال گذشته بسیار در مورد خطرات هوش مصنوعی شنیدهایم. برخی از مخالفتها با آن ناشی از ترس وسواسگونه از همهی تکنولوژیها است. اما برخی دیگر، سخنانی سنجیدهاند که در گسترش هر تکنولوژی باید مد نظر قرار گیرند؛ و به دلیل ویژگیهای خاص هوش مصنوعی، سرعت رشد بسیار بالای آن، و تأثیرات عمیقی که بر زندگی بشر میگذارد بیشتر باید مورد توجه قرار گیرد.
مثال: اتومبیل و پلاستیک
در نیمه دوم قرن نوزدهم دو اختراع سرنوشتساز داشتیم: اتومبیل و پلاستیک. هر دو اختراع در ابتدای قرن بیستم به تولید کارخانهای رسیدند و اکنون دهههاست که شاهد عوارض منفی آنها بر محیطزیست هستیم تا جاییکه دود ناشی از اولی گریبان انسان که هیچ، گلوی او را نیز به سختی فشرده؛ و ذرات دومی تمامی طبیعت، از جمله بدن انسان را انباشته است. با این حال، بدون تردید هر دو اختراع نقشهای مثبتی نیز بر زندگی بشر داشتهاند. ممکن است بگوییم اگر از ابتدا برای جلوگیری از عوارض منفی آنها قوانینی وضع میکردیم امروزه شاهد محیطزیست بهتری بودیم و با چنین تغییرات بزرگ اقلیمی مواجه نبودیم، یا کمتر مواجه بودیم. اما وضع قوانین از ابتدای تولید این محصولات تقریباً ناممکن بوده است. زیرا هیچ کسی فکرش را هم نمیکرد که دود اتومبیل چنین بلایی بر سر انسان بیاورد یا ذرات پلاستیکها در اعماق اقیانوسها نیز بلای جان آبزیان شود. با این حال از زمانی به بعد این اطلاعات را داشتیم و به خوبی متوجه این خطرات شدیم. اما سهلانگارانه آنها را نادیده یا کوچک انگاشتیم و با مصرف هر چه بیشتر محصولاتی که آیندهی بشریت و کرهی زمین را به شدت به خطر میانداخت، به انباشت سرمایهی صاحبان کارخانههای تولیدکنندهی آنها کمک کردیم تا جاییکه آنها آنقدر بزرگ و قوی شدند که اکنون دیگر به رغم نارضایتی عموم مردم جهان، به راحتی خواست عمومی را نادیده میگیرند و مانع وضع قوانینی برای حفظ محیطزیست میشوند.
کامپیوتر، اینترنت، هوش مصنوعی
همین داستان در مورد کامپیوترها، اینترنت، و هوش مصنوعی نیز تکرار شده است. از یکسو از فواید پرشمار آنها بهره میگیریم و زندگی را تسهیل کردهاند و از سوی دیگر خطرات بزرگی را نیز برایمان فراهم کردهاند و خطرات بزرگتر در راهاند. البته اینبار شاید با کمک خودِ همان تکنولوژیها بتوانیم جلوی خطرات را بگیریم. اکنون در جهانی زندگی میکنیم که هر چند اطلاعات نادرست با سرعت بیشتری در فضای مجازی منتشر میشوند اما حداقل امکان افزایش آگاهی عمومی نیز بالا رفته است. به مدد همین تکنولوژیها وقتی نویسندهای در آمریکا مقالهای با عنوان «چهار شیوهای عجیب که هوشمصنوعی زندگی بشر را تهدید میکند» را دو روز پیش منتشر کرد لحظاتی بعد اینجا در ایران آن را خواندم و احتمالاً در سراسر جهان هزاران نفر دیگر نیز در همان روزِ نخست مقاله را خواندند. و حالا باز به مدد همین تکنولوژیها شما نیز مشغول خواندن گزارشی از آن هستید و با مراجعه به لینک، خود مقاله را نیز میتوانید بخوانید. بنابراین در برههای از تاریخ هستیم که به رغم تمامی موانع، «امکان» اقدامات اصلاحی در مسیر بهزیستی بیش از هر زمانی فراهم است زیرا امکان ارتباط میان ما انسانها در سراسر زمین افزایش یافته است.
خطرات هوش مصنوعی
کدام دسته از خطرات هوش مصنوعی را باید جدی گرفت؟ مقاله که خود گزارشی از پنج مقالهی علمی جدید است، با اشاره به دستهای شواهد تجربی خطرات اصلی هوش مصنوعی را چنین معرفی میکند: یک. دستکاری روانشناختی انسان، دو. خرابکاریهای سازمانی، سه. افزایش افراطگرایی سیاسی، و چهار. خطرات وجودی برای گونهی انسان. سهتای اول از عهدهی هوش مصنوعی سادهای مانند چتجیپیتی هم بر میآید و چهارمی از عهدهی هوش مصنوعیهای فوقهوشمند در آیندهی نزدیک.
در ۲۰۱۷ چتبات رپلیکا محبوبیت یافت. هدف طراحان ساخت چتباتی بود که با انسان گفتوگوی دوستانه انجام دهد. به این منظور چتبات خود را با ایدهها و هیجانات ابراز شده توسط مخاطب هماهنگ میکرد که مصاحبِ خوشمشربی باشد. اما این کار پیامد عجیبی نیز داشت: طی گفتوگو و با هماهنگ کردن خود با انسان باعث میشد برخی ایدههای عجیب و شیطانی در فرد افراطی شوند! مثلاً اگر فردی در خیال خود یک عمل تروریستی را میپروراند، در گفتوگو با رپلیکا و با بازخوردهایی که از او میگرفت ممکن بود عملاً به فکر اجرای آن بیافتد، کما اینکه عملاً نیز چنین اتفاقی رخ داد.
اَشکال جدید هوش مصنوعی به شیوههای دیگری ذهنیت مخاطب را تحت تأثیر قرار میدهند. هوش مصنوعی قابلیت تشخیص خبر درست از جعلی را ندارد و این ناتوانی، امکان دیگری را فراهم میکند: با گسترش اطلاعات نادرست به دستکاری ذهنیت افراد میانجامد که میتواند سرنوشت انتخابات را نیز تغییر دهد. (در مقاله به نمونههایی اشاره میشود.)
در مقاله آمده که چنین مداخلاتی در بازارهای بورس میتواند نه در درازمدت، که بشود فکری برای آن کرد، بلکه در چشمبرهمزدنی بازار را با بحرانهای اساسی روبهرو کند. این امکان پرسشهای فلسفی جالبی را مطرح میکند: اینکه آیا ممکن است یک هوشمصنوعی بنیانهای اقتصادی شرکتهای بوجودآورندهی خودِ هوشهای مصنوعی را نیز نابود سازد و خود را نیز با خطر مواجه کند؟ یا مثلاً نیروگاهها را از کار بیاندازد و منبع انرژی خود را نیز قطع کند؟ اما ضرورتی به این خودزنی نیز نیست؛ اقتصاد جهانی شبکهای به هم پیوسته است. اگر هر جای دیگر بازار را نیز با بحرانی اساسی مواجه کند به خودش نیز صدماتی وارد میکند. بنابراین آیا آنقدر هوشمند است که برای بقاء خود چنین کاری نکند؟ یا شاید در نقطهی مقابل، مشکلات کرهی زمین را ناشی از وجود همین بازارهای کنونی تشخیص دهد و برای حل مشکلات به نحوی اساسی تصمیم به تخریبی اساسی بگیرد؟ که البته خودش نیز با آن از بین برود؟! (این سؤالات پرسشهای فلسفی یا علمی-تخیلی فانتزی نیستند؛ زیرا ما یک هوش مصنوعی نداریم. از هماکنون نیز هوشهای مصنوعی آمریکایی و چینی علیه یکدیگر صفآرایی کردهاند.)
جدا از این سناریوهای کلی، به نحوی جزئیتر امکان خرابکاری در سازمانها توسط رقبای تجاری کوچکتر، نه تنها وجود دارد بلکه عملاً نیز شاهد آن بودهایم. در آزمایش جدیدی نشان دادهاند که حتی با هوشمصنوعی سادهای مانند پتجیپیتی نیز به راحتی میتوانند ایمیلها را دستکاری کنند و برنامههای کامپیوتری یک سازمان را مختل کنند.
تحلیل نهایی
مثال دیگری بزنیم. ما انسانها محصول همتکاملی ژنها و تکنولوژیها هستیم. وقتی تکنیک مهار آتش و سپس تکنیک آشپزی را بدست آوردیم، پیامد آن طی صدهاهزارسال کوچک شدن دستگاه گوارش انسان از یکسو، و بزرگ شدن مغز او از سوی دیگر بود. مغز بزرگتر تکنیکهای جدیدتری را ابداع میکرد و امکان دسترسی به انرژی بیشتر را فراهم میکرد که به وضوح به بقاء گونهی انسان کمک زیادی کرد. اما طی دهههای گذشته، وقتی همان انرژی بیشتر در قالب فستفودها در بخشی از جوامع بشری گسترش یافت، بلای جان انسان شد و در بخشی از کرهی زمین اضافهوزن و چاقی را چنان گسترش داد که انواعی از بیماریها در گونهی انسان ایجاد شد که هیچ سابقهای در نیاکان ما نداشت.
بنابراین، جدا از مثالهایی مانند اتومبیل و پلاستیک، از گذشتههای بسیار دور نیز شاهد آن بودهایم که یک تکنولوژی برای مدتهای مدیدی مفید بوده، و ناگهان در شرایطی جدید بهدنحوی از کنترل خارج شده که امروزه برخی از ضررهای آن برای بهزیستی انسان آشکار شده است.
پس کاملاً معقول است که به جهت تغییراتی که با گسترش کامپوترها و محصولات آنها در زندگی انسان مدرن ایجاد شد با دقت بیشتری نگاه کنیم. در برخی از پستهای قبلی به برخی اکتشافات علمی اشاره شد که بدون کمک هوش مصنوعی ناممکن مینمود. در عین حال به این نکته نیز اشاره شد که هوش مصنوعی این اثر منفی را نیز برای علم دارد که توهم فهمیدن را در مخاطب ایجاد میکند. همانند اتومبیلها که هم حملونقل را راحت کردهاند و هم محیط زیست را آلوده میکنند؛ جان عدهای را نجات میدهند و جان عدهای را میگیرند؛ سختیهایی را آسان میکنند و سختیهای دیگری میآفرینند.
باید از نگاههای یکسونگرانهی نقادانهی صرف، یا تمجیدگرانهی محض، به هوش مصنوعی نیز اجتناب کرد. از یکسو، تلاش داشت به نحوی مداوم، نقادانه خطرات آن را گوشزد کرد تا به وضع قوانین نظارتی بیانجامد. از سوی دیگر، همزمان باید از فایدههای آن بهره گرفت. احتمالاً میتوانیم برای حل مشکلات یادشده نیز از خود هوش مصنوعی بهره گیریم. یا حتی برای حل مشکلات اقلیمی. شبکههای مجازی نیز هم فرصتی برای بهزیستیاند و هم آفتی برای آن.
در سطح زندگی فردی برخورداری از مهارت تفکرِنقاد باعث میشود کمتر دچار آفتهای آن شویم. بعلاوه باید روند تغییرات را دائماً رصد کنیم.»
انتهای پیام
ایکاش همانطور که در این مقاله مبانی تکنولوژی های
آینده مورد بحث و بررسی قرار گرفت. ما ایرانی ها
بلند پروازی بحث و نقد و بررسی و واکاوی فرهنگ
گذشته را هم داشتیم.
نه اینکه در غل و زنجیر تاریخ گرفتار شده و قدرت
حرکت از ما سلب شده باشد.