«هوش مصنوعی» آیا باید از آن بترسیم؟
«هوش مصنوعی؛ آیا باید از آن بترسیم؟» نام مطلبی است که لوچیانو فلوریدی، استاد فلسفه و اخلاق دانشگاه آکسفورد نوشتهاست و عرفان حمدی آن ترجمه کردهاست. متن کامل آن را در ادامه میخوانید.
فلسفیدن نوشت: «هوش مصنوعی یکی از زمینههای جذاب و در عین حال ترسناک دانش جدید است. در دنیای واقعی روباتهایی را میبینیم که کار انسانها را سادهتر کردهاند و کارهای سخت را به عهده گرفتهاند و در دنیای فیلمها و داستانهای علمی-تخیلی روباتهایی را میبینیم که کنترل زندگی بشر را به دست گرفتهاند و حاکمان جهان شدهاند. اما آینده چگونه خواهد بود. برخی از فعالان این صنعت مثل بیل گیتس و ایلان ماسک بارها هشدار دادهاند که پیشرفت بیرویهی هوش مصنوعی میتواند خطرناک باشد. از سوی دیگر برخی از تحلیلگران بر این باورند که هوش مصنوعی، چیزی بیشتر از یک ساختهی انسانی نیست و هیچوقت نمیتواند به مرحلهای برسد که بتواند مستقل از انسانها به بازتولید خود بپردازد. در این مقاله با بررسی دیدگاههای افراطی هر دو طرف، تلاش میکنیم این اتاق تاریک را روشنتر کنیم. آیا باید به استقبال آینده برویم یا از آن نگران باشیم؟
به نظر میرسد که ماشینها هر روز در انجام وظایف انسانها هوشمندانهتر و بهینهتر عمل میکنند اما هنوز دستیابی به هوشمصنوعی واقعی کاملا غیرمحتمل است. چرا؟
تصور کنید وارد یک اتاق تاریک در یک ساختمان ناشناخته شدهاید. ممکن است از هیولاهایی که شاید در تاریکی کمین کرده باشند وحشتزده شوید و یا اینکه چراغ را روشن کنید تا با اسباب و اثاثیهی اتاق برخورد نکنید. این اتاق تاریک همان آیندهی هوش مصنوعی است. متاسفانه برخی معتقدند به محض قدم گذاشتن در این اتاق قرار با دستهای از ماشینهای فوق هوشمند با امیالی شیطانی مواجه شویم. که این البته ترس جدیدی نیست و تاریخ آن برمیگردد به سال ۱۹۶۰، وقتی که ریاضیدان بریتانیایی، آیروینگ جان گود[۱] که در زمان جنگ دوم جهانی به همراه آلن تورینگ به عنوان رمزشناس در بلچلی پارک کار میکرد، گفت: «اگر یک ماشین فوق هوشمند را ماشینی تعریف کنیم که قادر باشد پا فراتر از حد تواناییهای ذهنی هر انسان بسیار باهوشی بگذارد، آنگاه، از آنجایی که توانایی طراحی کردن یک ماشین جدید نیز بخشی از این توانایی و امکان است، این ماشین فوق هوشمند قادر خواهد بود که ماشینهایی حتی بهتر از خودش طراحی کند و در این صورت بدون تردید با پدیدهی «انفجار نبوغ» مواجه خواهیم شد که هوش انسان را کاملا پشت سر خواهد گذاشت.»
بنابراین اولین ماشین فوق هوشمندی که اختراع شود، آخرین چیزی خواهد بود که انسان به اختراع آن نیاز پیدا خواهد کرد. البته با این فرض که این ماشین آنقدری لطف کند که به ما روش تحت کنترل نگه داشتنش را هم بیاموزد. جالب اینکه تا کنون در جایی به غیر از دنیای قصههای علمی-تخیلی به این نکته پرداخته نشده است. بعضاً به نظر ضروری میرسد که نگاه جدیتری به این قصهها انداخته شود.
به محض اینکه ماشینهای فوق هوشمند تبدیل به یک واقعیت شوند، ممکن است اصلاَ روی خوشی به ما نشان ندهند و بیشتر شبیه ترمیناتور[۲] عمل کنند؛ بشریت را به عنوان یک دستهی دون پایهتر از خود به بردگی گرفته و حقوقش را نادیده بگیرند و به دنبال اهداف و نیازهای خود بروند، بدون کمترین توجهی به اینکه چه تاثیری بر زندگی انسانها خواهند گذاشت.
اگر این موضوع به نظر شما فوق العاده است شاید بهتر باشد دوباره به آن توجه کنید. پیشنهاد میکنم در زمان، از ۵۰ سال قبل، به «اکنون» سفر کنید، شاید نظرتان عوض شود. زمانهای که سرعت شگفتانگیز پیشرفت در تکنولوژیهای دیجیتال باعث شده است که عدهای نظریهی «انفجار نبوغ» جان گود را خطری جدی تصور کنند و پایان گونهی جانوری انسان را، در صورتی که به قدر کافی مراقب نباشیم، نزدیک و محتمل بدانند. مانند چیزی که استیون هاوکینگ[۳] در سال ۲۰۱۴ گفت: «توسعهی هوش مصنوعی کامل، ممکن است به معنی پایان بشریت باشد.»
سال گذشته بیل گیتس[۴] هم معتقد به همین دیدگاه بود:
«من در گروه کسانیام که راجع به قضیهی فراهوشمندی ماشینها بسیار نگراناند. در ابتدا ماشینها بسیاری از کارها را بدون نیاز به این که هوشمند باشند برای ما انجام خواهند داد. در صورتی که بتوانیم از عهدهی مدیریت آن به خوبی برآییم، این فرآیند میتواند نکتهی مثبتی باشد؛ اما در طول چند دهه بعد از آن، هوشمندی ماشینها به اندازهای رشد کرده است که مایهی نگرانی شود. من راجع به این با ایلان ماسک[۵] و چند نفر دیگر هم نظر هستم و هیچ درک نمیکنم که چرا دیگران اصلا نگران این قضیه نیستند.»
اما ایلان ماسک، مدیر عامل تسلا، چه نظری راجع به این قضیه دارد؟
«ما باید دربارهی هوش مصنوعی بسیار با احتیاط عمل کنیم. از نظر من بزرگترین تهدید برای موجودیت بشر، همین مسئله است. دانشمندان این زمینه معتقدند که باید یک نظارت منظم و دقیق در سطوح ملی و حتی بینالمللی بر این قضیه وجود داشته باشد، مبادا مرتکب کار احمقانهای شویم. این کار مثل احضار کردن شیطان در آن دسته داستانهاییست که فردی با تصور اینکه قادر به کنترل کردن آن خواهد بود، در یک پنتاگرام با جامی از آب مقدس نشسته است و همانطور که همه میدانیم، اتفاقات خوبی در انتظار او و جهانش نخواهد بود.»
اما واقعیت کنونی بسیار سطحیتر و مبتذلتر از این ترسهای عمیق است. در مارس سال جاری، مایکروسافت یک روبات چت توییتری مبتنی بر هوش مصنوعی به نام Tay را معرفی کرد، اما مجبور شد که بعد از تنها ۱۶ ساعت آن را از توییتر حذف کند. قرار بر این بود که این روبات با تعامل و برقراری ارتباط بیشتر با انسانها هوشمندتر شود، اما به راحتی تبدیل به یک موجود وراج شد که از طرفداری هیتلر و انکار هولوکاست گرفته تا ادعا و تبلیغ راجع به ارتباط جنسی با محارم و تئوریهای توطئه راجع به این که واقعهی یازده سپتامبر کار بوش بوده، توییت میکرد. چرا؟ به این دلیل که این روبات در واقع هیچ تفاوتی با اسفنج آشپزخانهای نداشت که هر چه برایش فرستاده شود بیاختیار جذب میکند. این اتفاق مایکروسافت را وادار به عذرخواهی کرد.
این وضعیت امروزی هوش مصنوعیست. بهتر است به جای اینکه مدام راجع به سناریوهای علمی تخیلی نگران باشیم، با واقعیت مواجه شویم و تمرکزمان را روی چالشهای واقعی و مهمی که هوش مصنوعی با آنها مواجه است قرار دهیم تا بعدها در استفاده از تکنولوژیهای هوشمند شدهمان دچار اشتباهات دردناک و پرهزینه نشویم.
بگذارید اندکی دقیقتر وارد این قضیه شوم. فلسفه چندان به جزئیات نمیپردازد. شاید در مواجهه با پدیدهها از مدلسازیهای دقیق و با جزئیات بالا استفاده کند، اما چیزی که عمدتاَ مدنظر فلسفه و مورد علاقهی فیلسوفان است، قطبیسازی و دستهبندی جهان، غالبا در دو دسته و قطب مخالف است. اینترنالیزم یا اکسترنالیزم، مبناگرایی یا انسجام باوری، چپ یا راست، زامبی یا غیر زامبی، لخت و یا غیرلخت، جهانهای ممکن و یا غیرممکن، با پشتوانه و یا بدون پشتوانه و…
فلسفه ممکن است بعضاْ از فصل منطقی مشارکت دهندهی «یا» استفاده کند (دخترها و یا پسرها هر دو میتوانند بازی کنند) اما بیشتر اوقات از منطق انحصار طلبانهی تنها این و یا تنها آن بهره میبرد. (دوستش داری یا از آن متنفری) بحث هوش مصنوعی نیز مثالی دیگر در تایید این قضیه است. در اینجا دوگانگی میان دو دسته از انسانها شکل گرفته؛ دستهای به هوشمندی کامل ساختهی دست بشر اعتقاد دارند و دستهای دیگر که این امر را ناممکن و محال میبینند. البته که منظور از هوش مصنوعی کامل و واقعی، «سیری»[۶] در آیفون، «رومبا»[۷] در اتاق پذیرایی و یا «نست»[۸] در آشپزخانهی شما نیست. (خود من با افتخار از هر سه استفاده می کنم.) منظور ماریای دروغین در «متروپلیس»[۹]، هال۹۰۰۰ در «۲۰۰۱: ادیسه فضایی»[۱۰]، (در ساخت این شخصیت از دکتر جان گود مشورت گرفته شده بود.)، C3PO در «جنگ ستارگان»[۱۱]، ریچل در «بلید رانر»[۱۲]، دیتا در «استار ترک: نسل بعدی»[۱۳]، مامور اسمیت در «ماتریکس»[۱۴] و یا سامانتا بدون حضور فیزیکی در فیلم «او»[۱۵]، است. احتمالاَ حالا دیگر منظور از هوش مصنوعی واقعی و کامل را فهمیده باشید. معتقدین به نظریهی انفجار نبوغ جان گود و هوش مصنوعی واقعی را میتوان اعضای فرقهی «تکینهگرایی»[۱۶] دانست. و از آنجایی که کلمهی بهتری برای توصیف فرقهی مخالف وجود ندارد، آنها را میتوان «هوشمصنوعی ناباور»[۱۷] نامید. حال در ادامه نگاهی به باورهای هر دو فرقه میاندازیم و خواهیم دید که هرکدام چگونه مرتکب اشتباه شدهاند. در این حین فراموش نکنید که فلسفهی خوب و قابل اتکا، تقریباَ همواره جایی در میانهی بازه قرار میگیرد.
تکینهگرایان معتقد به سه اصل اساسیاند:
یک– آفرینش نوعی هوشمندی مصنوعی کامل در آیندهای نه چندان دور امکانپذیر خواهد بود و این نقطه از تاریخ را نقطهی «تکینگی تکنولوژیک» مینامند. اسم این فرقه برگرفته از این اتفاق است. جزئیات و ساختار این هوش مصنوعی و همچنین بازهی زمانی دقیقی برای ظهور آن هنوز توسط این فرقه مشخص نشده است. البته تکینهگرایان معمولا ترجیح میدهند بازهی زمانی مدنظرشان را اینگونه مطرح کنند: به قدری نزدیک که نیازمند توجه و نگرانی نسبتاَ عمیقی باشد و به اندازه کافی دور که در صورت اتفاق نیفتادن آن، دیگر خود زنده نباشند تا شکست اعتقاداتشان را به چشم ببینند.
دو– خطر این وجود دارد که بشریت به احتمال بسیار زیاد توسط این چنین هوشمندی و نبوغ انفجار گونهای، به بردگی گرفته شود.
سه- مسئولیت اصلی بر گردن نسل حاضر این است که یا از رخ دادن تکینگی کاملا جلوگیری کند و یا اگر نتوانست، اطمینان حاصل کند که تحت کنترل خواهد بود و در مسیر کمک به بشریت به کار گرفته خواهد شد. این دیدگاه تمامی ابعاد و عناصر هستیگرایانهی مورد بحث در آیین مانوی را شامل میشود: مبارزهی خیر و شر، مفاهیم ضمنی آخرالزمانی، اهمیت اینکه اگر همین اکنون اقدامی نکنیم شاید بعدتر دیگر فرصتی فراهم نشود، دیدگاه آخرتگرایانه در راستای رستگاری بشر و نوعی تمایل به ترسها و ناشناختهها.
تمامی این تصورات را در کنار نگرانیهای به حق مردم راجع به تاثیرات منفی ناشی از استفادهی نا به جای تکنولوژیهای روز در زندگیشان، علیالخصوص در مقولهی بازار کار و جنگهای سایبری بگذارید. در زمانهای که رسانهها دائماَ خبر از دستگاههای عجیب و غریب و فاجعههای بدون سابقهای که منشائی کامپیوتری دارند منتشر میکنند، ملغمهای از هر آنچه که برای گمراه کردن مردم لازم است، به راحتی فراهم میشود. این بار افیونی دیجیتال برای تودهها!
همانند سایر جهانبینیهای مبتنی بر اعتقادات غیرعقلی، از لحاظ منطقی، تکینهگرایی غیرقابل رد و انکار است. چرا که در نهایت هیچ گونه قید منطقی و مبتنی بر علت و مدرکی ارائه نمیکند. به علاوه، رخداد نتایج حاصل از آن نیز کاملاَ غیرمحتمل است، چرا که هیچ دلیل و منطقی وجود ندارد که بخواهیم باور کنیم از وضع فعلی ما و یا حتی درک و پیشبینیمان در آیندهی نزدیک، نتیجهای حتی نزدیک به یک پدیدهی فوق هوشمند حاصل شود. بگذارید بیشتر توضیح دهم:
بعضاَ تکینهگرایی را به صورت یک عبارت شرطی مطرح میکنند. در این حین، نوعی مغلطهی موذیانه رخ میدهد؛ بدین صورت که تحت یک گزارهی شرطی، گزارهی «تالی» در صورت صحت گزارهی «مقدم» مطرح میشود: «اگر نوعی هوش مصنوعی کامل ظهور کند، آنگاه قطعاَ ما با مشکل عظیمی مواجه خواهیم شد.» (دقت کنید که در گزارهی «تالی» با چه قطعیتی اعلام میکنند که به مشکل حادی بر خواهیم خورد؛ حتی اندک تردیدی را که استیون هاوکینگ با به کار بردن واژهی احتمالا از خود نشان داد به هیچ وجه در گفتههای تکینهگرایان نمیبینیم.) فرض کنیم که این گزاره کاملاَ صحیح بوده و ما هم آن را قبول کنیم، در این صورت میتوانیم این گزاره را مطرح کنیم که اگر چهار سوار مرگ آخرالزمانی ظهور کنند، ما قطعا با مشکلات بزرگتر و فاجعهبارتری از فجایع احتمالی هوش مصنوعی مواجه خواهیم شد. اما دقت کنید، «اگر» آن سوارکارها ظهور کنند.
همین وضعیت مبهمی که برای «مقدم» وضع شده، زیرکی قابل تامل تکینهگرایان را یادآوری میکند؛ وگرنه که تحت یک گزارهی «مقدم» غلط میتوان به انتفای مقدم، هرگونه نتیجهای را استحصال کرد.
در دیگر استدلالهای تکینهگرایان، شاهدیم که نوعی احتمال و عدم قطعیت را در گزارههای خود وارد میکنند: «هوش مصنوعی کامل امکان رخ دادن دارد.» بله، امکان دارد و این هیچ گونه تناقضی با منطق ندارد اما نکته اینجاست که باید میان: «من احتمالا فردا مریض خواهم شد چرا که همین الان کمی احساس ناراحتی میکنم.» و گزارهی «من احتمالا یک پروانه هستم که در خواب رویای انسان بودن میبیند.» فرق قائل شد.
هیچ گونه تناقضی در اینکه فرض کنیم یکی از بستگانتان که به تازگی مرده است برای شما ۱۰ میلیون دلار به ارث گذاشته وجود ندارد. این اتفاق ممکن است رخ دهد. منظور؟ در واقع تناقضاتی مانند «مجردی که از ازدواجش راضیست» برای هر عقل سلیمی مشخصاَ ناممکن است. اما دربارهی برخی گزارهها، مانند «نوعی موجودات فرازمینی مدتهاست که بین ما زندگی میکنند و خودشان را چنان مخفی کردهاند که امکان ندارد بتوان پیدایشان کرد.» با اینکه دچار هیچ گونه تناقض منطقیای نیستند اما به اندازهی کافی دیوانهوار و غیرمحتمل به نظر میرسند که بتوان نادیده گرفتشان.
به بیانی دیگر و در تشریح این مورد، عبارت «امکان داشتن» به همان معنی و مفهومی که مثلاَ در جملهی: «شما امکان دارد اولین انسان نامیرا در جهان باشید.» به معنای «نمیشود امکان آن را بالکل رد کرد.» تفسیر میشود. این گزاره هم اصلاَ دلیلی منطقی برای این نیست که به یکباره طوری شروع به زندگی کنید که انگار هرگز نخواهید مرد!
بر اساس همین منطق، در مورد هوش مصنوعی هم میتوان اینطور گفت: این فرضها، نظرها و حتی ترسها، قابل قبول و پذیرش نیستند، تا زمانی که شخص یا اشخاصی دلیلی محکم و مستدل ارائه کنند که مبنی بر اینکه بر اساس دانش حال حاضر و یا دانشی که در آیندهای نزدیک به آن دست خواهیم یافت، خواهیم توانست به هوش مصنوعی کامل دست یابیم.
به اعتقاد من، در اینجا تکینهگرایان، تحت تاثیر تفکرات آخرالزمانی، حقایق عقلی را با باورهای غیرعقلی ترکیب میکنند. ابتدا از تبعات منفی و نگران کنندهی تسلط تکنولوژی بر زندگی، از آموزش گرفته تا بازار کار، به صورت تاثیرات محتمل آن در بیکار شدن عدهی زیادی از افراد، پهبادهای بدون سرنشینی که از کنترل خارج میشوند و سیستمهای دیجیتالی که در خطر از کار افتادن هستند، سخن میگویند و به ناگاه از نگرانی عمیقشان بابت اینکه ممکن است ماشین هوندا سیویک آنها ناگهان به صورت خودآگاه عمل کرده و فرمان را به دست گیرد.
اصلا چگونه قابل تصور است که یک هوش مصنوعی شیطانی، خود به خود، از قابلیت پارک اتوماتیک اتومبیل در یک جای پارک کوچک و تنگ تکامل پیدا کند؟ حقیقت این است که بالا رفتن از یک درخت تنها یک گام کوچک به سمت ماه نیست بلکه پایان و انتهای مسیر است. اتفاقی که قرار است بیفتد این است که ما در آینده شاهد تولید دستگاههای بسیار پیشرفتهای خواهیم بود که قادر به انجام کارهای بیشتری هستند؛ کارهایی که یک زمانی فقط ما از عهدهی انجام آنها بر میآمدیم.
وقتی دیگر همهی استدلالهای قبلیشان به مشکل بربخورد، تکینهگرایان شیفتهی این هستند که از ریاضیات کمک بگیرند و یکی از مهمترین قضایای مورد علاقهی آنها قانون «مور»[۱۸] است. طبق این ادعای تجربی، تقریبا هر دو سال، تعداد ترانزیستورهای درون آیسیها دوبرابر میشود؛ به بیان دیگر میتوان گفت که اندازه ترانزیستورها هر دو سال نصف میشود. که نتیجهی آن تا به حال این بوده که توان پردازشی به ازای همان میزان فضای فیزیکی قبلی، به صورت نمایی افزایش یافته. اما اوضاع امروزه فرق کرده است. مشکلات تکنیکال در نانوتکنولوژی، پیشرفت در این زمینه را با چالشهای بسیار جدی مواجه کرده است، چرا که به هر حال هر چیزی را تنها میتوان تا یک حد مشخصی قبل از آن که به طور کامل ذوب شود، کوچک کرد. قانون مور امروزه دیگر برقرار نیست.
این حرف درستی نیست که بگوییم اگر یک پدیده طی مدت زمانی به صورت نمایی رشد پیدا کرد، تا ابد نیز به همین صورت به رشد خود ادامه خواهد داد. در سال ۲۰۱۴ اکونومیست مقالهای با این مضمون منتشر کرد: در طی تاریخ مستند و در دسترس، انسانها به عنوان حاکمان بلامنازع زمین، در میان گونههای جانوری زندگی میکردهاند. آیا این قضیه رو به پایان است؟ بوقلمونها، این موجودات بیآزار، به طرز غیرقابل باوری در حال بزرگ شدناند! وزن ثبت شدهی این پرندگان در سال ۱۹۲۹، ۶ کیلوگرم بوده که امروزه به بیش از ۱۳ کیلوگرم رسیده است. با فرض اینکه این روند رشد به همین صورت ادامه پیدا کند، در ۱۵۰ سال آینده، بوقلمونها به طور متوسط به اندازه یک انسان بزرگ شده و در ۶۰۰۰ سال آینده کرهی زمین در برابر آنها بسیار کوچک به نظر خواهد رسید.
دانشمندان معتقدند که این رشد سریع بوقلمونها نتیجهی نوآوریهای انجام گرفته در صنعت مرغداری، مانند زادگیری انتخابی و تلقیح مصنوعی است. البته هنوز میتوان به خاطر ذات تصنعی رشد در آنها و اینکه عملا قابلیت پرواز را از دست دادهاند، به آینده امیدوار بود! ولی با توجه به ۲۵۰ میلیون بوقلمونی که تنها در مرغداریهای آمریکا وجود دارد، بهتر است که خودمان را از حالا آماده کنیم. در حال حاضر و در آستانهی عید شکرگزاری، تنها کاری که از ما برمی آید، این است که آنها را بخوریم قبل از اینکه آنها ما را بخورند.
اگر به خاطر شکل سیگموئیدی[۱۹] منحنی رشد که با یک روند تقریبا نمایی شروع به رشد میکند و در انتها اشباع شده و به یک مقدار ثابت میرسد، نبود، میشد آیندهای با نام احتمالی «هوشمصنوعی-زیلا»[۲۰] به مانند پیشبینیهای مربوط به «بوقلمون-زیلا»[۲۱] متصور شد. ولی احتمالاَ در مکتب تکینهگرایی، مطرح کردن منحنی سیگموئید برای رشد، نوعی کفرگویی به شمار آید.
تفکر تکینهگرایی به طرز غیرقابل قبولی در حال تمرکززدایی است. این مسئله، تنها مشغلهای جهان اولی است و احتمالاَ فقط مردم جوامع مرفه و ثروتمند را، که چشم به روی پلیدیهای واقعی موجود بر روی زمین بستهاند، تحت تاثیر قرار دهد. به عنوان مثال حدودا ۷۰۰ میلیون نفر از ساکنان سیارهی زمین، به آب سالم دسترسی ندارند. این تهدید بزرگی برای بشریت است و اگر تا به حال فکر میکردید که پیشبینیهای دانشمندان بسیار قابل اتکاست، بهتر است این نکته را گوشزد کنم که در این زمینه، تا به حال پیشبینیهای بسیار متعددی توسط متخصصین انجام شده. برای مثال بیل گیتس در سال ۲۰۰۴ گفت: «تا دو سال آینده مسئلهی اسپم کاملا حل خواهد شد.» و در سال ۲۰۱۱ استیون هاوکینگ اعلام کرد که: «فلسفه مرده است» (توجه شما را به این مقاله که در حال مطالعهاش هستید جلب میکنم [و همچنین مجموعهی فلسفیدن])
یکی از این پیش بینیهایی که بیشتر از سایرین جلب توجه میکند توسط رابرت متکالف[۲۲] مخترع پروتکل اترنت[۲۳] و بنیانگذار شرکت ۳Com در سال ۱۹۹۵ انجام گرفت. او در مقالهای که منتشر کرد اعلام کرده بود: «به زودی اینترنت به شدت اوج میگیرد و سپس در سال ۱۹۹۶ به شدت سقوط خواهد کرد.» و اگر این پیشبینی به وقوع نپیوندد، نوشتهی خودش را خواهدخورد. او که به قول خود پایبند بود در سال ۱۹۹۷ در منظر عموم مقالهاش را در یک مخلوط کن ریخت و سپس آن را خورد. ای کاش تکینهگرایان هم به اندازهی او، جسور و متعهدانه با گفتههایشان مواجه شوند.
هوشمصنوعی ناباوران، دقیقاَ در دستهی مقابل تکینهگرایان، به این نتیجه رسیدهاند که هرگونه اعتقاد به هوش مصنوعی کامل و واقعی، اشتباه محض است. هوش مصنوعی تنها مفهومی رایانهای است و رایانه هم چیزی نیست به جز یک ماشین تورینگ[۲۴] و ماشینهای تورینگ نیز چیزی جز نوعی دستگاه ساخته دست بشر نیستند. این دستگاهها نمیتوانند فکر کنند، نمیتوانند بدانند و نمیتوانند خودآگاه باشند. پایان ماجرا.
این دقیقاَ همان دلیلی است که میتوان تعداد بسیار زیادی کتاب و فیلم با مضمون کارهایی که هنوز کامپیوترها قادر به انجامش نیستند، یافت.
کامپیوترها هنوز حتی قادر به درک معنای[۲۵] نوشتهها به زبانهای مختلف، از جمله زبان چینی، نیستند. (هرچقدر هم که گوگل ترنسلیت پیشرفتهتر بشود.) و همین کافی است برای اینکه تمام نگرانیهای ما راجع به این قضیه از بین برود. هیچ هوش مصنوعی کاملی به وجود نخواهد آمد بنابراین هیچ چیز نگران کنندهای هم راجع به آن وجود نخواهد داشت. با آرامش خاطر به استفاده از ابزارهای الکتریکی خود ادامه دهید و سعی کنید از آنها لذت ببرید.
هوشمصنوعی ناباوران هم مانند تکینهگرایان دچار کجروی و انحراف در عقاید خود شدهاند. پیروان این دو آیین، عمدتاَ در ایالت کالیفرنیا مستقرند؛ جایی که فیلمهای علمی تخیلی هالیوود، دانشگاهها و مراکز تحقیقاتی مثل برکلی[۲۶] و مهمترین و پیشروترین شرکتهای تکنولوژیک جهان، دوشادوش یکدیگر در حال رشد هستند و این اصلاَ اتفاقی نیست. وقتی پای پول زیاد وسط باشد، مردم به راحتی دچار اشتباه میشوند. به عنوان مثال گوگل به طرز دیوانه واری مشغول خریدن تمامی شرکتهای فعال در حیطهی هوش مصنوعی است و این حتماَ به این معنی است که گوگل در این باره چیزهایی میداند که ما، از آن بیخبریم. رئیس اجرایی گوگل، اریک اشمیت[۲۷] در مصاحبهای در سال ۲۰۱۳ با انستیتو اسپن[۲۸] با اعلام خبری، به طور ضمنی این نظریه را تایید کرد: «متخصصان زیادی در زمینهی هوش مصنوعی معتقدند که ما در پنج سال آینده به کامپیوتری دست خواهیم یافت که قادر به پاس کردن آزمون تورینگ باشد.»
آزمون تورینگ آزمونی است که به وسیلهی آن میتوان بررسی کرد که آیا هوش مصنوعی پیشرفتی کرده است یا نه، این آزمون بدین صورت انجام میگیرد که در دو اتاق متفاوت که در یکی یک انسان و در یکی کامپیوتر قرار گرفته است، سوالاتی پرسیده میشود. اگر شخص پرسشگر نتواند تفاوتی میان پاسخ کامپیوتر و پاسخ انسان قائل شود، کامپیوتر در این تست موفق شده است. آزمون تورینگ، آزمونی خام و ناپخته است. فرض کنید آلیس در آزمون گواهینامهی رانندگی برای بار اول رد میشود، این به این معنی بوده که او به عنوان یک رانندهی ایمن صلاحیت رانندگی را نداشته است. حال اگر او برای دومین بار شرکت کند و بتواند در آزمون رانندگی موفق شود آیا به این معنی است که او صددرصد رانندهای ایمن و بدون خطر برای جامعه است؟
آزمون تورینگ شرط لازم را تامین میکند ولی شرط کافی را خیر. این آزمون، آزمون بسیار سادهای است ولی هنوز هیچ کامپیوتری نتوانسته از پس آن برآید. مهمتر آنکه تمامی هوشهای مصنوعی که مورد این تست قرار گرفتهاند، در پاسخگویی به همان سوالهای چالشی و روشهایی که در سال ۱۹۶۰ هم پرسیده میشد، شکست خوردهاند. بگذارید همینجا یک شرط با شما ببندم؛ اگر تا ۱۶ جولای سال ۲۰۱۸ نرم افزاری توانست از پس آزمون تورینگ بربیاید و برنده مدال طلای لوبنر[۲۹] شود، با وجود اینکه از بادمجان متنفرم یک بشقاب کامل از آن را خواهم خورد.
هم تکینهگرایان و هم هوشمصنوعی ناباوران دچار اشتباه شدهاند. تورینگ در مقالهی خود، در سال ۱۹۵۰ برای اولین بار آزمون تورینگ را معرفی کرد. وی در این مقاله بیان کرده بود که سوال «آیا ماشین قادر به فکر کردن است؟» به قدری بیمعنی است که اصلاَ نیازی به بحث کردن ندارد. (از روی کنایه و یا حتی احتمالاَ به خاطر اینکه کاملاَ آگاه به نتیجهاند، این سوال روی مدال جایزه لوبنر حک شده است.) این حقیقتی کتمانناپذیر است و فرقی نمیکند شما طرفدار کدام یک از این دو دسته باشید. با این وجود ، هر دو دسته علاوه بر اینکه به این بحث بینتیجه ادامه میدهند، هرگونه صدای مخالفی را هم خفه میکنند.
دستیابی به یک هوش مصنوعی کامل، از لحاظ منطقی غیرممکن نیست ولی کاملا غیرمحتمل است. ما کمترین ایدهای از اینکه چگونه بایستی شروع به ساخت آن بکنیم نداریم؛ چرا که حتی دانش کافی از نحوهی کارکرد مغز و مفاهیمی مثل هوشمندی خود انسان نداریم.
و این به این معنی است که نباید حتی اندکی نگرانی راجع به ظهور یک هوش مصنوعی خارقالعاده به دل خود راه دهیم. مسئلهی اصلی که میبایست در نظر گرفت این است که حضور هر چه بیشتر تکنولوژیهای هوشمند، تاثیر خارقالعادهای در برداشت و درک ما از خودمان، جهان اطرافمان و برهمکنشمان با محیط اطراف داشته است و این به این خاطر نیست که دستگاههای ما خودآگاه، هوشمند و یا آگاه به رفتار و اعمال ما شدهاند. بررسیهای بسیار زیادی انجام گرفته و همگی بیانگر محدودیتهای محاسباتی کامپیوترها در حل مسائلی بسیار پیچیده، برای به دست آوردن یک جواب مشخص هستند.
به عنوان مثال اصل تناظر کری-هاوارد[۳۰] بیانگر این است که سیستمهای اثباتی در منطق و مدلهای محاسباتی مورد استفاده در کامپیوترها اصولا از یک ساختار مشابه تشکیل شدهاند، بنابراین هر گونه محدودیت منطقی موجود در ریاضیات برای کامپیوترها نیز برقرار است. تعداد بسیار زیادی از ماشینها قادر به انجام کارهای بسیار شگفتانگیز مثل بازی شطرنج، گو و یا حتی شرکت در مسابقات تلویزیونی پرسش و پاسخ هستند، اما نباید فراموش کنیم که همهی اینها تنها نسخهای از یک ماشین تورینگاند که توسط منطق ریاضی محصور شدهاند.
کامپیوترهای کوانتومی هم تنها قادر به محاسبهی آنچیزی هستند که از لحاظ ریاضی قابل محاسبه است. بنابراین نباید انتظار داشت که هیچ گونه موجود آگاه و یا هوشمندی از یک ماشین تورینگ سر برآورد. به لطف برنامهنویسیهای بسیار پیچیده و حجم بالای دادههای در دسترس، امروزه تکنولوژیهای گوناگون، قادر به این هستند که تعداد بسیار زیادی از کارها را بهتر از آن نحوی که ما انجام میدهیم، انجام بدهند و حتی میتوانند رفتارهای ما را پیشبینی کنند و این به این معناست که ما تنها موجوداتی نخواهیم بود که قادر به انجام موفقیتآمیز یک کار مشخص است.
این همان چیزی است که تحت عنوان «انقلاب چهارم»، در درک ما نسبت به حضورمان در جهان رخ داده است. ما دیگر در مرکز جهان قرار نداریم (کوپرنیک)، به عنوان یک نوع تکامل یافته مانند سایر موجودات زندهایم (داروین) و دیگر آن موجود تماماَ منطقی و عقلانی که گمان میکردیم نیستیم (فروید) و حالا پس از تورینگ، ما دیگر جایگاهی در مرکز سیارهی اطلاعات[۳۱] و پردازشهای هوشمندانه نداریم و امروزه این جایگاه را با تکنولوژیهای دیجیتال به اشتراک گذاشتهایم؛ مصنوعات رایجی که هر روز بیشتر از روز قبل در انجام دادن مقدار بیشتری از کارها از ما پیشی میگیرند، با اینکه حتی نیازی نیست از یک توستر هوشمندتر باشند. قابلیتهای بسیار زیاد این تکنولوژیها باید ما را به این سمت سوق بدهد که ارزیابی دوبارهای از جایگاه و نقش خود در جهان نسبت به آنها داشته باشیم. یک زمانی گمان میکردیم که موجودات هوشمندی هستیم، چرا که میتوانیم شطرنج بازی کنیم؛ امروزه اما، یک موبایل حتی از یک استاد بزرگ شطرنج هم بهتر بازی میکند. زمانی فکر میکردیم آزادیم هر آنچه دلمان خواست خریداری کنیم، ولی امروزه دیگر انواع الگوهای رفتارهای مالی ما، توسط جعبههایی عجیب و غریب کاملاَ شناسایی شده و قابل پیشبینی است.
ما در عین حال که مشغول گمانهزنی دربارهی آیندهی ترسناک محتمل با حضور موجودی فوق هوشمند بودیم، دائماَ محیط زندگی خود را با نرمافزارها، دستگاهها و سنسورها پر کردیم؛ به طوریکه در حال حاضر، دیگر این تکنولوژیها بدون کمترین نیازی به ما، بدون نیاز به هیچ گونه خصلت انسانی مثل حالات خلقی، احساسات، قصد و نیات و توانایی درک معنا و از این دست ویژگیها، قادرند که به فعالیت خود ادامه بدهند. داشتن حافظه برای ذخیرهسازی مقدار زیادی داده و قابلیت ذخیرهسازی الگوریتمهای پیچیده، در مقابل ویژگی هوشمند بودن یک انسان، نتیجهی بهتری در فرود آوردن یک هواپیما، پیدا کردن سریعترین مسیر از خانه تا محل کار و پیدا کردن بهترین قیمت برای یخچال بعدی شما بهدست میآورد.
تکنولوژیهای دیجیتال به لطف پردازش دادههای بیشتر و امکان بهبود دادن عملکرد خود با تحلیل نتایج قبلی و تاثیر دادن آنها در محاسبات بعدی خود، اکنون قادر به انجام کارهای بیشتر و بهتری نسبت به ما هستند. آلفاگو[۳۲] کامپیوتری که در پروژه دیپ مایند[۳۳] گوگل توسعه داده شده بود، توانست در بازی “گو” بهترین بازیکن جهان را شکست دهد چرا که به پایگاه اطلاعاتی شامل ۳۰ میلیون حرکت ممکن در این بازی دسترسی داشت و میتوانست هزاران بار با خودش بازی کرده و هر بار «یاد بگیرد» که چگونه عملکرد خود را بهبود ببخشد. درست مانند چاقوی دولبهای که اتفاقا میتواند خودش را هم تیزتر کند. فرق بین این دو چیست؟ فرق این دو (چاقوی دو لبه و کامپیوتر آلفاگو) درست مانند تفاوت یک انسان با یک ماشین ظرفشویی است. از این قضیه چه نتیجهای میتوان گرفت؟ اینکه هر گونه تخیل آخرالزمانی مرتبط با هوش مصنوعی میتواند کاملاَ نادیده گرفته شود. مسئله و مشکل اصلی در آیندهی دور و نزدیک همچنان خود انسان باقی خواهد ماند. اینجاست که باید روی چالشهای واقعی تمرکز کرد. برای نتیجه گیری نهایی بگذارید پنج مورد از این چالشها را که همه به یک اندازه مهم هستند در ادامه بیاورم:
• باید هوش مصنوعی را در زمینههای دوست دار محیط زیست رشد داد. ما نیاز داریم که هوشمندترین تکنولوژیهایمان را برای حل مسائلی که تهدید کنندهی زندگی ما و کرهی زمیناند به کار بگیریم، مانند بلایای طبیعی، بحران های مالی، جرم و جنایت، تروریسم و جنگ، قحطی و فقر، بی سوادی و بی عدالتی و بالا بردن سطح استانداردهای زندگی.
• باید هوش مصنوعی را در راستای منافع بشری و انسان دوستانه گسترش داد. یعنی طبق گفتهی امانوئل کانت، به گونهای که همواره انسانها را به عنوان هدف نهایی بشناسد نه اینکه از آنها به عنوان وسیلهای برای رسیدن به هدفی دیگر استفاده کند.
باید به صورت هوشمندانه از هوش مصنوعی استفاده کرد. درست است که میلیونها شغل از بین خواهد رفت اما مشاغل جدیدی نیز به وجود خواهد آمد و کل جامعه باید در سود و زیان آن مشارکت داشته باشد.
• از قابلیتهای پیشبینی کنندهی هوش مصنوعی، باید در راستای اصول بنیادین آزادی و اختیار انسان استفاده شود. الگوریتمهای بازاریابی، رفتارشناسانه و الگوریتمهای پیشگیری کننده از جرم و تروریسم هرگز نباید برخلاف شأن و مقام انسانها استفاده شود.
• و در آخر میبایست کاری کنیم که هوش مصنوعی از ما انسانهای بهتری بسازد چرا که احتمال این خطر وجود دارد که این تکنولوژیها مورد سوء استفاده قرار گرفته و حیات تعداد قابل توجهی از انسانهای روی زمین و حتی خود کره زمین را به شدت تهدید کنند. وینستون چرچیل میگوید: »ابتدا ما ساختمانهایمان را شکل میدهیم و سپس این ساختمانهای ما هستند که به ما شکل میدهند.«این گفته برای سیارهی اطلاعات و تکنولوژیهای هوشمند امروزی نیز صدق می کند.
تکینهگرایان و هوشمصنوعی ناباوران، به این جنگ لفظی خود در باب ممکن بودن یا نبودن هوش مصنوعی کامل، ادامه خواهند داد. ما باید در برابر این بحثها صبور باشیم. نیازی به شرکت کردن در بحث و جدل بین این دو گروه نیست. همانطور که ویرژیل[۳۴] در کتاب دوزخ[۳۵] دانته[۳۶] گفته است: «از آنها سخن مگو، اما نگاهی به آنان بیفکن و گذر کن.» چرا که در دنیای امروزلازم است که مشکلات مهمتری حل شود و فیلسوفها وقتشان را صرف مباحث فلسفی مهمتری بکنند.
پانویسها
[۱] Irving john good
۲ Alan Turing
۳ Bletchley Park
[۲] Terminator 1984
[۳] Stephen Hawking
[۴] Bill Gates
[۵] Elon Musk
[۶] SIRI
[۷] Roomba
[۸] Nest
[۹] Metropolis (1927)
[۱۰] ۲۰۰۱ : A Space Odyssey (1968)
[۱۱] Star Wars (1977)
[۱۲] Blade Runner (1982)
[۱۳] Star Trek : The next generation (1987)
[۱۴] The Matrix (1999)
[۱۵] Her (2013)
[۱۶] Singularitarians
[۱۷] AItheist
[۱۸] Moor’s Law
[۱۹] Sigmoid: تابعی دارای دو کران بالا و پایین.
[۲۰] AIzilla
[۲۱] Turkzilla
[۲۲] Robert Metcalfe
[۲۳] Ethernet
[۲۴] Turing Machine
[۲۵] سمانتیک
[۲۶] Berkeley
[۲۷] Eric Schmidt
[۲۸] Aspen
[۲۹] Loebner Prize
[۳۰] Curry-Howard
[۳۱] Infosphere
[۳۲] AlphaGo
[۳۳] Deep Mind
[۳۴] Virgil
[۳۵] inferno
[۳۶] Dante
انتهای پیام
سلام . بله باید ترسید چه هوش مصنوعی آفریده بشر است و خدا و شیطان ممزوج در وجود انسان حضور دارند و انسان فزون طلب است و راحت از مدار حق خارج و بسمت شیطان در حرکت است