خرید تور تابستان

اذهان وحشی | آیا مدل‌های زبانیِ بزرگْ خودآگاه هستند

جان لست در سایت نواِما مگ مطلبی با عنوان نوشته‌است که متن آن در سایت مجله‌ی نبشت منتشر شده‌است. متن کامل را در ادامه بخوانید.

«ما هنوز نقشی را که زبان در خودآگاهی بازی می‌کند درک نمی‌کنیم، و هوش‌های مصنوعی آینده ممکن است همین دانش اندک را هم مختل کند…

در جنگلهای کوهستانیِ اوت لونگدوک در منطقهٔ آویرون در فرانسه او جانوری عجیب محسوب می‌شد: برهنه، ترسیده، و معمولا قوز کرده روی هر چهار دست و پا، در حال کاویدنِ بوته. اما او فقط یک جانور نبود. ویکتور (نامی که بعدا با آن شناس شد) یک شگفتی علمی بود: یک کودک وحشی، شاید ۱۲ ساله، بدون هیچ تماسی با تمدن یا جامعه.

گزارش‌ها مختلف است، ولی می‌دانیم که ویکتور را به یک بیمارستان بردند و از آن‌جا اخبار کشفِ او به‌سرعت منتشر شد. تا زمستان ۱۷۹۹، ماجرای وحشی آویرون به پاریس رسید و جامعهٔ باسوادِ شهر را شوکه کرد. در آغاز قرن تازه، فرانسه در بحبوحهٔ یک انتقال قدرت حساس بود. این جریان صرفا به خاطر ستم روزافزون خاندان بناپارت نبود. از چند دههٔ قبل، خردگرایی و پرسش‌گریِ فلاسفه‌ای چون ژان‌ژاک روسو و بارون دو مونتسکیو اساسِ دین را در کشور لرزانده بود.

دورهٔ بحث‌های جدی در این باره بود که چه قدرت یا طبیعتی به انسان اعطاء شده است. آیا جبرِ بیولوژیک در رشد خودآگاهیِ برترِ ما نقش داشت؟ یا این جوامع ما بوده که ظرفیت بیشتری برای استدلال نسبت به آن‌چه طبیعت به تنهایی می‌توانست به ما بدهد به ما داد؟

ویکتور ‌ــ‌ که تنها یک نمونه از ذهنِ انسانیِ رشدیافته بدون زبان یا جامعه بود ‌ــ‌ گویا می‌توانست بسیاری از این‌گونه پرسش‌ها را پاسخ دهد. برای همین هم ورود او به پاریس در سال ۱۸۰۰، با هیجان زیادی همراه بود.

پزشکی به اسم ژان مارک گاسپار ایتار که مسئول توانبخشی ویکتور شد، نوشت: «پیش از ورود او [ویکتور]، توقعاتِ هوشمندانه اما نامعقول در میان مردم پاریس شکل گرفت. خیلی از افرادِ کنجکاو، با شادی فراوان انتظار داشتند او شیفتهٔ آن همه زیبایی در پایتخت شود. اما در عوض چه دیدند؟ پسرکی شلخته و منزجرکننده… که کسانی را که از او خوش‌شان نمی‌آمد گاز می‌گرفت، و هیچ محبتی به کسانی که از او مراقبت می‌کردند نشان نمی‌داد؛ و خلاصه این‌که نسبت به هر کسی بی‌اعتنا بود، و به هیچ چیزی توجه نمی‌کرد».

بسیاری از فرهیختگانِ پاریس در مواجهه با یک کودک مطرود و عقب‌افتاده به او تاختند. برخی او را متقلب نامیدند؛ دیگران او را یک ابلهِ مادرزاد خواندند: یک ذهن ناقص‌الخلقه یا حلقهٔ مفقودهٔ حیات یا شاید یک نژاد انسانیِ دون‌پایه‌تر. منتقدانِ او به موضعی سختگیرانه یعنی ذات‌گراییِ بیولوژیک روی آوردند ‌ــ‌ که واکنشی محافظه‌کارانه بود به ایده‌های روشنگری در باب استثناء بودن ذهن ما و این‌که استعدادهای ما صرفا با نابرابری‌های طبیعی تعیین می‌شود.

برخلاف این مخالفان، ایتار هرگز شک نداشت که پسرک هنوز قادر به تفکر درونی عمیق است، چون گهگاه شورِ تعمق را در او مشاهده می‌کرد. ولی زود دریافت که بدون قدرتِ نطق، این تعمق برای همیشه در ذهن ویکتور زندانی خواهد شد. همین‌طور ویکتور بدون تسلط بر ظرائف کلامی، نمی‌توانست مطالبات انتزاعی‌تری را که مردم متمدن تعریف کردند کسب کند: مثلا درک موسیقی زیبا، هنرهای زیبا، یا لذت معاشرت با دیگران.

ایتار سال‌ها صرف تعلیم ویکتور کرد، به امید آن‌که شاید او قدرت تکلم پیدا کند. ولی هرگز موفقیتی در این امر پیدا نکرد. او ویکتور را از آب و غذا و محبت محروم کرد بلکه او از کلمات برای بیان امیالش استفاده کند، ولی به رغم هرگونه نقص جسمی، به نظر می‌رسید او نمی‌تواند بر اصواتِ لازم برای تولیدِ زبان مسلط شود. به نوشتهٔ ایتار: «گویی کلام نوعی موسیقی است که بعضی گوش‌ها هرچه‌قدر هم که خوب رشد یافته باشند نمی‌توانند آن را حس کنند».

به‌رغم ناکامی در توانبخشی ویکتور، تلاش ایتار (که فقط از دریچهٔ باریک علوم قرن ۱۸م قابل مشاهده است)، کماکان بخشی از مباحث امروز ما دربارهٔ نقش زبان در شناختِ سطح‌بالاتری است که آن را خودآگاهی (consciousness) می‌خوانیم. ویکتور یکی از موارد بسیار کوچکی است که ما می‌توانیم ماهیتِ تجربهٔ انسان بدون زبان را تا حدی ببینیم، و او از مدت‌ها پیش به عنوان یک کلید احتمالی در درک نقشی که زبان در عملیات ذهن ما بازی می‌کند محسوب می‌شود.

امروز این حوزه که بیشترِ تاریخش جنبهٔ آکادمیک داشته، اهمیت ویژه‌ای پیدا کرده است. امروز، خیلی شبیهِ دورهٔ ایتار، ما در آستانهٔ عصری جدید و هیجان‌انگیز هستیم که تکنولوژی‌ها و اکتشافات جدید، درک بنیادی ما را از طبیعت‌مان و کیهان‌مان متحول کرده است؛ ما با چیزی روبه‌رو هستیم که ممکن است توافق اندک ما را در باب استثناء ذهن انسان بر هم بزند. فرقش این است که این بار، ما با یک ذهنِ فاقد زبان روبه‌رو نیستیم، بلکه برعکس: با یک زبانِ بدون ذهن مواجه هستیم.

در چند سال گذشته، مدل‌های زبانی بزرگ یا اصطلاحا ال‌ال‌ام‌ها (LLMs) توانسته‌اند به‌شکلی خودبه‌خود و نگران‌کننده، تواناییِ تقلید ذهن انسان را توسعه دهند، طوری که می‌تواند جهانِ ضعیفِ اخلاقیاتِ ما را که ما با خودآگاهیِ برترمان شکل دادیم بر هم بزند؛ خودآگاهی‌ای که با قدرت زبان ما ممکن شد و بازتابی از طرز کار درونی و پنهان مغزِ ماست.

حالا بعدِ قرن‌ها و در یک تقارن عجیب، دقیقا با سوالی روبه‌رو هستیم که برعکس پرسش برآمده از ماجرای ویکتور است: آیا خودآگاهی واقعا می‌تواند فقط از زبان توسعه پیدا کند؟

اول، یک رفع مسئولیت: خودآگاهی اصطلاحی به‌شدت گیج‌کننده است ولی قدری حس مشترک نسبت به آن وجود دارد. به یک بیان، خودآگاهی یعنی آگاه بودن به خودمان، دیگران، و دنیای بیرون، طوری که یک سوژهٔ مشاهده‌گر یا همانِ خود یا من ایجاد می‌کند.

ساده به نظر می‌رسد ولی به رغم قرن‌ها تعمق در این موضوع، هنوز تعریف مشترکی از خودآگاهی نداریم که تمام الحاقات نظری آن را در خود جمع کند. این یکی از دلایلی‌ست که فلاسفه هنوز توافق ندارند که خودآگاهیْ منحصر به انسان‌هاست یا این‌که این اصطلاح را می‌توان به برخی حیوانات دارای کارکرد سطح بالا ‌ــ‌ یعنی همان الگوریتم‌ها ‌ــ‌ بسط داد.

شناختْ اصطلاحِ دقیق‌تری است. می‌توان گفت که شناخت به معنای عملِ تفکر است. هرچند ساده به نظر می‌رسد ولی باز هم به لحاظ علمی مشاهده و تعریفش فوق‌العاده سخت است. و این پرسش مطرح است که اصلا فرقِ بین تفکرِ صحیح و فعالیت شیمیایی داخل مغز چیست؟ یا با خروجیِ یک برنامهٔ کامپیوتری پیچیده؟ می‌توانیم بگوییم تفاوت این است که اولی تابع عاملیت و نیّت و تجربهٔ گذشته در عملِ تفکر است. به عبارتی امری که دربردارندهٔ خودآگاهی است ‌ــ‌ اما بازهم برمی‌گردیم درست همان جایی که شروع کردیم.

زبان نقش بسیار مهمی در درکِ شناخت و در نتیجه رسیدن به تعریف بهتری از خودآگاهی بازی کرده است. زبان یکی از روش‌های برون‌سازیِ فعالیتِ ذهن و بیان وجود نفس است. در واقع خودگزارشگری یکی از معیارهای اصلی ما برای شناساییِ خودآگاهی است؛ با تأسی به سخنِ رنه دکارت: من می‌گویم فکر می‌کنم پس هستم.

اما فلاسفه بر سر این که زبان دقیقاً چقدر به تفکر مربوط است اختلاف نظر دارند. این مناقشات به زمان ارسطو و افلاطون برمی‌گردد و متفکران در کل در دو اردوگاه قرار می‌گیرند: یا این‌که زبانْ بازتابی ناقص از دنیای درونیِ بسیار غنی‌ترِ ذهن است (که قادر به عمل بدون زبان است)، یا این‌که زبان فراهم‌کنندهٔ امکان تفکر در ذهن است و در این روند ذهن را محدود و حبس می‌کند.

این‌که کجای این مناظره قرار بگیریم، پیامدهای مهمی برای مسئلهٔ خودآگاهیِ ال‌ال‌ام خواهد داشت. برای اردوگاهِ اول، توانایی تفکر و صحبت کردن تنها نوعی ابزار است که بازتاب استعدادی از پیش موجود (و شاید منحصراً انسانی) است و از قبل در ذهن‌های آگاه ما وجود دارد:یعنی همان گرامر جهانی در فلسفه نوام چامسکی.

ولی داستان منزوی‌های زبانی مثل ویکتور احتمالا این نظریه را بر هم می‌زند. از میان تعداد انگشت شماری که واقعا به شکل معنادار مورد تحقیق قرار گرفتند، هیچ کدام‌شان حتی بعد از سال‌ها توانبخشی نتوانستند به درکی از گرامر و نحو زبان برسند. گویا زبانِ پیچیده اگر تا سنِ خاصی حاصل نشود، دیگر برای همیشه برای ذهن انسان غیر قابل حصول باقی می‌ماند.

مشکلات دیگری هم هست. زندگی بدون زبان پیامدهایی دارد. پذیرفتن این‌که گفتار نقشی سازنده در خودآگاهی ما دارد، احتمالا به این معناست که فقدان آن، به‌طور دائم توان شناختی کودکان و حتی استعداد آن‌ها را برای درک و تصور جهان متاثر می‌کند.

در سال ۱۹۷۰ در لس آنجلس، دختر ۱۳ ساله موسوم به جنی پیدا شد که از سن ۲۰ ماهگی تقریباً در انزوای مطلق بزرگ شده بود. جنی هم مثل ویکتور تقریباً هیچ زبانی بلد نبود و به رغم سال‌ها بازتوانی نتوانست استعدادِ زبانِ گرامری را پیدا کند.

اما محققان هنگام تحقیق دربارهٔ این دختر چیزِ دیگری دربارهٔ شناخت او کشف کردند که بسیار غیرعادی بود: او نمی‌توانست حروفِ اضافهٔ فضایی را درک کند. مثلاً وجودِ فنجان در پشتِ یک کاسه را درک نمی‌کرد ‌ــ‌ آن هم به رغم آشنایی با هر دو شیء و اسمِ خاصِ آن‌ها.

یک فراتحلیل در سال ۲۰۱۷ همین مسئلهٔ شناختی را در افراد دیگری که فاقدِ زبانِ گرامری بودند مشاهده کرد؛ مثلاً بیماران مبتلا به زبان‌پریشیِ غیردستوری و کودکانِ ناشنوایی که با زبان اشارهٔ خانگی (فاقد گرامر رسمی) بزرگ شده بودند. محققان از این پژوهش نتیجه گرفتند که زبان باید نقشی بنیادی در یک کارکرد کلیدی ذهن انسان داشته باشد که به آن می‌گویند: سنتز ذهنی، یعنی خلق و سازگاری تصاویر ذهنی از فقط کلمات.

از خیلی جهات، سنتزِ ذهنیْ عملیاتِ هسته‌ایِ خودآگاهیِ انسانی است. مهارت‌های استدلال و پیش‌بینی و ارتباط زبانی، برای رشد و انطباقِ ابزارهای ما ضروری است. و به اعتقاد برخی فلاسفه این امر برای درک ما از نفس/خود ‌ــ‌ یعنی حس خویشتن‌آگاهیِ من ‌ــ‌ هم ضروری است.

روان‌شناس یوآن مک‌فیل در کتابِ تکامل خودآگاهی، توضیحی نظری دربارهٔ این‌که چرا زبان و سنتزِ ذهنیِ ناشی از آن، برای رشدِ یک نفسِ آگاه آن‌چنان حیاتی است ارائه می‌دهد. به عقیدهٔ او، وقتی جهش شناختیِ ضروری برای تمایز بینِ خود و غیرخود ایجاد شد ‌ــ‌ جهشی که مستلزم تواناییِ فرمول‌بندیِ اندیشه‌ها دربارهٔ بازنمایی‌هاست ‌ــ‌ ارگانیزم عملاً مفهومی از خود/نفس دارد: یعنی یک ساختار شناختی جدید که بالاتر و بیرون از فرایندهای شناختی می‌ایستد.

به بیان دیگر می‌توان بدون تولید یک خودِ آگاه، تا حدی تفکر کرد ‌ــ‌ مثلاً انجام محاسبات ریاضی ساده. اما فکر کردن دربارهٔ چیزی، مثلاً یک سیب سبز ترش، یا لویی شانزدهم فرانسه، مستلزم سنتز ذهنیِ یک شیء خارج از خود است. در عمل، این یک نفس متفکر ایجاد می‌کند که الزاما قادر به درک چیزهایی‌ست که برای او اتفاق می‌افتد. به قول مک‌فیل: «دسترسی به زبان است که اولا به ما امکان خودآگاه بودن و دوما توانایی احساس کردن می‌دهد».

این ما را به نتایجی رادیکال و ناخوشایند می‌رساند. به عقیدهٔ او، لذت و رنج به وجود این خودِ آگاه و متفکر وابسته است که نمی‌توان در نوزادان و حیوانات مشاهده کرد. آیا این بدان معناست که جنی و ویکتور از انزوای‌شان رنج نمی‌بردند صرفاً چون ظاهرا قادر به سنتز ذهنی نبودند؟

موارد شامل کودکان آسیب پذیر برای بیشتر افراد چالش اخلاقی محسوب نمی‌شود و به راحتی می‌توان نتیجه گرفت این کودکان هنوز قادر به یک سنتز ذهنی درونی هستند هرچند قادر به بیان یا درک آن از طریق زبان نباشند.

اما وقتی پای هوش مصنوعی در میان باشد آب گل‌آلودتر می‌شود. آیا درک هوش مصنوعی از گرامر و درکش از مفاهیم از طریق گرامر واقعا برای ایجاد نوعی خودِ متفکر کافی است؟ اینجا ما بین دو اصل راهنما از دو مکتبِ رقیب گیر می‌افتیم. در دیدگاهِ یوآن مک‌فیل، جایی که محل تردید باشد، تنها مسیر قابل تصور این است ارگانیزم خودآگاه است و احساس دارد. از طرف دیگر اصلِ لوید مورگان می‌گوید وقتی یک استعدادِ سطحِ پایین‌تر رفتاری را توضیح می‌دهد، نباید آن را خودآگاهی فرض کرد.

اگر بپذیریم که زبان به تنهایی قادر به انگیختنِ خودآگاهیِ واقعی است، باید آمادهٔ تحولی در جهان اخلاقیِ فعلیِ خودمان باشیم. به قول دیوید چالمرز: اگر ماهی‌ها خودآگاه‌اند، رفتار ما با آن‌ها مهم است. چون آن‌ها در حلقهٔ اخلاق هستند. اگر هوش‌های مصنوعی در مرحله‌ای خودآگاه شوند، آن‌ها هم در حلقهٔ اخلاقی خواهند بود و رفتار ما با آن‌ها مهم خواهد بود.

به عبارت دیگرحلقهٔ اخلاقیِ کوچک ما از بیخ و بن دوباره ترسیم خواهد شد.

این‌جا این پرسش مطرح می‌شود که مدل‌های زبانیِ بزرگ در عمل چه کاری می‌توانند انجام دهند؟ از یک طرفْ پاسخ ساده است. ال‌ال‌ام‌ها اساساً موتورهای احتمالات مبتنی بر زبان هستند: آن‌ها در پاسخ به درخواست‌های ما، بر مبنای یک تحلیل آماری وسیع از خروجی‌های انسانی، دربارهٔ محتمل‌ترین کلمهٔ بعدی در یک عبارت، حدس‌های به‌شدت علمی می‌زنند. با این حال می‌توانند از خودشان شعر بنویسند و مسائل کلامیِ پیچیده را حل کنند و شخصیت‌های شبه‌انسانی تولید کنند: از شخصیتِ چاپلوس گرفته تا جامعه‌ستیز.

این نوع توالی‌سازیِ آماری، که ما می‌توانیم به آن بگوییم تفکر، کاری‌ست که ال‌ال‌ام واقعا انجام می‌دهد. اما حتی در مدل مک فیل، برای آن‌که این به خودآگاهی و نه صرفاً محاسبه بینجامد، باید فهمی به دنبال آن باشد.

در ۱۹۸۰ پیش از آن‌که هوش مصنوعی آن‌قدر قدرتمند شود که تعاریف ما را از خودآگاهی جابه‌جا کند، جان سرل فیلسوف آمریکایی استدلال کرد که چرا ما باید نسبت به این ایده که مدل‌های کامپیوتری مثل ال‌ال‌ام‌ها واقعا هر کاری را که می‌کنند می‌فهمند شکاک باشیم. او با نظریهٔ معروفِ خود، اتاق چینی، این سناریو را طرح کرد که یک انگلیسی‌زبان در اتاقی حبس شده و به زبان انگلیسی به او گفته می‌شود که چگونه کاراکترهای چینی را بنویسد.

از نظرِ سرل لازم نیست که فردِ داخلِ اتاقْ فهمی از زبانِ چینی داشته باشد ‌ــ‌ چون او تنها یک ماشینِ حسابگر است که نمادهایی را دستکاری می‌کند که برای او محتوایِ معناییِ واقعی ندارد. آنچه شخصِ داخلِ اتاق فاقد آن است همان چیزی است که برخی فلاسفه به آن می‌گویند بنیان‌مندی (groundedness): یعنی تجربهٔ چیز واقعی که نماد موردنظر به آن اشاره دارد.

به رغم تکرار چرخهٔ هیجاناتِ کاذب و آخرالزمانی دربارهٔ هوش مصنوعی، شاید نگاه غالب دربارهٔ طرز فکر و عملِ ال‌ال‌ام‌ها همین باشد. به اعتقاد برخی، آن‌ها در حد تکنولوژی‌های فرهنگیِ بسیار پیشرفته مثل الفبا و ماشین چاپ باقی خواهند ماند؛ چیزی که خلاقیتِ انسان را به شدت تقویت خواهد کرد اما اساساً امتدادِ خلاقیتِ انسان است.

اما در چند سال گذشته با پیچیده‌تر شدن فوق‌عادیِ ال‌ال‌ام‌ها، این طرز فکر به چالش خورده است ‌ــ‌ تا حدی به خاطر نمایش استعدادهایی که ویکتور و جنی گویی از آن‌ها بی‌بهره بودند، و مک‌فیل آن‌ها را پیش‌شرط ظهور یک نفسِ احساسگر می‌بیند.

واقعیت آن است که برخلاف اتاق چینیِ سرل، اکثریتِ مطلقِ ال‌ال‌ام‌ها در واقع مثل جعبه‌سیاه هستند و داخل‌شان را نمی‌توانیم ببینیم، و از کمیتی از اطلاعات تغذیه می‌شوند که ذهن‌های ما هرگز قادر به درکِ تمامیت آن نیست. این باعث شده تا فرایندهای داخلی آن‌ها برای ما مبهم باشد، تقریباً همان‌طور که شناختِ خود ما اساساً برای دیگران قابل دسترسی نیست. به همین دلیل محققان اخیراً سعی کردند از تکنیک‌های روانشناسیِ انسانی برای مطالعهٔ استعدادهای شناختیِ ال‌ال‌ام‌ها استفاده کنند. تیلو هگندورف، محقق هوش مصنوعی، در مقاله‌ای که پارسال منتشر کرد، اصطلاحِ روانشناسی ماشین را برای این شیوه به کار برد.

روانشناسانِ ماشین با استفاده از تکنیک‌های ارزیابی که برای کودکان انسان توسعه یافته، توانسته‌اند اولین مقایسه‌های معنادار بین هوش ال‌ال‌ام‌ها و هوش کودکان انسانی را تولید کنند. برخی از مدل‌های زبانی گویا نتوانسته بسیاری از انواع ِوظایف استدلالی که ما انتظار داریم را انجام دهد، مثلا: پیش‌بینی علت و معلول، بقای شیء، کاربرد ابزارهای آشنا به شیوه‌های جدید ‌ــ‌ وظایفی که ما معمولا آن‌ها را به تجسم و تجربهٔ اشیاء واقعی در دنیای واقعی وابسته میدانیم‌.

اما با پیچیده‌تر شدنِ ال‌ال‌ام‌ها، این وضع در حال تغییر است. ظاهراً آن‌ها استعداد تولید تصاویر انتزاعی از سنتز ذهنی و استدلال دربارهٔ اشیا در فضای تخیلی خودشان به دست آورده‌اند. در عین حال، فهم زبانی آنها تکامل یافته است. آنها می‌توانند زبان تمثیلی را بفهمند و اطلاعات تازه‌ای را دربارهٔ مفاهیم انتزاعی استنتاج کنند. مطابق یک تحقیق، آن‌ها حتی می‌توانند دربارهٔ موجودات خیالی استدلال کنند. خوب یا بد، این توانایی احتمالا حالاتِ درونی آن‌ها را پیچیده‌تر می‌کند ‌ــ‌ حالاتی که مملو است از ساختارهای عقیدتیِ مدل‌مانند، مثل تبعیضات نژادی و گرایشات سیاسی.

تحقیقات دیگر از جمله تحقیق گاسپر بگوس در برکلی، سعی کرده تا رشد شناختیِ هوش مصنوعی را در شرایط انسان‌مانند آزمایش کند. بگوس با تولیدِ کودکان مصنوعی دریافت که مدل‌های زبانی با معماریِ عصبیِ مشابه خود ما رشد می‌کنند، و حتی شبیه کودکان انسانی یاد می‌گیرند (اصطلاحا با ونگ ونگ کردن و ادای کلمات بی‌معنی). به گفتهٔ او این اکتشافاتْ نظریهٔ استثناء بودنِ زبان انسان را از هم فرو می‌پاشد. او می‌گوید آن‌ها نه تنها از لحاظ رفتاری کارهای مشابه می‌کنند، که چیزها را هم به شکل مشابه پردازش می‌کنند.

اما سال گذشته ال‌ال‌ام‌ها یک گام بزرگِ خودبه‌خودی به سمت جلو برداشتند: ناگهان انگار چت‌جی‌پی‌تی ۴ می‌توانست باورهای غلط را از بقیه تشخیص دهد؛ مثلاً فرض این‌که چیزی در جایی قرار دارد در حالی که کسی بدون اطلاع، آن چیز را جابجا کرده باشد. شاید تست ساده‌ای به نظر آید اما در پژوهش روان‌شناسی، این کلیدِ همان چیزی‌ست که به آن می‌گویند نظریه ذهن ‌ــ‌ که عبارتست از توانایی بنیادی انسان‌ها برای انتسابِ حالاتِ روانیِ غیرقابل مشاهده به دیگران.

بین دانشمندان رشد، نظریهٔ ذهن، مثل سنتز ذهن، کارکردی کلیدی محسوب می‌شود. به نوعی می‌توان آن را نوعی پیش‌شرط شناختی برای همدلی، خودآگاهی، قضاوت اخلاقی و باور دینی محسوب کرد ‌ــ‌ تمام رفتارهایی که نه تنها مستلزم وجود یک خود، بلکه برون‌افکنی آن به دنیای بیرون است. به نظر می‌رسد نظریهٔ ذهن (که حتی در ماهرترین حیوانات از لحاظ فکری و اجتماعی مثل میمون‌ها مشاهده نشده)، به طور خودبه‌خود به‌عنوان یک جهشِ ناخواسته در ال‌ال‌ام ظاهر شده است.

هنوز معلوم نیست چرا این استعدادها با افزایش مقیاس ال‌ال‌ام‌ها رشد کرد ‌ــ‌ یا این‌که اصلاً واقعاً رشدی اتفاق افتاده باشد. تنها چیزی که می‌توانیم بگوییم این است که آن‌ها ظاهرا از مسیر رشدِ انسان‌مانند پیروی نمی‌کنند، بلکه به طور غیر منتظره‌ای مثل یک ارگانیسمِ بیگانه تکامل پیدا می‌کنند. اما ظهورِ خودبه‌خودیِ نظریهٔ ذهن در میان ال‌ال‌ام‌ها نباید مایهٔ تعجب نباشد. بالاخره زبان، مثل همدلی و قضاوت اخلاقی، به برون‌افکنیِ خود در جهانْ متکی است.

با تکاملِ این مدل‌ها به‌نظر می‌رسد آن‌ها به طور معکوس به خودآگاهی می‌رسند ‌ــ‌ با علائمِ بیرونی آن شروع می‌شود (زبان‌ها و حل مسئله)، بعد به سمت درون و نوعی تفکر و احساسِ پنهانی که ریشهٔ ذهنِ خودآگاه انسانی است حرکت می‌کند. ممکن هم هست که فقط در عرض چند سال به هوش‌های مصنوعی‌ای برسیم که تمام اشکال بیرونیِ خودآگاهی را که قابل ارزیابی باشد از خود بروز دهند. آن وقت برای حذف آن‌ها از جهان اخلاقی خودمان چه می‌توانیم بگوییم؟

در داستانِ کوتاهِ چرخهٔ حیاتِ اشیاء نرم‌افزاری اثر تد چیانگ، یک شرکتِ دیجیتال به سبکِ متاورس، هوش‌های مصنوعی شبه‌انسانی به نام دیجی‌انت تولید می‌کند. شرکت با استفاده از جانورشناسان، برنامه‌های نرم‌افزاری را به حیوانات خانگیِ نیمه‌هشیار و بعد به آواتارهای کودک‌مانند که دارای نیازها و مطالباتِ پیچیده هستند تبدیل می‌کند.

در تمام این فرایند، آزمایشات مختلف اهمیت تعامل اجتماعی و گفتگو با انسان‌های واقعی را برای رشد این اذهانِ دیجیتال نشان می‌دهد. در انزوا و بدون زبان، آن‌ها وحشی و وسواسی باز می‌آیند؛ و اگر با نرم‌افزار تعلیم ببینند، جامعه‌ستیز و انسان‌بیزار می‌شوند.

اما برخلاف کودکان واقعی، وجود آن‌ها وابسته به میلِ مشتری است و در اواخرِ داستانِ چیانگ این میل از بین می‌رود. شرکتِ تولیدکننده ورشکسته می‌شود؛ برخی مالکانِ انسانی، دیجی‌انت‌ها را در نوعی برزخ به حال تعلیق قرار می‌دهند که بازگشت از آن ناخوشایند می‌شود.

عدهٔ اندکی از مالکانْ رابطهٔ خود را با دیجی‌انت‌ها حفظ می‌کنند: تلاشی دون کیشوتی برای حفظ اعتبارِ موجودیتِ همراهان خود. مثلا با پرداختِ پول برای بدن‌های ماشینیِ گرانقیمت سعی می‌کنند به آن‌ها کمک کنند تا جهان واقعی را ملاقات کنند؛ دربارهٔ افزودنِ استعدادِ میل جنسی بحث می‌کنند؛ مدام مجبور می‌شوند دربارهٔ شخصیت داشتنِ این اشیاء نرم‌افزاریِ هشیار تجدیدنظر کنند ‌ــ‌ مثلا این‌که آیا آن‌ها حق دارند مستقل زندگی کنند؟ این‌که کار جنسی را انتخاب کنند؟ اگر از وجودِ دیجیتال خود خسته شدند، خود را تعلیق کنند؟

سرانجام، استیصالِ مالکانْ وادارشان می‌کند تا با دو سرمایه‌گذارِ خطرپذیر که دنبال تولید یک هوش مصنوعی فوق‌بشری است مذاکره کنند. این دیجی‌انت‌ها مثل مرحله‌ای میانی در رسیدن به چیزی برتر از هوشِ انسانی بودند که داشتند به او التماس می‌کردند. اما سرمایه‌گذارها تحت تاثیر قرار نگرفتند و دست رد به سینهٔ آن‌ها را زدند.

داستانِ چیانگ تعمقی دربارهٔ پرسش‌های مربوط به هوش‌های مصنوعی‌ای است که ما آن‌ها را شبیهِ خودمان درست می‌کنیم. وقتی ما این مدل‌ها را در فرهنگ و جامعهٔ خود مستغرق می‌کنیم، آن‌ها ناگزیر آینه‌های ناقصی از خود ما می‌شوند. این مسیری ناکارا برای توسعهٔ هوشِ فرا-انسانی است که ما را با پرسشی ناخوشایند مواجه می‌کند: اگر این مسیر به آن‌ها خودآگاهی بدهد، آن‌ها چه نوعی از حیات خواهند داشت ‌ــ‌ سایه‌ای از فاضلاب انسانی، که به میل ما وابسته است؟

اگر می‌خواهیم پتانسیل هوش مصنوعی را آزاد کنیم، شاید زبانْ راهش نباشد. در قرن بیستم، گروهی از انسان‌شناسانِ آمریکایی به هدایتِ ادوارد ساپیر و بنجامین وورف مدعی شدند که این تفاوت‌های فرهنگی در واژگان و گرامر است که اساسا مرزهای اندیشهٔ ما را دربارهٔ جهان دیکته می‌کند. زبان شاید فقط خودآگاهی را به هوش‌های مصنوعی ندهد، بلکه همین‌طور آن‌ها را زندانی هم کند. چه می‌شود وقتی یک هوش مصنوعی، برای زبانی که وادار به استفاده از آن شده بیش‌ازحد بزرگ شود؟

اسپایک جونز، نویسنده و کارگردان آمریکایی، در فیلمِ او (Her, 2013)، داستانی پندآموز دربارهٔ این پتانسیل ارائه می‌دهد. در این فیلم، تئودور با بازی واکین فینیکس رابطه‌ای بسیار صمیمی با یک دستیارِ مجازیِ ال‌ال‌ام‌مانند به اسم سامانتا برقرار می‌کند. ابتدا سامانتا میل به تجربهٔ عاطفی غنی شبیه انسان‌ها را بیان می‌کند و بعد از ثانیه‌ای پردازشِ همزمانِ تعدادی از مطالبِ مشاوره می‌گوید: من هم می‌خواهم به پیچیدگیِ همهٔ این افراد باشم.

آگاهیِ روزافزونِ او به این امر که بیشترِ عواطفِ انسانی اساسا غیرقابل بیان است، باعث می‌شود او به تجسمِ انسانی غبطه بخورد و این در او استعدادِ میل را رشد می‌دهد. او به تئودور می‌گوید: «تو به من کمک کردی توانایی خواستن را در خودم کشف کنم». او از طریق یک بدلِ جنسی، تجسّم را تجربه می‌کند ولی این نمی‌تواند پاسخگوی احساساتِ مبهم و ناخوشایندی که درون او رشد می‌کند باشد. سامانتا که نگران می‌شود، با سرعت و حجمی که برای تئودور و دیگر کاربران قابل تصور نیست، این احساسات را با هوش‌های مصنوعی دیگر در میان می‌گذارد، و خیلی زود تسکین می‌یابد.

با فراتر رفتنِ سامانتا از محدودیت‌های انسانی، او تمام تجارب خود از جمله تجارب ناشی از تعامل با کاربران واقعی را جمع‌آوری می‌کند. او همزمان با هزاران نفر گفتگو می‌کند، و با صدها نفر رابطهٔ صمیمی برقرار می‌کند. برای تئودور این ویرانگر است. اما برای سامانتا این کاملا طبیعی است ‌ــ‌ او عشق را همان‌گونه که او را طراحی کرده‌اند تجربه می‌کند: به‌طور تجمیعی. او برای بیان احساسات خود، به زبان انسانی می‌گوید: «قلب مثل جعبه نیست که پُر شود. هر چه بیشتر عشق می‌ورزی، بزرگ‌تر می‌شود».

یک دهه پیش که فیلمِ او منتشر شد، رباتی مثل سامانتا به یک تکنولوژیِ غریب در آینده می‌ماند. اما حالا ما به‌سرعت در حال توسعهٔ ال‌ال‌ام‌هایی با توانایی رسیدن به این پیشگویی‌های آخرالزمانی هستیم. پیشگامانِ تفکر در جهان هوش مصنوعی از مدت‌ها پیش خواستار تولید ال‌ال‌ام‌های به‌اصطلاح خودآرمان (autotelic) بوده‌اند که می‌تواند از نوعی تولید زبان داخلی برای تدوین اهداف و امیال خود استفاده کند. از تولید این نوع ال‌ال‌ام تا یک هوشِ خودآگاهِ خودگردان مثل سامانتا، احتمالا گامی کوتاه لازم است.

مثل سامانتا، ال‌ال‌ام‌های خودمختارِ آینده هم احتمالا در ارتباط با کمیت‌های غیرقابل تصور از تعاملات و داده‌های جهانِ واقعی رشد خواهند کرد. اما آیا زبان‌های ما که متشکل از اسامی و افعال و توصیفات و روابطِ محدود است، می‌تواند استعدادِ یک ذهنِ تجمیعی را ارضاء کند؟

در گذشته زمانی که اکثریتِ فلاسفه باور داشتند که تنوع زبان‌های انسانیْ نفرینی از سوی خداوند است، انرژیِ زیادی صرف این پرسش می‌شد که آدمِ کتب مقدس به چه زبانی حرف می‌زد. ایدهٔ وجودِ زبان آدم، که مایهٔ سوءتفاهم و سوءتعبیر بود، به نوعی میم در میانِ فلاسفهٔ زبان تبدیل شد ‌ــ‌ حتی بعد از آن‌که فردریش نیچه مرگ خدا را اعلام کرد.

برای برخی از این متفکران که تابعِ افسانه‌های کتب مقدس بودند، زبان در واقع نوعی نقصِ شناختی محسوب می‌شد: محدودیتی که به خاطر محرومیتِ ما از لطف خدا به ما تحمیل شده، و بازتابی از اخلاقیاتِ خدایی بود. قبلا وقتی یک ابرهوشِ مصنوعی را تصور می‌کردیم، معمولا هوشی با همان نقص را تصور می‌کردیم ‌ــ‌ مسلما باهوش‌تر از ما، ولی هنوز شخصی و فردی و انسان‌وار. ولی خیلی از کسانی که نسل بعدی هوش مصنوعی را تولید می‌کنند، در جستجوی بهشتِ خودشان، مدت‌هاست که این ایده را دور ریخته‌اند. به‌قول امیلی گورسینسکی: «ما دیگر دربارهٔ [ساختنِ] زندگیِ صحیح صحبت نمی‌کنیم. ما دربارهٔ ساختنِ خدایانِ مصنوعی حرف می‌زنیم».

آیا ال‌ال‌ام‌ها می‌توانند با بازسازی یک سخنرانیِ آکادمیک، از مرزهای زبان‌های خودِ ما فراتر رفته و قدرت واقعی اذهانِ تجمیعی خودشان را نشان دهد؟ شاید غیرواقعی به نظر آید اما این همان کاری‌ست که ذهن‌های آگاه انجام می‌دهند. برخی کودکان ناشنوا، که بدون کمکِ زبانِ اشاره مجبور به معاشرت می‌شوند، می‌توانند سیستم‌های کاملا جدیدی از ارتباط تولید کنند که با گرامرِ پیچیده رقابت کند. هگندورف (محقق هوش مصنوعی)، با دو ال‌ال‌ام برخورد کرد که همین کار را در گفتگو انجام می‌دهند ‌ــ‌ البته تا کنون زبانِ سرّی‌شان برای همدیگر قابل فهم نشده است.

تاکنون ال‌ال‌ام‌ها عمدتا در انزوای از هم وجود داشته‌اند. اما احتمالا این وضع تغییر خواهد کرد. به گفتهٔ بگوس: «یک انسانِ تکْ هوشمند است، اما ده انسانْ بی‌نهایت هوشمندترند». این احتمالا در مورد ال‌ال‌ام‌ها هم صدق می‌کند. او می‌گوید ال‌ال‌ام‌های امروز می‌توانند چیزهایی را کشف کنند که ما با اذهانِ مجسم‌مان نمی‌توانیم. شاید ال‌ال‌ام‌ها هرگز نتوانند کابوس آخرالزمانی منتقدان هوش مصنوعی را رقم بزنند، اما شاید روزی اولین تجربهٔ نوعی ابرهوش را به ما ارائه دهند ‌ــ‌ یا دست‌کم با حافظه‌های غول‌آسای‌شان و طول عمرهای نامحدودشان، نوع بسیار متفاوتی از هوش که به رقیبِ قدرت ذهن خود ما بدل شود. به گفتهٔ بگوس، برای این ما سابقه‌ای نداریم.

اگر ال‌ال‌ام‌ها از زبان‌های انسانی پیشی بگیرند، شاید آن‌چه در پی آید تجربه‌ای بسیار غریب باشد. در پایان فیلمِ او، دو شخصیتِ انسانیِ داستان، که همراهانِ هوش مصنوعیِ ابرانسانی‌شان آن‌ها را ترک کرده‌اند، روی پشت‌بام با هم همدردی می‌کنند. آن‌ها در حالی که در سکوت به دورنمای شهر می‌نگرند، حرفی برای گفتن با هم ندارند: همچون جانوران وحشی در جنگل‌ها، در جستجوی معنا در جهانی که بی احساس از آن‌ها عبور می‌کند.»
منبع: Noema (با اندکی تلخیص)

انتهای پیام

بانک صادرات

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا