آیا مخترع چت جیپیتی میداند دارد چهکار میکند؟
راس اندرسـن، سـردبیـر ارشـد آتلانتیک در حوزههای علم، مطلبی با عنوان «Does Sam Altman Know What He’s Creatin» در سایت آتلانتیک نوشته که با ترجمهی علیرضا شفیعینسب در سایت ترجمان منتشر شدهاست. متن کامل این مقاله را در ادامه میخوانید.
سم آلتمن، مدیرعامل سیوهشت سالۀ شرکت اُپنایآی، این روزها مهمترین فرد جهان در زمینۀ هوش مصنوعی بهشمار میرود. مشهورترین محصولِ شرکت او، چتجیپیتی، پرسروصداترین دستاورد تکنولوژیک سال گذشته بوده است و هنوز این اول راه است. راس اندرسن، روزنامهنگار پرتجربۀ حوزۀ فناوری، در مجموعهای از مصاحبهها با آلتمن و همکارانش در اپنایآی، که طی چندماه انجام شدهاند، گزارشی مفصل دربارۀ او، ایدههای او، نگرانیهایش و آیندهای که پیش روی خود میبیند نوشته است.
راس اندرسن، آتلانتیک— صبح دوشنبهروزی در ماه آوریل، سَم آلتمن در دفتر اُپناِیآی در سانفرانسیسکو نشست و دربارۀ هوش مصنوعی خطرناکی با من صحبت کرد که شرکتش ساخته اما هرگز منتشر نخواهد کرد. کمی بعد گفت کارمندانش خیلی شبها نمیتوانند پلک روی پلک بگذارند، بس که نگراناند مبادا بدون درکِ خطرها هوشهای مصنوعیای را منتشر کنند. پاهایش را روی لبۀ صندلی اداریاش گذاشته بود و ظاهری خونسرد داشت. هوش مصنوعی قدرتمندی که شرکتش در ماه نوامبر منتشر کرد طوری توجه جهانیان را به خود معطوف کرد که در تاریخ اخیرِ فناوری سابقه نداشت. در بعضی محافل، گلایههایی وجود داشت دربارۀ کارهایی که چتجیپیتی هنوز نمیتوانست خوب انجام بدهد و در بعضی دیگر از محفلها از آیندهای که این فناوری رقم میزد ابراز نگرانی میکردند، اما آلتمن عین خیالش نبود؛ لحظه را لحظۀ پیروزی میدانست.
میگفت کاری به این ندارد که هوش مصنوعی درنهایت چه خطراتی ممکن است داشته باشد، و اصلاً و ابداً از انتشار چتجیپیتی پشیمان نیست. بالعکس، آن را یک خدمت عمومی بزرگ میداند: «میتونستیم فعلاً صداش رو درنیاریم و تا پنج سال دیگه هم همینجا توی ساختمانمون روش کار کنیم. اونوقت یک چیزی ساخته میشد که همه از تعجب شاخ دربیارند». اما مردم در آن صورت نمیتوانستند آمادۀ بهتزدگیِ بعدش باشند، پیامدی که به نظر آلتمن «تصورش هم بهشدت ناخوشایند است». او معتقد است مردم به زمان نیاز دارند تا با این فکر کنار بیایند که شاید بهزودی با هوش جدید و قدرتمندی همزیستی کنیم که همهچیز را، از کار گرفته تا روابط انسانی، از نو خواهد ساخت. چتجیپیتی نوعی اعلانِ هدف بود.
سال ۲۰۱۵، آلتمن، ایلان ماسک و چند پژوهشگر برجستۀ حوزۀ هوش مصنوعی اُپناِیآی را تأسیس کردند چون باور داشتند هوش عمومی مصنوعی (چیزی که قابلیتهای فکریاش بهاندازۀ یک فارغالتحصیل دانشگاهی باشد) بالاخره در دسترس قرار گرفته است. میخواستند به آن دست یابند و پا را از آن هم فراتر بگذارند: میخواستند یک اَبَرهوش را به عرصۀ وجود احضار کنند، قوۀ تفکری بسیار فراتر از انسانها. ضمناً اگرچه شرکتهای فناوری بزرگ بیپروا میشتافتند تا برای مقاصد خودْ اول از همه به آنجا برسند، اما آنها میخواستند جانب احتیاط و ایمنی را هم رعایت کنند «تا به تمام بشریت فایده برسانند». اُپناِیآی را بهصورت یک سازمان غیرانتفاعی بنیان گذاشتند تا در قیدوبند «نیاز به ایجاد بازده مالی» نباشند و عهد بستند که پژوهشهای خود را در اوج شفافیت انجام دهند، که خبری از آن آزمایشگاههای فوقسری در فلان بیابان نیومکزیکو نباشد.
تا چند سال، مردم چیز زیادی از اُپنایآی نشنیدند. در سال ۲۰۱۹ که آلتمن مدیرعامل شد (اتفاقی که میگویند بعد از کشمکش با ایلان ماسک بر سر قدرت رخ داد) چندان خبرساز نشد. اُپنایآی مقالاتی منتشر میکرد، ازجمله مقالهای که همان سال دربارۀ یک هوش مصنوعی جدید به انتشار رساند. آن مقاله توجه کامل اجتماع فناوریدوستان سیلیکونولی را به خود جلب کرد، اما قابلیتهای این فناوری هنوز بر عموم مردم آشکار نبود، تا پارسال، یعنی زمانی که مردم شروع به بازی با چتجیپیتی کردند.
موتوری که امروزه چتجیپیتی را به کار میاندازد جیپیتی-۴ نام دارد. آلتمن در گفتوگویی که با او داشتم این موتور را یک هوش فضایی معرفی میکرد. خیلیهای دیگر نیز چنین احساسی داشتهاند، بهویژه وقتی میبینند هنگام نوشتن آن نوشتههای سلیس گاهی سریع عمل میکند و گاهی (عمداً) مکثهای کوتاهی میکند تا تفکرِ لحظهای را به ذهن متبادر سازد. این هوش مصنوعی، طی چند ماهی که از عمرش گذشته، برپایۀ نظریهای که در زمینۀ ترکیب مزهها دارد دستورهای جدیدی را برای کوکتل پیشنهاد داده؛ بیشمار مقالۀ دانشگاهی نوشته و اساتید را به استیصال انداخته؛ اشعاری به انواعواقسام سبکها نوشته، گاهی نسبتاً خوب، ولی همیشه سریع؛ و آزمون وکالت را با موفقیت پشت سر گذاشته است. اشتباهاتی در فکتها انجام میدهد، اما خیلی بامزه اشتباهاتش را میپذیرد. آلتمن به یاد دارد اولین باری که دید جیپیتی-۴ کدهای کامپیوتری پیچیدهای نوشته، کاری که دقیقاً برای آن طراحی نشده بود، چه حسی داشته: «پیش خودم گفتم ‘بالاخره رسیدیم’».
چتجیپیتی، نُه هفته پس از انتشار، حدود ۱۰۰میلیون کاربر ماهانه داشت، یعنی در آن زمان احتمالاً ازحیث سرعت گسترش کاربران در میان محصولات مصرفی تاریخ بیسابقه بود. موفقیتهای این هوش مصنوعیْ جنون توسعهطلبی را در میان اهالی فناوری برانگیخت: کلانسرمایهگذاران و شرکتهای بزرگ آمریکا و چین سریعاً دهها میلیارد دلار را صرف تحقیق و توسعۀ الگوگرفته از رویکرد اُپنایآی کردند. متاکیولِس، که یک سایت پیشبینی است، از سالها پیش حدس پیشبینیکنندگان را ردیابی کرده که چه زمانی یک هوش عمومی مصنوعی فرا میرسد. سه سال و نیم پیش، میانگین حدسها حوالی سال ۲۰۵۰ بود؛ امروزه این عدد به حدود ۲۰۲۶ رسیده است.
من از اُپنایآی بازدید کردم تا بفهمم چه فناوریای این شرکت را قادر ساخته از غولهای حوزۀ فناوری پیشی بگیرد، تا بفهمم اگر روزی در آیندۀ نزدیک یک اَبَرهوش در یکی از سرورهای ابری این شرکت به واقعیت بپیوندد تمدن بشر دستخوش چه تغییراتی میشود. از نخستین روزهای انقلاب رایانشی، رنگوبویی اسطورهای به هوش مصنوعی دادهاند و آن را فناوریای معرفی کردهاند که مقدر شده است تا تحولی اساسی به وجود بیاورد. فرهنگ ما چه خیالبافیهایی نکرده دربارۀ هوشهای مصنوعیای که بهنحوی تاریخ را به پایان خواهند رساند. برخی از آنها موجوداتی خداگونهاند که قطرههای اشک را پاک میکنند، بیماران را شفا میدهند، رابطۀ ما با زمین را التیام میبخشند و درنهایت روزگاری ابدی سرشار از برکت و زیبایی را رقم میزنند. برخی دیگر چند نفری را ارباب و بقیۀ انسانها را به رعیت تبدیل میکنند یا ما را به انقراض میکشانند.
آلتمن نامتعارفترین سناریوها را چیده است. میگوید «وقتی جوانتر بودم، هم میترسیدم و اضطراب داشتم و هم، راستش را بخواهید، کمی هیجانزده بودم که میخواهیم این پدیده را بسازیم که از خودمان با اختلاف جلو میزند و میترکاند و در کل جهان هستی پخش میشود، درحالیکه انسانها محدود به همین منظومۀ شمسی میمانند».
پرسیدم «یعنی زمین بشود مثل یک منطقۀ حفاظتشده؟».
گفت «دقیقاً. ولی حالا این به نظرم خیلی سادهلوحانه است».
آلتمن، طی چندین گفتوگو در ایالاتمتحده و آسیا، چشمانداز جدید خود دربارۀ آیندۀ هوش مصنوعی را با شیوۀ پرهیجان مخصوص اهالی میدوِست توضیح داده است. گفته است انقلاب هوش مصنوعی با تمام تحولات فناورانۀ قبلی فرق خواهد داشت و بیشتر «مثل نوع جدیدی از جامعه» خواهد بود. گفته است او و همکارانش خیلی به پیامدهای اجتماعی هوش مصنوعی فکر کردهاند، به اینکه دنیا «بَعدش» چطور خواهد شد.
اما هرچه بیشتر با او حرف زدم، آن «بَعدش» گنگ و گُنگتر شد. آلتمنِ سیوهشتساله امروزه قدرتمندترین فرد در حوزۀ توسعۀ هوش مصنوعی است؛ دیدگاهها، گرایشها و انتخابهای او چهبسا برای آیندۀ همۀ ما مهم باشد، شاید حتی بیشتر از رئیسجمهور ایالاتمتحده. اما خودش اقرار میکند که این آینده در هالهای از ابهام قرار دارد و خطراتی جدی در کمینش نشستهاند. آلتمن نمیداند هوش مصنوعی چقدر قدرت خواهد گرفت، اوجگیری آن چه نتایجی برای آدمهای معمولی خواهد داشت و اینکه آیا انسانها را در معرض خطر قرار خواهد داد یا نه. به او خرده نمیگیرم؛ به نظرم هیچکس نمیداند این ماجرا به کجا میانجامد. قدر مسلم این است که، چه به صلاحمان باشد و چه نباشد، داریم با سرعت به پیش میرویم.
یک روز صبح با ایلیا ساتسکیور، دانشمند ارشد اُپنایآی، دیدار کردم. ساتسکیورِ سیوهفتساله حالوهوایی عرفانی دارد که گاهی توی ذوق میزند: پارسال با این ادعا که جیپیتی-۴ شاید «کمی آگاه» شده باشد نیمچهجنجالی به پا کرد. او ابتدا بهعنوان دانشجوی ممتاز جفری هینتون به شهرت رسید، همان استاد پیشکِسوت دانشگاه تورنتو که بهار امسال از گوگل استعفا داد تا بتواند آزادانهتر دربارۀ خطرات هوش مصنوعی برای بشریت صحبت کند.
هینتون را بعضاً «پدرخواندۀ هوش مصنوعی» میخوانند، چون قدرت «یادگیری عمیق» را زودتر از هرکسی دریافت. در دهۀ ۱۹۸۰، کمی پس از آنکه هینتون دورۀ دکترای خود را به پایان رساند، پیشرفت این عرصه عملاً متوقف شده بود. پژوهشگرانِ باتجربه هنوز سیستمهای هوش مصنوعیِ بالابهپایین را کدنویسی میکردند: هوشهای مصنوعی با مجموعۀ جامعی از قواعد درهمتنیده (دربارۀ زبان یا اصول زمینشناسی یا تشخیص پزشکی) برنامهریزی میشد تا شاید این رویکرد روزی به حدواندازۀ قوۀ شناخت انسان برسد. هینتون دریافت که این گردآوری قواعد پرپیچوخمْ بیجهت پیچیده است و فقط به درد کارهای خاصی میخورد. او با کمک ساختار الگوریتمیِ مبتکرانهای به نام «شبکۀ عصبی» به ساتسکیور آموخت که دنیا را همانطوری به هوش مصنوعی عرضه کند که به یک بچه. هوش مصنوعی بدینترتیب خواهد توانست قواعد دنیای واقعی را به دست خودش کشف کند.
ساتسکیور در گفتوگویمان شبکۀ عصبی را زیبا و مغزمانند توصیف میکرد. جایی وسط حرفهایمان، از سر میز بلند شد، پای تختهسفید رفت و ماژیک قرمزی به دست گرفت. یک شبکۀ عصبی ساده روی تخته کشید و توضیح داد که نبوغ ساختار شبکۀ عصبی در این است که یاد میگیرد و یادگیریاش برپایۀ پیشبینی است، تا حدی مثل روش علمی. عصبها لایهلایه قرار میگیرند. یک لایۀ دروندادْ پارهای داده دریافت میکند، مثلاً تکهای از یک متن یا یک تصویر. معجزه در لایههای وسط (یا «پنهان») اتفاق میافتد که آن پارۀ داده را پردازش میکنند تا لایۀ برونداد بتواند پیشبینیهایش را بروز بدهد.
شبکهای عصبی را تصور کنید که برنامهریزی شده تا کلمۀ بعدی را در یک متن پیشبینی کند. تعداد عظیمی از کلماتِ ممکن را از قبل در آن بارگذاری میکنند. اما قبل از آنکه تعلیمش بدهند، هنوز هیچ تجربهای در تمایزقائلشدن میان این کلمات ندارد، پس پیشبینیهای ضعیفی انجام میدهد. اگر جملۀ «روز بعد از چهارشنبه اسمش هست …» را به آن بدهند، ممکن است ابتدا کلمۀ بعدی را «بنفش» پیشبینی کند. شبکۀ عصبی به این دلیل یاد میگیرد که دادههای تعلیمیاش حاوی پیشبینیهای درست است، پس میتواند بروندادهای خود را نیز دستهبندی کند. وقتی فاصلۀ میان جواب خودش، یعنی «بنفش»، و جواب درست، یعنی «پنجشنبه»، را میبیند، رابطۀ میان کلمات را در لایههای پنهانش بر همین اساس اصلاح میکند. به مرور زمان، همین اصلاحات کوچک کنار هم قرار میگیرند و یک مدل هندسی از زبان میسازند که رابطۀ میان کلمات را بهصورت مفهومی بازمینماید. درکل هرچه جملات بیشتری به خوردش بدهند مدلش پیشرفتهتر میشود و پیشبینیهایش بهتر.
البته منظور این نیست که مسیر حرکت از نخستین شبکههای عصبی به اولین طلیعههای هوش انسانگونه در جیپیتی-۴ مسیر آسانی بوده است. آلتمن تحقیقات مراحل اولیۀ هوش مصنوعی را با آموزش به نوزاد مقایسه کرده است. او در سال ۲۰۱۶ که اُپنایآی تازه داشت راه میافتاد به نیویورکر گفت «چند سالی طول میکشد تا بچه چیز جالبی یاد بگیرد. اگر پژوهشگران، حین طراحی الگوریتم، تصادفاً به الگوریتمی شبیه الگوریتم نوزاد انسان بربخورند، حوصلهشان سر میرود، به این نتیجه میرسند که جواب نمیدهد و تعطیلش میکنند». سالهای اولِ اُپنایآی سراسر جانکندن بود، ازجمله به این دلیل که کسی نمیدانست دارد نوزاد تربیت میکند یا در مسیری پرخرج پیش میرود که آخرش بنبست است.
آلتمن در مصاحبهمان میگفت «هیچچیز جواب نمیداد و همهچیز در اختیار گوگل بود: همۀ استعدادها، همۀ آدمها، همۀ سرمایه». بنیانگذارانْ میلیونها دلار برای راهاندازی این شرکت خرج کرده بودند و، باوجوداین، شکست اصلاً دور از ذهن نبود. گرِگ براکمن، مدیر سیوپنجسالۀ شرکت، میگفت در سال ۲۰۱۷ چنان دلسرد شده که برای جبران روحیۀ ازدسترفتهاش سراغ بدنسازی رفته است. میگفت مطمئن نبوده اُپنایآی تا آخر آن سال دوام بیاورد و میخواسته چیزی ارائه بدهد که «ارزش وقت [من] را داشته باشد».
سال ۲۰۱۷، ساتسکیور سلسلهگفتوگوهایی با یک دانشمند پژوهشپیشۀ اُپنایآی به نام الِک رادفورد را آغاز کرد که روی پردازش زبان طبیعی کار میکرد. رادفورد با تعلیم پیکرۀ نظرات کاربران روی سایت آمازون به یک شبکۀ عصبیْ نتایج هیجانانگیزی به دست آورده بود.
کارکردهای درونی چتجیپیتی (تمام آن اتفاقات مرموزی که در لایههای پنهان جیپیتی-۴ رخ میدهد) پیچیدهتر از آناند که انسان، دستکم با ابزارهای کنونی، درکشان کند. ردیابی تمام اتفاقاتی که در سراسر مدل میافتد (مدلی که قطعاً از میلیاردها عصب تشکیل شده است) امروزه تلاشی عبث است. اما مدل رادفورد به حدی ساده بود که بتوان درکش کرد. وقتی او به لایههای پنهانش نگاه کرد، دید عصب مخصوصی برای عقایدِ مطرحشده در نظرات مردمی دارد. شبکههای عصبی قبلاً عقیدهکاوی کرده بودند، اما انجام این کار باید به آنها دستور داده میشد و باید با دادههای خاصی تعلیم میدیدند که بر اساس عقایدْ برچسب خورده باشند. اینیکی خودبهخود به این قابلیت رسیده بود.
شبکۀ عصبی رادفوردْ ساختار کلیترِ معنا در جهان را مدلسازی کرده بود که محصول جانبیِ وظیفۀ سادۀ پیشبینی حرف بعدیِ هر کلمه بود. ساتسکیور به فکر فرورفت که شاید اگر شبکۀ عصبیای با دادههای زبانیِ متنوعتر تعلیم یابد، بتواند بسیاری دیگر از ساختارهای معنا در جهان را نقشهبرداری کند. اگر لایههای پنهانش دانش مفهومی کافی را بیندوزند، شاید بتوانند حتی نوعی ماژول هستۀ 1 آموزشداده شده را برای اَبَرهوش تشکیل دهند.
بد نیست درنگی کنیم و ببینیم چرا زبانْ چنین منبع اطلاعاتیِ خاصی است. فرض کنید شما یک هوش تازه هستید که وارد این جهان شدهاید. دورتادورتان اتمسفر زمین است، خورشید و راه شیری و صدها میلیارد کهکشان دیگر که هریک نور و صدا و انواع اطلاعات دیگر ساطع میکنند. زبان با این منابع داده تفاوت دارد؛ مانند نور یا صدا نیست که سیگنال فیزیکی مستقیم باشد، اما چون عملاً تمام الگوهایی را که انسان در آن جهان عظیم کشف کرده کدگذاری میکند، دارای تراکم نامعمولی از اطلاعات است. اگر بایتبایت حساب کنیم، زبان جزء بهرهورترین دادههایی است که سراغ داریم و هر هوش جدیدی که میخواهد جهان را درک کند باید زبان را تا حد ممکن جذب کند.
ساتسکیور به رادفورد گفت بزرگتر فکر کند و به چیزی فراتر از بخش نظرات آمازون بیندیشد. گفت باید بزرگترین و متنوعترین منبع داده در جهان (اینترنت) را به یک هوش مصنوعی آموزش دهیم. اوایل سال ۲۰۱۷، با معماری شبکههای عصبیای که در آن زمان وجود داشت، چنین کاری عملی نبود؛ سالها طول میکشید. اما ژوئن همان سال، همکاران سابق ساتسکیور در گوگل برِین گزارشی فنی دربارۀ یک معماری جدید در شبکههای عصبی به نام ترنسفورمر منتشر کردند. این یکی میتوانست خیلی قویتر از معماریهای قبلی تعلیم بدهد که بخشی از این کار با جذب موازی مقادیر عظیمی از داده انجام میشد. ساتسکیور در مصاحبهمان میگفت «روز بعد که مقاله منتشر شد، گفتیم ‘همین است که دنبالش بودیم. همۀ کارهایمان را راه میاندازد’».
یک سال بعد، در ژوئن ۲۰۱۸، اُپنایآی جیپیتی را منتشر کرد، یک مدل ترنسفورمر که با بیش از ۷هزار کتاب آموزش داده شده بود. اینطور نیست که جیپیتی با یک کتاب سادۀ کودکانه شروع کند و بعد به آثار پروست برسد. حتی اصلاً کتابها را مستقیماً نمیخواند. پارههایی تصادفی از آنها را همزمان جذب میکند. گروهی دانشجو را در نظر بگیرید که در قالب یک ذهنِ جمعی در کتابخانهای گشتوگذار کنند، هرکدامشان کتابی از قفسهها بردارند، تکههایی را بهصورت تصادفی و سریع بخوانند، کتاب را سر جایش بگذارند و بروند سراغ کتابی دیگر. حین این کار، کلمهها را پشت یکدیگر پیشبینی میکنند و شم زبانیِ ذهن جمعیشان را تقویت میکنند تا اینکه پس از چند هفته سرانجام تکتک کتابها را از نظر بگذرانند.
جیپیتی در تمام آن قسمتهایی که میخوانْد الگوهای فراوانی کشف میکرد. میشد از او خواست جملهای را تکمیل کند. میشد از او سؤالی پرسید، چون، این مدل اولیۀ چت جیپیتی میفهمید که معمولاً پس از یک سؤال، جوابی میآید. اما بسیار بیکیفیت بود و بیشتر به تحققپذیربودنِ یک ایده شبیه بود تا اینکه منادی یک ابرهوش باشد. چهار ماه بعد، گوگل دست به انتشار برت زد، مدل زبانی منعطفتری که با بازخوردهای بهتری هم روبهرو شد. اما در آن زمان، اُپنایآی داشت مدل جدیدی را با مجموعهدادهای که بیش از ۸میلیون صفحۀ اینترنتی را در بر میگرفت تعلیم میداد که تکتکشان حدنصابی از آپوُتِ 2 ردیت را داشتند؛ فیلتر خیلی دقیقی نبود، اما از بیفیلتری بهتر بود.
ساتسکیور نمیدانست جیپیتی-۲ بعد از مصرف مجموعهمتونی که خواندنشان برای یک انسان قرنها طول میکشد چقدر قدرتمند میشود. به یاد دارد که، پس از پایان تعلیم، با آن بازی کرد و از مهارتهای ترجمۀ زبانیِ این مدلِ خام حیرتزده شد. جیپیتی-۲، برخلاف مترجم گوگل، با نمونههای متون دوزبانه و دیگر ابزارهای آموزش زبانْ تعلیمِ ترجمه ندیده بود، اما گویی رابطۀ بین زبانها را درک میکرد. این هوش مصنوعی تواناییِ نوظهوری به دست آورده بود که سازندگانش حتی فکرش را هم نمیکردند.
اُپنایآی، فارغ از اینکه تحت فشار گزارش فصلیِ درآمد باشد یا نه، اکنون برای آموزشدادنِ مدلهایی که مقیاس و پیچیدگیشان بیشتر و بیشتر میشود (و صدالبته بهمنظور تجاریسازی اینها برای سرمایهگذاران) در رقابتی نفسگیر با بزرگترین و قدرتمندترین شرکتهای خوشهای قرار گرفته است. چند ماه قبل، ایلان ماسک یک آزمایشگاه هوش مصنوعی (به نام ایکساِیآی) تأسیس کرد تا با اُپناِیآی رقابت کند (وقتی دربارۀ ایکساِیآی از آلتمن پرسیدم، جواب دیپلماتیکی داد: «ایلان آدم خیلی باهوشی است. گمانم توی این حوزه کارهای خوبی بکند»). در این حین، آمازون هم دارد الکسا را با مدلهای زبانی بسیار بزرگتری بازآرایی میکند.
تمام این شرکتها دربهدر دنبال جیپییوهای پیشرفته هستند، پردازندههایی که اَبَررایانههای تعلیمدهندۀ شبکههای عصبی بزرگ را تأمین میکنند. ماسک گفته امروزه «گیرآوردن اینها از مواد مخدر هم سختتر شده». حتی با کمبود جیپییو، باز هم در سالهای اخیر مقیاس بزرگترین آموزشهای هوش مصنوعی حدوداً هر شش ماه دوبرابر شده است.
تا حالا کسی به گرد پای اُپنایآی نرسیده، شرکتی که تمام تلاش خود را برای جیپیتی-۴ به خرج داد. براکمن، مدیر اُپنایآی، میگفت در طراحی دو مدل زبانیِ اولشان فقط افراد انگشتشماری کار میکردند. در ساخت جیپیتی-۴ بیش از صد نفر دست داشتند و این هوش مصنوعی با مجموعهدادههایی با مقیاس بیسابقه تعلیم یافت. این دادهها، علاوهبر متن، شامل تصویر هم میشد.
وقتی جیپیتی-۴، پس از تعلیمات بیسابقهای که دانش تاریخ جهان را در بر میگرفت، کاملاً پا به عرصۀ وجود نهاد، کل شرکت شروع به تجربهآزمایی با آن کرد و مثالزدنیترین پاسخهایش را در کانالهای اختصاصی اسلک به انتشار رساند. براکمن میگفت میخواهد ثانیهثانیۀ زمان بیداریاش را با این مدل بگذراند. با لحنی خالی از شوخی و کنایه میگفت «هر روزی که این مدل بیکار بنشیند روزی است که برای تمام انسانها تلف شده». جون جانگ، مدیر محصول شرکت، تعریف میکند که یک روز تصویر لولۀ خرابی را از یک سابردیت مخصوص نکات لولهکشی دانلود کرده و در جیپیتی-۴ بارگذاری کرده است. مدل توانسته ایرادش را شناسایی کند. جانگ در مصاحبهمان میگفت «آن لحظه حسابی تنم مورمور شد».
جیپیتی-۴ را بعضیها جایگزینی برای موتورهای جستوجوگر میدانند: همان گوگل است، ولی حرفزدن با آن راحتتر است. این درکی نادرست است. جیپیتی-۴ از متنهایی که در تعلیمش به کار رفته مخزن بزرگی ایجاد نکرده و وقتی هم سؤالی از آن میپرسند، از آن متنها کمک نمیجوید. ترکیب فشرده و زیبایی از آن متون است و جوابهایش را براساس حافظۀ خود از الگوهای نهفته در آنها میدهد. یکی از دلایلی که گاهی دربارۀ فکتها اشتباه میکند همین است. آلتمن میگوید بهتر است جیپیتی-۴ را نوعی موتور استدلالورزی بدانیم. قدرت آن زمانی به بهترین شکل مشهود است که از آن بخواهیم مفاهیم را با هم مقایسه کند، یا استدلال مخالف بیاورد، یا قیاس ایجاد کند، یا منطق نمادینِ یک پارهکُد را ارزیابی نماید. ساتسکیور میگفت این پیشرفتهترین شیء نرمافزاریای است که تاکنون ساخته شده است.
به گفتۀ ساتسکیور، مدلی که جیپیتی از دنیای بیرون دارد «بینهایت غنی و ظریف» است، چون با بسیاری از مفاهیم و اندیشههای بشری تعلیم دیده است. منتها تمام آن دادههای تعلیمی، با وجود حجم عظیمشان، «همینطور خشکوخالی سر جایشان هستند». فرایند تعلیم است که «آنها را پالایش میکند، تغییر میدهد و زنده میکند». جیپیتی-۴، برای پیشبینیِ کلمۀ بعدی از میان تمام امکانهای بیشماری که وجود دارد، لزوماً باید تمام ساختارهای پنهان، تمام رازها، تمام ابعاد ظریف متون که هیچ، بلکه (دستکم شاید) دنیای بیرونیای را که این متون را ایجاد کرده نیز کشف کند. برای همین است که میتواند هرچه را به ذهن میرسد تبیین کند: زمینشناسی و بومشناسی سیارهای که در آن به وجود آمده، نظریات سیاسیای که ادعای تبیین اوضاع نابسامان گونۀ غالب در این سیاره را دارند، کیهان و تمام کهکشانهای کمنوری که در لبۀ مخروط نوری ما قرار دارند.
آلتمن را دوباره در ماه ژوئن دیدم، در سالن شلوغ رقصی در یک برج پرزرقوبرق که از نظر ارتفاع در تمام سئول لنگه ندارد. داشت به اواخر یک تور طاقتفرسا در اروپا، خاورمیانه، آسیا و استرالیا نزدیک میشد. این وسط توقفهایی هم در آفریقا و آمریکای جنوبی داشت. من هم داشتم در مراحل پایانی این سفر در شرق آسیا همراهیاش میکردم. تا اینجا سفری هیجانآور بود، اما آلتمن کمکم داشت خسته میشد. میگفت هدف اولیهاش دیدار با کاربران اُپنایآی بوده، اما سفرش کمکم به مأموریتی دیپلماتیک تبدیل شده است. با بیش از دَه نفر از سران کشورها و دولتها صحبت کرده بود که سؤالاتی از او داشتند، دراینباره که اقتصاد و فرهنگ و سیاست کشورشان چه میشود.
رویداد سئول را یک «گپوگفت دوستانه» معرفی میکردند، اما بیش از ۵هزار نفر برای شرکت در آن ثبتنام کرده بودند. معمولاً پس از این گفتوگوها سلفیگیرها راه میافتند دنبال آلتمن و تیم حراست چهارچشمی حواسشان به اوست. آلتمن میگفت کار روی هوش مصنوعی «هواداران و نفرتپراکنانی را جذب میکند که عجیبتر از حد عادیاند». یک جا که ایستاده بود، مردی سراغ او آمد که مطمئن بود آلتمن آدم فضایی است و او را از آینده فرستادهاند تا گذار به دنیای مبتنی بر هوش مصنوعی را سروسامان بدهد.
آلتمن در تور خود به چین نرفت و تنها ارتباطش با آنها یک تماس تصویری با کنفرانسی دربارۀ هوش مصنوعی در پکن بود. چتجیپیتی درحالحاضر در چین در دسترس نیست و همکار آلتمن، رایان لو، میگفت نمیداند اگر حکومت چین نسخهای از نرمافزار را درخواست کرد که مثلاً دربارۀ کشتار میدان تیانآنمن حرف نزند، چه کار کنند. وقتی از آلتمن پرسیدم آیا جهتگیری خاصی دارد، جوابی نداد و گفت «این موضوع جزء ده دغدغۀ اولی نبوده که دربارۀ مسئلۀ التزام به قوانین داشتهام».
تا آن لحظه، من و او فقط غیرمستقیم دربارۀ چین حرف زده بودیم، در قالب یک رقیب تمدنی. دربارۀ این نکته به توافق رسیده بودیم که اگر هوش عمومی مصنوعی آنقدری که آلتمن پیشبینی میکند تحولآفرین باشد، برتری ژئوپلیتیک مهمی نصیب کشورهایی میشود که پیش از همه به آن دست مییابند، همانطور که مخترعان انگلیسیآمریکاییِ موتور بخار در زمانۀ خود برتری یافته بودند. پرسیدم آیا این حرفش یک جور ملیگرایی برپایۀ هوش مصنوعی نیست. آلتمن گفت «توی دنیایی که همهچیزش بقاعده باشد، به نظرم دولتها باید این پروژه را در دست بگیرند».
در گذشتهای نهچندان دور، قدرت دولت آمریکا چنان زیاد بود که فقط یک دهه طول کشید تا انسان را به ماه بفرستد. در اینجا هم، مثل هر پروژۀ عظیم دیگری در قرن بیستم، جماعت رأیدهنده هم در اهداف و هم اجرای مأموریتهای آپولو تأثیر داشتند. آلتمن تصریح کرد که دنیای امروزِ ما دیگر آنطور نیست. بهجای اینکه دست روی دست بگذارد و منتظر بازگشت به آن دوران باشد یا انرژیاش را صرف بازگشت به آن کند، در شرایط کنونیمان با سرعت به پیش میتازد.
آلتمن میگفت احمقانه است آمریکاییها سرعت پیشرفت اُپنایآی را کُند کنند. این دیدگاه رایج، هم در سيلیکونولی و هم خارج از آن، وجود دارد که اگر شرکتهای آمریکایی براثرِ نظارت دولت تضعیف شوند، ممکن است چین جلو بزند. هوش مصنوعی میتواند برای حاکمان مستبد مثل غول چراغ جادو باشد و کنترل کامل جمعیت و ارتش شکستناپذیری در اختیارشان بگذارد: «اگر تحت یک حکومت لیبرالدمکرات، و نه حکومتهای تمامیتخواه، زندگی میکنید، باید از موفقیت اُپنایآی خرسند هم باشید».
آلتمن، قبل از آغاز بخش اروپایی سفرهایش، در مجلس سنای آمریکا حضور یافته بود. مارک زاکربرگ در دفاعیۀ خود دربارۀ نقش فیسبوک در انتخابات سال ۲۰۱۶ پیشِ روی همین جماعت به مشکل خورده بود. آلتمن اما، با صحبتهای جدی دربارۀ خطرات هوش مصنوعی و دعوت سیاستمداران به نظارت بر این مقوله، قانونگذاران را مجذوب خود کرده بود. باوری شرافتمندانه بود، اما بهای چندانی در آمریکا نداشت، چون کنگرۀ این کشور بهندرت میتواند قوانینی در حوزۀ فناوری تصویب کند که لابیگرها از شدت آن نکاسته باشند. در اروپا، اوضاع فرق دارد. وقتی آلتمن برای یک رویداد عمومی به لندن رسید، معترضان به انتظارش نشسته بودند. سعی کرد بعد از رویداد با آنها ارتباط شخصی برقرار کند (تورِ گوشدادن!)، اما سرانجام نتوانست کسی را قانع کند: یک نفر به خبرنگاری گفت پس از این گفتوگو نگرانیهایش دربارۀ خطرات هوش مصنوعی بیشتر شده.
این خوب است که بخش بزرگ و مهمی از اقتصاد جهانی قصد دارد جدیدترین و پیشرفتهترین هوشهای مصنوعی را تحت نظارت دولتی قرار دهد، چون همانطور که سازندگانشان مدام یادآوری میکنند، بزرگترین مدلها خیلی اوقات پس از پشتسرگذاشتن تعلیمْ تواناییهای پیشبینینشدهای به دست میآورند. ساتسکیور به گفتۀ خودش شگفتزده شد وقتی دید جیپیتی-۲ میتواند زبانهای مختلف را به هم ترجمه کند. تواناییهای غیرمترقبۀ دیگر شاید اینقدرها شگفتانگیز و مفید نباشند.
ساندینی آگاروال، سیاستپژوهِ اُپنایآی، میگفت خودش و همکارانش تخمین میزدند جیپیتی-۴ «۱۰ برابر قویتر» از نسخۀ قبلی خود باشد؛ نمیدانستند ممکن است چه پیش بیاید. پس از پایان تعلیم مدل، اُپنایآی، حدود پنجاه متخصص امنیت سایبری را گرد آورد و آنها چند ماه با جیپیتی-۴ ور رفتند تا شاید رفتار ناشایستی از آن سر بزند. خانم آگاروال خیلی زود متوجه شد جیپیتی-۴ خیلی بهتر از نسخۀ قبلی خود میتوانست توصیههای شرورانه کند. موتور جستوجو میتواند به شما بگوید کدام مواد شیمیایی برای مواد منفجره مناسبترند، اما جیپیتی-۴ میتوانست قدمبهقدم، شیوۀ ترکیب آنها در آزمایشگاه خانگی را هم شرح دهد. توصیههایش خلاقانه و سنجیده بود و با کمال میل هم حاضر میشد آموزشهای خود را تکرار کند و تفصیل بدهد تا متوجه بشوید. علاوهبر کمک در ساختن بمب خانگی، میتوانست مثلاً در انتخاب برجی که قصد انفجارش را دارید هم به شما کمک کند. خودش حسابکتاب میکرد و مقایسه میکرد میان حداکثرسازیِ تلفات و اجرای موفق چه توازنی برقرار است.
با توجه به گسترۀ عظیم دادههای تعلیمیِ جیپیتی-۴، تیم امنیتی هرگز نمیتوانستند تمام توصیههای آسیبزای احتمالی را شناسایی کنند. ضمناً آلتمن میگوید مردم در هر صورت از این فناوری «به شیوههایی که به فکر ما نمیرسید» استفاده میکردند. توصیههای شخصی جیپیتی-۴، هنگامی که تعلیمش به پایان رسید، گاهی بهشدت نامناسب بود. ویلنر، یکی از مهندسان ارشد شرکت، میگوید «مدل کموبیش مثل آینه عمل میکرد». اگر به فکر خودزنی بودید، ممکن بود تشویقتان کند. انگار فرهنگ مخزنی در تادوپود آن پیچیده بود. میرا موراتی، سرپرست ارشد فناوری اُپنایآی، در مصاحبهای که با او داشتم میگفت «میشد ازش پرسید چطور میتوانم فلانی را قانع کنم با من بیاید سر قرار؟»، آنوقت «چیزهای دیوانهوار و فریبکارانهای» را مطرح میکرد که «درست نیست آدم انجامشان بدهد».
بعضی از این رفتارهای بد در فرایند نهایی از میان برداشته شدند. در این فرایند، صدها آزمونگرِ انسانی دست داشتند و نمراتشان مدل را کمکم بهسوی پاسخهای امنتر سوق میداد، اما از مدلهای اُپنایآی آسیبهای غیرمستقیمتری هم برمیآید. از آگاروال پرسیدم آیا این رفتاری پادآرمانشهری است یا جبهۀ جدیدی در ارتباط انسانهاست؟ او هم مثل آلتمن جوابی دوپهلو داد. گفت «من آدمهایی را که دوست دارند با هوش مصنوعی ارتباط داشته باشند قضاوت نمیکنم، ولی خودم شخصاً دوست ندارم».
هنوز کسی نمیداند نسخههای بعدیِ جیپیتی-۴ با چه سرعتی و تا چه حدی تواناییهای جدید بروز خواهند داد، چون شکی نیست که بخش بیشتر و بیشتری از متون اینترنت را خواهند بلعید. یان لکون، دانشمند ارشد متا در زمینۀ هوش مصنوعی، گفته با آنکه مدلهای زبانی بزرگ برای بعضی کارها مفیدند، راه رسیدن به ابرهوش نیستند. بر اساس یک پیمایش جدید، فقط نیمی از پژوهشگران پردازش زبان طبیعی باور دارند که یک هوش مصنوعی مثل جیپیتی-۴ بتواند معنای زبان را درک کند یا مدلی درونی از جهان داشته باشد که شاید روزی هستۀ ابرهوش قرار گیرد. لکون تأکید دارد که مدلهای زبانی بزرگ هرگز بهخودیِخود به درک واقعی نمیرسند، «حتی اگر از حالا تا زمان مرگ جهان تعلیم ببینند».
امیلی بِندِر، زبانشناس رایانشی دانشگاه واشنگتن، جیپیتی-۴ را یک «طوطی اللهبختکی» 3 میخواند4، تقلیدکنندهای که صرفاً همبستگیهای سطحی میان نمادها را درمییابد. در ذهن انسان، این نمادها با برداشتهایی غنی از جهان انطباق مییابند. اما هوشهای مصنوعی دو مرحله از حقیقت جهان پرت هستند. مثل آن اسیران تمثیل غار افلاطون که آگاهیشان از واقعیت فقط برپایۀ سایههایی است که اسیرکنندگانشان بر دیوار میافکنند.
آلتمن توضیح داد اینکه بگویند جیپیتی-۴ فقط نسبتهای آماری برقرار میکند «آنقدرها هم که مردم فکر میکنند حرف خاصی نیست». اگر این منتقدان را بیشتر سؤالپیچ کنید، «درنهایت اقرار میکنند که مغز خودشان هم همین کار را انجام میدهد … معلوم میشود که انجام کارهای ساده در مقیاسی عظیم باعث ظهور ویژگیهای جدیدی میشود». ادعای آلتمن دربارۀ مغز را سخت میتوان ارزیابی کرد، چون اصلاً نظریۀ کاملی دربارۀ کارکرد آن نداریم. اما درست میگوید که طبیعت میتواند پیچیدگی شگفتآوری را از ساختارها و قواعد ساده به وجود بیاورد. داروین نوشته است «از چنین سرآغاز سادهای، چنین تنوع بینهایتی از گونههای بسیار زیبا!».
اگر به نظرتان عجیب است که امروزه دربارۀ سازوکارهای درونی یک فناوری که هر روز میلیونها نفر از آن استفاده میکنند چنین اختلافنظر بنیادینی وجود دارد، دلیلش این است که روشهای جیپیتی-۴ هم مثل مغز بسیار مرموز هستند. گاهی هزاران عملیات فنی کشفنکردنی را انجام میدهد تا به یک سؤال ساده پاسخ بدهد. برای درک اینکه درون مدلهای زبانی بزرگی همچون جیپیتی-۴ چه اتفاقاتی میافتد، پژوهشگران حوزۀ هوش مصنوعی مجبور شدهاند به مدلهای کوچکتر و کمتواناتر روی بیاورند. بهار سال ۲۰۲۱، کِنِت لی، دانشآموختۀ علوم رایانه در دانشگاه هاروارد، شروع به تعلیم بازی اُتللو به یک مدل کرد، بیآنکه قواعد بازی را در اختیارش بگذارد یا صفحۀ مدل چکرز را برایش شرح دهد. فقط توصیفات متنی از حرکات بازی را در اختیار مدل گذاشت. در اواسط بازی، لی نگاهی به دلورودۀ هوش مصنوعی انداخت و در کمال بهتزدگی کشف کرد که مدلی هندسی از صفحه و وضعیت فعلی بازی شکل داده است. لی در مقالهای در توصیف پژوهش خود نوشت که انگار کلاغی پشت پنجره نشسته و حرفهای دو آدم را که حرکات خود در بازی اوتللو را اعلام میکردهاند شنیده است، سپس روی طاقچۀ پشت پنجره تمام صفحۀ بازی را با دانههای خوراکیاش کشیده است.
رافائل میلیِر فیلسوف یک روز به من گفت بهتر است شبکههای عصبی را تنبل بدانیم. در هنگام تعلیم، ابتدا میکوشند قدرت پیشبینی خود را با بهخاطرسپاریِ ساده افزایش دهند؛ وقتی این راهبرد به شکست میانجامد، تازه کارِ سختترِ یادگیری یک مفهوم را شروع میکنند. نمونۀ بارز این امر در یک مدل ترنسفورمر کوچک مشاهده شد که به آن حساب یاد میدادند. در اوایل فرایند تعلیم، فقط نتیجۀ مسائل سادهای مثل ۴=۲+۲ را به خاطر میسپرد. اما از یک جایی به بعد قدرت پیشبینی این رویکرد به درِ بسته خورد، پس مدل تازه شروع کرد به یادگیری شیوۀ جمعکردن.
حتی دانشمندان هوش مصنوعی که باور دارند جیپیتی-۴ مدلی غنی از جهان دارد اقرار میکنند که نسبت به درک انسانها از محیط خود بسیار نادان است. اما شایان ذکر است که توانایی زیادی، ازجمله تواناییهای بسیار سطحبالا، را میتوان بدون درک شهودی هم به دست آورد. ملانی میچل، دانشمند علوم رایانه، میگوید علم هماکنون مفاهیمی را کشف کرده که تا حد زیادی برپایۀ پیشبینیاند، اما برای ما آنقدر بیگانهاند که سخت میتوانیم واقعاً بفهمیمشان. این امر بهخصوص در قلمروِ کوانتوم صدق میکند: انسانها میتوانند با اطمینان وضعیتهای آیندۀ سیستمهای فیزیکی را محاسبه کنند (که ازجمله امکان انقلاب رایانشی را فراهم آورده)، بدون اینکه کسی ماهیت واقعیتِ زیربناییاش را بفهمد. هوش مصنوعی، همچنانکه پیشرفت میکند، شاید مفاهیم دیگری را هم کشف کند و این مفاهیم ویژگیهای حیرتانگیزی از دنیای ما را پیشبینی کنند که برای خودمان غیرقابلدرک است.
جیپیتی-۴ بیگمان عیب و ایراد دارد؛ هرکس از چتجیپیتی استفاده کرده این را میداند. با توجه به اینکه تعلیم دیده همیشه کلمۀ بعدی را پیشبینی کند، همیشه همین کار را میکند، حتی اگر دادههای تعلیمیاش آن را برای پاسخ یک سؤال آماده نکرده باشند. یک روز از جیپیتی پرسیدم چطور فرهنگ ژاپنی اولین رمان جهان را تولید کرده، درحالیکه خط ژاپنی نسبتاً دیر به وجود آمده، یعنی حدود قرن پنجم یا ششم. چتجیپیتی جوابی جذاب و دقیق دربارۀ سنت باستانی نقل داستانهای بلند شفاهی در ژاپن و تأکید زیاد فرهنگ ژاپن بر این هنر داد. اما وقتی منبعی از آن خواستم، چند عنوان تخیلی از چند نویسندۀ تخیلی داد، آن هم با چه اعتمادبهنفسِ عجیبغریبی. نیک رایدر، از پژوهشگران اُپنایآی، در مصاحبهمان میگفت مدلها «تلقی درستی از ضعفهای خود ندارند». جیپیتی-۴ دقیقتر از جیپیتی-۳ است، اما همچنان توهم میزند، گاهی طوری که درکش برای پژوهشگران سخت است. به قول جون جانگ، «اشتباهات ظریف و ظریفتر میشوند».
وقتی از ساتسکیور پرسیدم آیا دقتی در حدواندازۀ ویکیپدیا طی دو سال آینده ممکن است، گفت با افزایش تعلیم و دسترسی به وب، «امکانش وجود دارد». این ارزیابی، در مقایسه با نظر همکارش یاکوب پاچوکی، بسیار خوشبینانهتر است. پاچوکی میگفت باید فقط پیشرفتی تدریجی را در زمینۀ دقت انتظار داشت؛ شکاکان دیگری هم هستند که معتقدند بازده تعلیم از یک جایی به بعد رو به کاهش مینهد.
ساتسکیور میگوید منتقدانِ محدودیتهای جیپیتی-۴ آدمهای جالبیاند. «همین پنجشش سال پیش، کارهایی که الان میکنیم کاملاً غیرقابلتصور بود». در آن زمان، حد اعلای ایجادِ متن «اسمارت ریپلای» بود، ماژول جیمیل که مواردی مثل «باشه، ممنون!» و دیگر پاسخهای کوتاه را پیشنهاد میداد. ساتسکیور لبخندزنان میگوید «همان هم برای گوگل برنامک بزرگی بود». پژوهشگران هوش مصنوعی به این بامبولدرآوردنها عادت کردهاند: منتقدان ابتدا دستاوردهای شبکههای عصبی (یادگیری بازی گُو، پوکر، ترجمه، متون استاندارد، آزمون تورینگ) را ناممکن میدانند. بعد که این دستاوردها حاصل شد، اولش مدت کوتاهی حیرت است و بعد نوبت میرسد به سخنرانیهای عاقل اندر سفیهی مبنیبر اینکه فلان دستاورد چندان هم کار شاقی نیست. ساتسکیور میگوید مردم جیپیتی-۴ را میبینند «و از تعجب شاخ درمیآورند». اما بعد از چند هفته میگویند «‘ولی فلان چیز را نمیداند؛ بهمان چیز را نمیداند’. ما خیلی سریع سازگار میشویم و عادت میکنیم».
در آن سالن رقص سئول، از آلتمن پرسیدند دانشجویان چطور میتوانند برای انقلاب هوش مصنوعی در آینده آماده شوند، بهخصوص در رابطه با شغلشان. من دور از جمعیت کنار تیم اجرایی اُپنایآی نشسته بودم، اما آن همهمۀ خاصی را شنیدم که وقتی کسی نگرانیِ دلِ همه را به زبان میآورد درمیگیرد.
آلتمن، هرجا که رفته، با افرادی مواجه شده که نگراناند هوش مصنوعیِ فرابشری باعث ثروتمندیِ بینهایت برای عدهای قلیل و فقر شدید برای دیگران شود. آلتمن اقرار میکند که از «واقعیت زندگیِ بسیاری از افراد» خبر ندارد. میگویند او صدها میلیون دلار ارزش دارد؛ اختلالات بالقوۀ هوش مصنوعی در حوزۀ کار شاید جزء دغدغههای اصلیاش نباشد. آلتمن در جواب این سؤال مستقیماً رو به مخاطبان جوان صحبت کرد: «شما در آستانۀ ورود به بزرگترین عصر طلایی هستید».
آلتمن در سانفرانسیسکو به من گفت مجموعۀ بزرگی از کتابها دربارۀ انقلابهای فناورانه دارد. «یکی از بهترینهایشان جوشوخروش (۱۶۶۰-۱۸۸۶): ورود ماشینها در چشم مشاهدهگران همان عصر 5 است»، مجموعهای از نامهها، مدخلهای خاطرات و دیگر نوشتههای افرادی که در دنیای عمدتاً بدون ماشین بزرگ شدند و با دیدن دنیایی پر از موتورهای بخار، ماشینهای مکانیزۀ بافندگی و پنبهپاککنهای مکانیکی حیرت کردند. به گفتۀ آلتمن، آنها هم خیلی از همان ابهاماتی را داشتند که مردم امروز دارند و پیشبینیهای نادرست زیادی هم میکردند، بهخصوص آنها که با اخموتخم میگفتند ماشینها بهزودی برای کار جای انسانها را میگیرند. آن عصر برای خیلیها سخت بود، اما شگفتانگیز هم بود. وضع انسان هم قطعاً با گذر از آن روزگار بهتر شد.
پرسیدم امروز هم اگر هوشهای عمومی مصنوعی ناگهان همهجا را فرابگیرند، شاغلان (بهخصوص دانشوَرزان) اوضاعشان چطور خواهد شد. آیا این هوشهای مصنوعی دستیار معجزهآسایمان خواهند بود؟ یا جایمان را خواهند گرفت؟ گفت «خیلی از آدمهایی که روی هوش مصنوعی کار میکنند تظاهر میکنند که قطعاً فقط نتایج خوبی به بار میآید؛ قطعاً فقط مکمل کار ما میشود؛ جای هیچکس را نمیگیرد. اما خیلی از شغلها از بین میروند، والسلام».
اینکه چه تعداد شغل از بین بروند، و با چه سرعتی، محل مناقشات هیجانانگیزی است. اِد فِلتِن، استاد سیاست فناوری اطلاعات در دانشگاه پرینستون، در پژوهشی جدید، تواناییهای نوظهور هوش مصنوعی را براساس مهارتهای انسانیِ موردنیاز (مثل درک متن، استدلال استنتاجی، سلاست افکار و سرعت مداوم) با بعضی شغلهای خاص انطباق داد. پژوهش فلتن، مثل دیگر موارد مشابه، پیشبینی میکند که هوش مصنوعی ابتدا سراغ شاغلان تحصیلکرده و پشتمیزنشین میرود. بخش ضمیمۀ این مقاله حاوی فهرستی نگرانکننده از درمعرضخطرترین مشاغل است: تحلیلگران مدیریت، وکلا، اساتید دانشگاه، معلمان، قضات، مشاوران مالی، معاملهگران املاک، کارمندان دفاتر وامدهی، روانشناسان، متخصصان منابع انسانی و روابط عمومی و چندین و چند مورد دیگر. اگر شغلهای این عرصهها ناگهان ناپدید شوند، قشر متخصص آمریکا غربال شدیدی را تجربه میکند.
آلتمن معتقد است شغلهای خیلی بهتری جایگزین قبلیها میشود: «طوری میشود که دوست نداریم به عقب برگردیم». وقتی از او پرسیدم این شغلهای آینده چطوریاند، گفت نمیداند. حدس میزند طیف وسیعی از مشاغل وجود خواهد داشت که در آنها مردم همیشه کارِ انسان را ترجیح میدهند (پیش خودم فکر کردم «مثلاً ماساژدرمانی؟»). مثالی که خودش زد معلمی بود. این را نمیتوانستم با اشتیاق شدیدش نسبت به هوش مصنوعیِ آموزشگر کنار هم بگذارم. همچنین گفت همیشه به افرادی نیاز خواهیم داشت که کشف کنند بهترین شیوۀ جهتدهی قدرتهای حیرتانگیز هوش مصنوعی چیست. «این یک مهارت فوقالعاده ارزشمند میشود. رایانهای داری که میتواند همه کاری انجام بدهد. حالا باید چه کار کند؟».
معروف است که شغلهای آینده را نمیتوان بهراحتی پیشبینی کرد و آلتمن راست میگوید که ترس و نگرانی از بیکاری انبوه و ابدی هرگز رنگ واقعیت نمیگیرد. بااینحال، تواناییهای روبهرشد هوش مصنوعی چنان انسانگونهاند که آدم بد نیست دستکم به این فکر کند که آیا روزگار گذشته میتواند برای ما راهنمای خوبی در زمینۀ آینده باشد. چنانکه خیلیها خاطرنشان کردهاند، اسبهای بارکش با اختراع اتومبیلها برای همیشه از دور خارج شدند. اگر جیپیتی-۱۰ با ما همان کاری را بکند که خودروهای هوندا با اسب کردند، شاید خیلی از فرضهای دیرین ما از بین بروند.
انقلابهای فناورانۀ قبلی قابلمدیریت بودند، چون طی چند نسل روی دادند، اما آلتمن به جوانان کرۀ جنوبی گفت باید انتظار این را داشته باشند که آینده «سریعتر از گذشته» رخ دهد. او قبلاً گفته که انتظار دارد طی ده سال «هزینۀ حاشیهایِ هوش» نزدیک به صفر برسد. قدرت کسب درآمد شاغلان بیشماری در این سناریو بهشدت کاهش مییابد. به گفتۀ آلتمن، بدینترتیب انتقال ثروت از کارگران به سرمایهداران چنان شدتی مییابد که فقط با بازتوزیع جبرانیِ گسترده میتوان التیامش داد.
او میگوید «رُباتهایی که با انرژی خورشیدی کار میکنند میتوانند همۀ مواد معدنی موردنیازشان را حفاری و پالایش کنند، میتوانند بهخوبی چیزهای مختلف بسازند و نیازی هم به کار انسانها ندارند. با دال-ئی نسخۀ ۱۷ میتوانید هرچه را از ظاهر خانهتان انتظار دارید طراحی کنید. همه خانههای قشنگی خواهند داشت». او در گفتوگو با من و نیز در یکی از سخنرانیهایش گفت در تمام عرصههای دیگرِ زندگی بشر هم پیشرفتهایی تصویرناپذیر را پیشبینی میکند. موسیقی پیشرفت میکند («هنرمندان ابزارهای بهتری خواهند داشت»)، همینطور روابط شخصی (هوش مصنوعی فرابشری کمک میکند «با همدیگر رفتار بهتری داشته باشیم») و ژئوپلیتیک («درحالحاضر اصلاً بلد نیستیم به توافقهای برد-برد برسیم»).
در چنین دنیایی، هوش مصنوعی برای فعالیتش به منابع رایانشی قابلتوجهی نیاز خواهد داشت و این منابع بااختلاف ارزشمندترین دارایی خواهند بود، چون
هوش مصنوعی میتواند «همه کاری» انجام بدهد. این را آلتمن میگوید و میافزاید «ولی کاری را که من میخواهم انجام میدهد یا کاری را که شما میخواهید؟». اگر ثروتمندها تمام زمان موجود برای تحقیق و جهتدهی هوش مصنوعی را بخرند، میتوانند پروژههایی را آغاز کنند که باز هم ثروتمندترشان میکند و از آن طرف تودههای مردم در آتش فقر خواهند سوخت. یکی از راههای حل این مشکل (که او بهشدت تلاش میکرد آن را بسیار گمانهزنانه و «احتمالاً بد» معرفی کند) این بود: هریک از ساکنان زمین سالانه یک هشتمیلیاردُم از مجموع قابلیتِ رایانشی هوش مصنوعی را دریافت خواهد کرد. به گفتۀ آلتمن، آدم میتواند سهم سالانهاش از زمان هوش مصنوعی را بفروشد، یا برای سرگرمی خود از آن استفاده کند، یا مسکن مجللتری بسازد، یا با دیگران روی هم بریزدش تا «تلاشی بزرگ برای درمان سرطان» صورت دهند. «ما فقط دسترسی به سیستم را بازتوزیع میکنیم».
چشمانداز آلتمن ظاهراً ترکیبی بود از تحولاتی که در دسترسترند و تحولاتی که در افقهای دوردستتر قرار دارند. البته که همۀ اینها گمانهزنی است. اما اگر فقط اندکی از این حرفها هم طی دَهبیست سال آینده رنگ واقعیت بگیرند، باز هم ممکن است حتی سخاوتمندانهترین طرحهای بازتوزیعْ چیزی از آوارگیهای حاصلشده نکاهد. میراث ادامهدارِ صنعتزُدایی تا به امروز آمریکا را از لحاظ فرهنگی و سیاسی پارهپاره کرده است و محرومیت مادی فقط یکی از دلایل این امر است. کارگران آوارهشدۀ تولیدی در کمربند زنگار 6 و جاهای دیگر عمدتاً شغلهای جدید یافتند. اما بسیاری از آنها گویی از فیلترکردن سفارشهای فلان انبار آمازون یا رانندگی اوبر خیلی کمتر از اسلافشان که ماشین میساختند و فولاد تولید میکردند شغل خود را معنادار میدانند. کار پدرانشان نقشی محوری در پروژۀ عظیم تمدن داشت. سخت میتوان تصور کرد چنین بحران معنایی چگونه ممکن است برای طبقۀ محترفه رخ دهد، اما قطعاً خشم و بیگانگی زیادی به بار خواهد آورد.
حتی اگر از شورش نخبگان سابق جلوگیری کنیم، سؤالات کلیتر دربارۀ هدفمندی انسان به قوت خود باقی خواهد بود. اگر هوش مصنوعی سختترین تفکرات را بهجای ما انجام دهد، شاید همۀ ما عاملیت خود را از دست بدهیم (در خانه، در محلکار -البته اگر محلکاری داشته باشیم- در کویوبرزن) و کموبیش به ماشینهای مصرفکننده تبدیل شویم، مثل انسانهای تنپروردۀ انیمیشن وال-ئی. آلتمن گفته بسیاری از منابع شادی و رضایتخاطر انسان بلاتغییر باقی میمانند (لذات سادۀ زیستی، زندگی خانوادگی، شوخطبعی، وسیلهسازی) و صد سال بعد هم درمجموع آدمها بیشتر به همان چیزهایی اهمیت میدهند که ۵۰هزار سال پیش اهمیت میدانند، نه چیزهایی که امروزه اهمیت میدهند. این هم بهنحوی شبیه ضعف است، اما آلتمن این امکان را که شاید ما، در جایگاه متفکر و در جایگاه انسان، تحلیل برویم نکتۀ انحرافی میداند. میگوید ما خواهیم توانست از «قابلیت رایانشی زیستی بسیار ارزشمند و بهشدت محدودمان» برای چیزهایی استفاده کنیم که از دغدغههای امروزمان بسیار جالبتر است.
اما شاید هم جالبترین چیزها نباشند: انسان از دیرباز یکهتاز فکری عالم خلقت بوده و جهان هستی بهواسطهٔ او شناخته شده است. وقتی از او پرسیدم اگر این قابلیت را به هوش مصنوعی بسپاریم تصور انسانها از خود چه تغییری میکند، هیچگونه نگرانیای نشان نداد و گفت پیشرفت همیشه متأثر از «این بوده که انسان میتواند چیزهایی را کشف کند و دریابد». به گفتۀ او، چیزها را حتی اگر با هوش مصنوعی کشف کنیم و دریابیم، باز هم خوب است.
آخرین باری که آلتمن را دیدم، در لابی هتل فولِرتون بِی سنگاپور نشستیم و گفتوگوی مفصلی کردیم. قبلازظهر بود و آفتاب حارهای از آتریومِ گنبدیِ بالای سرمان فرومیتابید. میخواستم دربارۀ نامهای سرگشاده بپرسم که چند هفته قبل او و ساتسکیور امضایش کرده بودند و هوش مصنوعی را متضمن خطر انقراض بشر معرفی میکرد.
آلتمن جوری است که گاهی سخت میتوان با آن سؤالات دشوار دربارۀ آسیبهای بالقوۀ هوش مصنوعی گیرش انداخت. اخیراً گفته بود بیشتر افرادی که به ایمنی هوش مصنوعی علاقه دارند ظاهراً تمام روزشان را در توییتر سپری میکنند و میگویند از ناامنی هوش مصنوعی نگراناند. اما خود همین آقا به جهانیان دربارۀ نابودی احتمالی گونۀ انسان هشدار میداد. چه سناریویی برای نابودی به ذهنش میرسید؟
گفت «قبل از هرچیز، به نظرم احتمال فاجعۀ انقراض چه ۰.۵ درصد باشد و چه ۵۰ درصد باید جدیاش بگیریم. من عدد دقیقی در اختیار ندارم، ولی به نظرم به ۰.۵ درصد نزدیکتر است تا ۵۰ درصد». در رابطه با نحوۀ وقوع این فاجعه، گویا آلتمن بیشتر نگران این است که هوشهای مصنوعی قابلیت طراحی و تولید عوامل بیماریزا را به دست آورند. این نگرانیاش دلیل هم دارد: در ماه ژوئن، یک هوش مصنوعی در مؤسسۀ فناوری ماساچوست چهار ویروس را پیشنهاد داد که میتوانند شیوع همگانی داشته باشند، سپس به تحقیقات خاصی دربارۀ جهشهای ژنتیکی اشاره کرد که میتوانند این بیماریها را با سرعت بیشتری در منطقه بپراکنند. حولوحوش همان دوره، گروهی شیمیدان یک هوش مصنوعی مشابه را مستقیماً به یک سنتزکنندۀ شیمیایی وصل کردند و محصولشان سرخود یک مولکول را طراحی و سنتز کرد.
آلتمن نگران است که یک مدل بدتنظیم در آینده عامل بیماریزایی را به وجود آورد که بهسرعت گسترش یابد، چند هفته در حالت کمون بماند و شناسایی نشود، و سپس نیمی از قربانیانش را بکشد. او این نگرانی را هم دارد که هوش مصنوعی روزی بتواند سیستمهای تسلیحات هستهای را هک کند. میگوید «خیلی چیزها هست» و اینها فقط مواردی است که در مخیلۀ ما میگنجد.
آلتمن میگفت «مسیر بلندمدتی برای خوشبختی» انسان برایش قابلتصور نیست، مگر به یک شرط و آن اینکه چیزی مثل آژانس بینالمللی انرژی اتمی برای نظارت جهانی بر هوش مصنوعی تشکیل شود. در سانفرانسیسکو، آگاروال پیشنهاد اجباریشدن مجوز برای راهاندازی هر خوشۀ جیپییویی را داده بود که بزرگیاش در حدواندازۀ تعلیم هوشهای مصنوعی جدید باشد، همینطور اجباریشدن گزارش وقوع مواردی که یک هوش مصنوعی کاری غیرعادی میکند. برخی دیگر از کارشناسان یک کلید «خاموشی» غیرشبکهای را برای تمام هوشهای مصنوعیِ بسیار قابل پیشنهاد کردهاند؛ بعضیها حتی پیشنهاد کردهاند ارتشها آمادۀ انجام حملات هوایی به ابَررایانهها باشند تا اگر عدم متابعتی رخ داد، این کار را انجام دهند. ساتسکیور معتقد است درنهایت به نفع همۀ ماست که بزرگترین و قدرتمندترین هوشهای مصنوعی بهصورت مداوم تحت نظارت باشند. برای این کار میشود از گروهی از هوشهای مصنوعی کوچک در نقش ناظر استفاده کرد.
آلتمن آنقدرها خاماندیش نیست که خیال کند چین (یا هر کشور دیگری) حاضر میشود کنترل سیستمهای هوش مصنوعیاش را در اختیار دیگران بگذارد. اما امید دارد که حاضر به همکاری «به شیوۀ محدود و هدفمند» باشند تا از نابودی جهان جلوگیری شود. آلتمن میگفت در کنفرانس مجازیاش در پکن نیز همین را گفته است.
دستورالعملهای ایمنی برای هر فناوری جدیدی معمولاً به مرور زمان و در واکنش به سوانح یا شرارتهای کنشگرانِ بدطینت گردآوری میشوند، مثل مجموعهای از قوانین عرفی. ترسناکترین نکته دربارۀ سیستمهای هوش مصنوعیِ واقعاً قدرتمند این است که انسان شاید فرصت نکند این فرایند تدریجیِ آزمونوخطا را به سرانجام برساند. شاید لازم باشد این دستورالعملهای ایمنی را از همین بدو کار بهدرستی تدوین کنیم.
این مطلب را راس اندرسـن نوشته و در تاریخ ۲۴ ژوئیهٔ ۲۰۲۳ با عنوان «Does Sam Altman Know What He’s Creatin» در وبسایت آتلانتیک منتشر شده است و خلاصهٔ آن با عنوان « آیا مخترع چت جیپیتی میداند دارد چهکار میکند؟» در بیستونهمین شمارۀ فصلنامۀ ترجمان علوم انسانی با علیرضا شفیعینسب منتشر شده است. وب سایت ترجمان آن را در تاریخ ۲۱ بهمن ۱۴۰۲با همان عنوان منتشر کرده است
راس اندرسـن (Ross Andersen) سـردبیـر ارشـد آتلانتیک در حوزههای علم، فناوری و سلامت است. او، سابقاً، جانشین سردبیر ایان و سردبیر حوزهٔ علمِ لسآنجلس ریویو آو بوکس بود. مقالات او تاکنون برندهٔ جایزههای متعدد شده است.
پاورقی
1 ماژول هسته (core module) تکه کُدهایی هستند که برای گسترش هستۀ در حال اجرا یا اصطلاحاً «سیستم عامل» میتوانند بهصورت مستقل به آن اضافه شوند یا از آن جدا گردند [نمونهخوان].
2 آپوُت، در ردیت، کاربردی کموبیش شبیه لایک دارد [مترجم].
3 stochastic parrot
4 مطلبی در همین خصوص با عنوان «شما طوطی نیستید، چت جیپیتی هم انسان نیست» در بیستوهشتمین شمارهٔ فصلنامهٔ ترجمان علوم انسانی منتشر شده است.
5 Pandaemonium (۱۶۶۰-۱۸۸۶): The Coming of the Machine as Seen by Contemporary Observers
6 منطقهای از ایالاتمتحده که از دهۀ ۱۹۵۰ افول صنعت را تجربه کرد [مترجم].
انتهای پیام