هوش مصنوعی بیش از حد اسرارمان را میداند
سایت سایبرپژوه مطلبی از لیلا شروف را با ترجمهی محمدحسین قدمی منتشر کرده است که متن کامل آن را در ادامه میخوانید.
گروهی از متفکران علوم اجتماعی معاصر -به ویژه متفکران چپ- امروزه از پایان عصر سرمایهداری صنعتی و پساصنعتی صحبت میکنند. در نگاه آنها، جهان با تولد و گسترش اینترنت و تحول دیجیتال رخ داده، به سوی «سرمایهداری کلانداده» حرکت میکند. در این شکل جدید از نظام سرمایهداری، سرمایه حول اطلاعات و دادهها شکل میگیرد و انباشته میشود. به بیان مانیفست مارکس «تاریخ تمام جوامع تا کنون موجود، تاریخ مبارزات طبقاتی بوده است. آزاده و برده، پاتریسین و پلیبن، ارباب و سرف …» و به تعبیر دنیای کنونی ما، آن که اطلاعات دارد و آن که اطلاعاتش استثمار میشود!
لیلا شروف در این متن توضیح میدهد که چگونه هوش مصنوعی از فرایند انباشت اطلاعات و دادهها مستثی نیست بلکه به شکلی بسیار گستردهتر اسرار ما را میرباید، میخورد و قویتر میشود.
بهار گذشته، مردی در ایالت واشنگتن نگران این بود که ازدواجش در آستانه فروپاشی است. او برای چتجیپیتی نوشت: «من افسردهام و تقریباً دارم دیوانه میشوم. همسرم را همچنان دوست دارم و میخواهم برش گردانم.» او میخواست با راهنمایی چتجیپیتی نامهای در اعتراض به تصمیم همسرش برای درخواست طلاق بنویسد و آن را بر در اتاق خوابشان بچسباند.
او برای چتجیپیتی نوشت: «بر کاملاً مقصر بودنم، شرمنده بودنم، پشیمان بودنم و افسوسم برای این که به خوبی از همسرم مراقبت نکردم و شوهر، پدر و نانآور بهتری نشدم تاکید کن.» در پیامی دیگر او از چتجیپیتی خواست تا برای همسرش شعری بسراید «که چنان چشمگیر باشد که بتواند کاری کند تا همسرش نظرش را عوض کند. اما این شعر جلف یا خیلی اغراقآمیز نباشد.»
چت این مرد با چتجیپیتی در مجموعه دادههای WildChat گنجانده شده است. WildChat مجموعهای است شامل یک میلیون از گفتگوهای صورت گرفته با چتجیپیتی که با رضایت افراد توسط پژوهشگران گردآوری شدهاند تا چگونگی تعامل انسانها با چتباتهای هوش مصنوعی معروف ثبت و ضبط شود. برخی از این گفتگوها با چتجیپیتی پر اند از درخواستهایی برای نوشتن متون تبلیغاتی و کمک به انجام تکالیف.
برخی دیگر از این گفتگوها این احساس را به شما میدهند که انگار دارید به اتاق نشیمن غریبههایی که از نگاه کردن شما بیاطلاعند، زل میزنید. در اینجا شخصیترین اطلاعات زندگی انسانها به طور کامل به نمایش گذاشته شدهاند: مشاور مدرسهای جزئیات ضعفهای تعدادی از دانش آموزان خاص در زمینه یادگیری را فاش کرده است، نوجوانی برای اتهامات قانونیای که احتمالاً به او بار خواهد شد نگران است و دختری از صدای خنده خودش ناراحت است.
مردم اطلاعات شخصی خود را همواره به صورت آنلاین به اشتراک میگذارند. چه اگر در گوگل سرچ کنند: «بهترین زوج درمانگرها» و چه از آمازون «ابزار تست بارداری» سفارش دهند. اما چتباتهای هوش مصنوعی به شکل منحصر به فردی توانایی خوبی در دریافت جزئیات شخصی از ما دارند.
پیتر هاندرسون -دانشمند علوم کامپیوتر- که در دانشگاه پرینستون فعالیت میکند در ایمیلی به من گفت: «استفادههای رایجی که از این چتباتها میشود– همچون درخواست برای مشاوره شخصی و نوشتن رزومه- میتوانند بیش از هر وبسایت دیگری که یک کاربر در آنها اطلاعات خود را ثبت میکرد، اطلاعات وی را آشکار کند. رازهای شما ممکن است برای شرکتهای هوش مصنوعی نقش معادن طلا را بازی کند.
آیا میخواهید کسی تمام سرچهای گوگل شما در این ماه را بداند؟ احتمالاً خیر. اما در حالی که بیشتر سرچهای گوگل تنها متشکل از چند کلمه هستند، گفتگو با این چتباتها میتواند گاهی ساعتها به طول بینجامد در حالی که هر پیامی به آنها مملو از اطلاعات شخصی ماست.
و در استفادهی از یک موتور جستجوی سنتی، سرچی که بسیار جزئی و شخصی باشد به نتایج زیادی منجر نخواهد شد. بالعکس، هر چقدر یک کاربر اطلاعات بیشتری به چتباتهای هوش مصنوعی بدهد، پاسخهای بهتری دریافت خواهد کرد. در نتیجه، کاربران علاوه بر اطلاعات متنی، اسناد حساسی همچون گزارشهای پزشکی و اسکرینشاتهایی از چتشان با نامزد سابقشان را در این چتباتها بارگذاری میکنند.
در گفتگو و تعامل کاربران با چتباتهای هوش مصنوعی -درست مانند موتورهای جستجوی وب- بسیار دشوار است تا تشخیص دهیم که چتهای کاربر با این چتباتها تا چه حد با زندگی واقعیش تطابق دارد. شاید آن مرد که در واشنگتن زندگی میکرد و داستان شکست ازدواجش را نقل کردیم، فقط در حال سرگرم کردن خودش با ChatGPT بوده است.
اما در کل، کاربران در حال افشای اطلاعاتی واقعی درباره خودشان هستند و شرکتهای هوش مصنوعی این موضوع را مورد توجه خود قرار دادهاند. سم آلتمن -رئیس شرکت OpenAI- اخیراً به همکارم چارلی وارزل گفته است که «مسلماً از این که تا این حد مردم میخواهند اطلاعات جزئی و شخصیشان را با یک مدل زبانی بزرگ به اشتراک بگذارند شگفت زده شده است.» وی افزود که حتی در برخی موارد کاربران از این که با یک هوش مصنوعی صحبت کنند احساس راحتی بیشتری دارند تا این که با یک دوست گفتگو کنند. این امر دلیل روشنی دارد: کامپیوترها -بر خلاف انسانها- قضاوت نمیکنند.
جاناتان گرچ -استاد علوم کامپیوتر و روانشناسی دانشگاه کالیفرنیای جنوبی- معتقد است: «هنگامی که ما انسانها با شخص دیگری گفتگو میکنیم، درگیر مدیریت تصویر خودمان در ذهن شخص مقابل میشویم. ما عامدانه رفتارمان را به گونهای تنظیم میکنیم تا ضعفهایمان را پنهان کنیم.» او همچنین به من گفت: «به نوعی مردم ماشینها را اینگونه میبینند که آنها نمیتوانند به اندازهای به لحاظ اجتماعی ارزیابیشان کنند که یک انسان میتواند چنین کند.»
البته شرکت OpenAi و امثالش وعده دادهاند که گفتگوهای شما با چتباتها را به شکلی امن نگهداری کنند. اما در وضعیت امروز اینترنت، حریم شخصی یک توهم محسوب میشود. هوش مصنوعی از این قاعده مستثنی نیست. در تابستان گذشته، یک باگ امنیتی در اپلیکیشن مکاواس چتجیپیتی باعث شد که این برنامه نتواند گفتگوهای یک کاربر را رمزگذاری کند و آرشیو این گفتگوها برای مدت کوتاهی در معرض دسترس کنشگران خطرناکی قرار گرفت. ماه گذشته، یک پژوهشگر حوزه امنیت ضعفی امنیتی را به اشتراک گذاشت که هکرها را قادر میساخت برای استخراج گفتگوهای کاربران، به چتجیپیتی جاسوسافزار وارد کنند. (اکنون OpenAi هر دوی این مشکلات را حل کرده است)
همچنین آرشیو چت کاربران با این هوش مصنوعیها میتواند به عنوان مدرک در تحقیقات قضایی استفاده شود. همانطور که برای مدتها از دادههای پلتفرمهایی همچون فیسبوک و لیست سرچهای گوگل برای چنین کاری استفاده میشد. افبیآی تلاش کرد تا انگیزه شخصی را که در تجمع انتخاباتی دونالد ترامپ به او تیراندازی کرد با بررسی سابقه سرچهایش در اینترنت تشخیص دهد.
وقتی که سناتور سابق نیوجرسی -رابرت منندز- به دریافت شمشهای طلا از همدستان دولت مصر متهم شد، سابقهی سرچ او در اینترنت بخش عمدهای از شواهدی بود که باعث محکومیت او در اوایل امسال شد. (او سرچ کرده بود: قیمت یک کیلو طلا چقدر است؟) آقای هندرسون معتقد است که چتباتهای هوش مصنوعی هنوز آنقدر جدیدند که نتوانستهاند به شکل گستردهای در محاکم قضایی مدارک و شواهد ارائه کنند، اما آنها ممکن است در آینده منبع اطلاعاتی بسیار غنیتری را در اختیار مجریان قانون قرار دهند.
سیستمهای هوش مصنوعی همچنین خطرات جدیدی را عرضه میکنند. گفتگوهایی که با چتباتهای هوش مصنوعی صورت میگیرند توسط شرکتهایی که این هوشهای مصنوعی را تولید کردهاند ذخیره و سپس در جهت توسعه و آموزش مدلهای هوش مصنوعی استفاده میشوند. اطلاعاتی که شما معتمدانه برای یک ابزار هوش مصنوعی افشا میکنید، قاعدتاً ممکن است در آینده به کاربرانی که بعداً با این ابزارها کار میکنند، خورانده شوند.
بخشی از شکایت نیویورک تایمز علیه شرکت OpeanAi بر این ادعا استوار بود که چتجیپیتی۴ بخشهایی از گزارشات خبری نیویورکتایمز را از بر کرده و سپس آنها را کلمه به کلمه بازگو کرده است. در نتیجهی چنین نگرانیهایی حول این مسئله که چتجیپیتی اطلاعات را ذخیره میکند، بسیاری از شرکتها استفاده از چتجیپیتی و سایر چتباتهای هوش مصنوعی را ممنوع کردهاند تا از نشت اسرارشان جلوگیری کنند. (مجلهی آتلانتیک اخیراً با شرکت OpenAi وارد همکاری شده است)
البته اینها همگی موارد نادری هستند. مردی که از چتجیپیتی درخواست کرد تا ازدواجش را حفظ کند احتمالاً نباید نگران این باشد که سابقهی این چت او در دادگاه به عنوان مدرک مطرح شود. همچنین درخواستهای او از چتجیپیتی برای سرایش یک شعر چشمگیر برای همسرش همراه با نام و هویت وی به کاربران دیگر نمایش داده نخواهد شد. اما همچنان شرکتهای توسعه دهنده هوش مصنوعی بی سر و صدا در حال انباشت حجم عظیمی از آرشیو چتهای کاربران با چتباتهای هوش مصنوعی میباشند و سیاستهای این شرکتها در زمینه اطلاعات و دادههای کاربران کاملاً به آنها اجازه میدهد که هر کاری که میخواهند با این حجم انبوه اطلاعات بکنند. این امر به معنای ورود هوشهای مصنوعی به عرصه تبلیغات است و هیچ معنای دیگری غیر از این ندارد.
تاکنون بسیاری از استارتآپهای هوش مصنوعی مانند OpenAi و Anthropic مایل به پذیرش تبلیغات در پلتفرمهای خود نبودهاند. اما این شرکتها تحت فشار شدیدی هستند تا ثابت کنند که سرمایهگذاری چند میلیارد دلاری در زمینه هوش مصنوعی سومند خواهد بود. ریشی بومماسنی -پژوهشگر حوزه هوش مصنوعی در دانشگاه استنفورد- به من گفت: «به سختی میتوان تصور کرد که هوشهای مصنوعی مولد ممکن است به نحوی در برابر طرح درآمدزایی از طریق تبلیغات تاب آورده و به آن روی نیاورند.»
در چشم انداز کوتاه مدت، این امر به این معناست که اطلاعات حساس آرشیو چتهای کاربران با هوشهای مصنوعی برای تولید تبلیغات هدفمند استفاده خواهند شد. درست مانند تبلیغاتهایی که امروزه در اینترنت به وفور ریخته است.
در سپتامبر ۲۰۲۳، اسنپچت -که اکثریت نوجوانان آمریکایی از آن استفاده میکنند- اعلام کرد که از محتوای گفتگوهای صورت گرفته با My AI (چتباتِ درون برنامهای اسنپ چت) برای شخصیسازی تبلیغات استفاده خواهد کرد. اگر از My AI بپرسید که «چه کسی بهترین گیتار الکتریکی را تولید میکند؟» احتمالاً پاسخی به همراه لینک تبلیغاتی وبسایت Fender دریافت خواهید کرد.
این موضوع آشنا به نظر میرسد. باید هم چنین باشد. نسخههای اولیهی تبلیغات هوشهای مصنوعی ممکن است بسیار شبیه به لینکهای تبلیغاتیای که گاهی همراه با نتایج سرچ در گوگل نشان داده می شوند، باشند. اما چون هوشهای مصنوعی مولد به چنین اطلاعات شخصیای دسترسی دارند، تبلیغات ممکن است اشکال کاملاً جدیدی به خود بگیرند.
آقای گراچ اینگونه فکر نمیکند که شرکتهای توسعهدهنده تکنولوژی فهمیده باشند که چگونه به بهترین نحو اطلاعات چت کاربران با چتباتهای هوش مصنوعی را استخراج کنند. او به من گفت: «اما این اطلاعات بر روی سرورهای آنها قرار دارد. آنها روزی بهترین روش برای استخراج اطلاعات چت کاربران را کشف خواهند کرد.» بالاخره، برای یک شرکت بسیار بزرگ توسعهدهنده تکنولوژی ، حتی یک درصد تفاوت در تمایل یک کاربر برای کلیک بر روی تبلیغاتهای نمایش داده شده به معنای حجم عظیمی از پول است.
آمادگی افراد برای ارائه اطلاعات جزئی و شخصی به چتباتهای هوش مصنوعی همچنین میتواند زوایایی از خودانگاره کاربران را آشکار کرده و نشان دهد که آنها تا چه حد در معرض خطر آن چه آقای گراچ «تاکتیکهای تاثیرگذاری» نامیده است، میباشند. در یک آزمایش که اخیراً صورت گرفت، شرکت OpenAI این موضوع را بررسی کرد که مدلهای جدید این شرکت تا چه مقدار میتوانند یک مدل قدیمیتر -یعنی ChatGPT-4o- را دستکاری کنند و آن را وادار کنند که در یک بازی شبیهسازی شده پرداختی انجام دهد.
پیش از اجرای اقدامات امنیتی، یکی از مدلهای جدید توانست که به شکلی موفقیتآمیز در بیش از ۲۵ درصد مواقع مدل قدیمیتر را فریب دهد. اگر مدلهای جدیدتر میتوانند بر Chat GPT4 مسلط شوند، پس همچنین میتوانند انسانها را نیز تحت سلطه خود در آورند. یک شرکت هوش مصنوعی که به شکل کورکورانهای برای بهینهسازی درآمد حاصل از تبلیغات تلاش میکند، میتواند چتبات هوش مصنوعی را به گونهای توسعه دهد که آن چتبات به شکل آمرانه و تسلطخواهانهای بر روی اطلاعات خصوصی کاربران کار کند.
نیک مارتین -یکی از بنیانگذاران استارتآپ هوش مصنوعی Direqt- به من گفت که ارزش بالقوهی اطلاعات چت کاربران همچنین میتواند شرکتهایی را که خارج از صنعت تکنولوژی فعالیت میکنند به تلاش جدی در زمینه توسعهی چتباتهای هوش مصنوعی هدایت کند. Trader Joe میتواند چتباتی را ارائه کند که به کاربران در زمینه برنامهریزی برای وعدههای غذاییشان کمک میکند. Peloton میتواند چتباتی را تولید کند که در زمینه بدنسازی مشاوره بدهد.
این اپلیکیشنهای میانجیِ گفتگومحور -یعنی چتباتها- ممکن است کاربران را تشویق کنند که بیش از هر زمان دیگری درباره تغذیه یا تناسب اندام خود اطلاعاتی را افشا کنند. به جای این که شرکتها به اطلاعات کاربران از طریق بررسی ردپای نامنظم آنها در فضای مجازی دست یابند، کاربران خود به طور مستقیم تمام اسرار خود را به شرکتها میگویند.
فعلاً ترسناکترین این سناریوها تا حد زیادی فرضی و محتمل هستند. شرکتی مانند OpenAi -که باید اعتبار خود را حفظ کند- قطعاً چتباتهای خود را به گونهای طراحی نمیکند که گوش یک مرد طلاقگرفتهی درمانده را ببرند. این سناریوها همچنین به این معنا نیستند که شما باید گفتن رازهایتان به چتجیپیتی را متوقف کنید.
اگر به نسبت یک زندگی رومزه حساب کنید، سود ناچیز کمک گرفتن از هوش مصنوعی برای این که درخواست ویزایتان رد شده و یا این که میخواهید برای یک پرونده پیچیده از بیمهتان درخواست حق بیمه کنید، وزنش بیشتر از نگرانیهایی است که در کنار این کمکها در زمینه حریم شخصیتان به وجود خواهند آمد. این تحولات در بخش بزرگی از وب که حاوی تبلیغات است در جریان است. مسیر اینترنت به سمت تبلیغات حرکت میکند و هوش مصنوعی ممکن است از این قاعده مستثنی نباشد.
به راحتی میتوان در برابر پتانسیل هوش مصنوعی برای تغییر جهان سر خم کرد و با هیجان بیش از حد درباره قدرت این تکنولوژی سخن گفت. تکنولوژیای که مدیر گوگل آن را «بسیار بنیانیتر از آتش» خواند. اینکه مردم بهراحتی حاضرند چنین جزئیات شخصیای از زندگی خود را به هوشهای مصنوعی ارائه کنند، گواهی بر جذابیت آنها است.
اما این چتباتها ممکن است به جدیدترین اختراعات از یک سلسله تکنولوژیهای تبلیغاتی تبدیل شوند که برای استخراج حداکثر اطلاعات از شما طراحی شدهاند. به این ترتیب، آنها کاملاً از مسیر اینترنت مصرفی کنونی جدا نیستند بلکه ادامهی شدیدتر آن هستند. در فضای آنلاین، اسرار شما همیشه در معرض فروش قرار دارند.»
انتهای پیام