تأثیر هوش مصنوعی بر «انتخابات آینده»
شقنا آینده- اکونومیست در پاسخ این پرسش نوشت: با این که هوش مصنوعی میتواند کارزارهای تولید اطلاعات جعلی و نادرست را آسانتر کند، اما اهمیت آن به مراتب کمتر از آن چیزی است که به نظر میرسد!
به گزارش سرویس ترجمه شفقنا از هفتهنامه اکونومیست؛ موضوع اصلی سیاست از همان ابتدا متقاعد کردن بوده؛ با این حال همواره پروپاگاندا و تبلیغات هم در کمین سیاست بوده است. کمپینهای تبلیغاتی بدبینی را ترویج میدهند، در مسایل و مشکلات موجود اغراق میکنند و دروغ میگویند و در عین حال این دروغها را از هر راه ممکن منتقل میکنند. توطئههای ضد واکسن زمانی به جای پادکست از طریق جزوههای مختلف تبلیغ میشد. حتی در این راستا ضدماسکها یک قرن قبل از کرونا هم مشغول بودند و در دوران آنفولانزای اسپانیایی یک کمپین اطلاعات نادرست به راه انداخته بودند. در آن زمان آنها این اطلاعات نادرست و پیامهای جعلی درباره پزشکی را از طریق تلگرام (در واقع از طریق سیمها نه اپلیکیشنهای گوشیهای هوشمند) ارسال میکردند. این در مورد انتخابات هم مصداق دارد. در حقیقت چون مردم فرشته نیستند، انتخابات هیچ گاه عاری از باطل و باورهای غلط نبوده است.
اما از آنجایی که جهان در سال 2024 چند انتخابات مهم خواهد داشت، یک پدیده جدید باعث نگرانیهای بسیاری شده است. در گذشته، اطلاعات نادرست و جعلی را همیشه انسانها تولید میکردند. اما به تازگی پیشرفتهای حوزه هوش مصنوعی تبلیغات مصنوعی را نیز ممکن کرده است. از آنجایی که یک سری از کشورهایی مانند آمریکا، بریتانیا، هند، اندونزی، مکزیک و تایوان که جمعیت مجموعشان بالغ بر حدود 4 میلیارد نفر است در سال 2024 رایگیریهایی خواهند داشت؛ این ترس در میان ناظران شدت گرفته که ممکن است در سال 2024 شاهد افزایش و شدت گرفتن کمپینهای اطلاعات نادرست باشیم. اما آیا شهروندان خود این کشورها هم باید نگران این موضوع باشند؟
مهم است که در مورد چیزهایی که ابزارهای مولد هوش مصنوعی مانند چتجیپیتی انجام میدهند- و البته چیزهایی که تغییر نمیدهند- دقیق فکر کنیم. پیش از آمدن این ابزارها اطلاعات نادرست یکی از مشکلات بزرگ دموکراسیها بود. اصلأ ایده مخرب تقلب در انتخابات ریاست جمهوری آمریکا در سال 2020 بود که باعث شد آشوبگران در ششم ژانویه به ساختمان کنگره هجوم آورند. اما فراموش نکنید که انتشار این ایده را دونالد ترامپ و دیگر بزرگان جمهوریخواه و رسانههای گروهی محافظهکار با استفاده از ابزارهای متعارف آغاز کردند. فعالان حزب حاکم هند هم در این بین شایعات خود را از طریق تاپیکهای واتساپ منتشر کردند. همچنین مبلغان حزب کمونیست چین نیز از طریق رسانههای خبری به ظاهر مشروع، منظور خود را به تایوانیها منتقل کردند. همه اینها بدون استفاده از ابزارهای مولد هوش مصنوعی انجام شد.
در این وضعیت مدلهای هوش مصنوعی چه چیزی را میتوانند در سال 2024 تغییر دهند؟ یکی از این چیزها کمیت اطلاعات نادرست است: اگر حجم مطالب بیهوده و جعلی در 1000 یا 100000 ضرب شود، ممکن است مردم متقاعد شوند که رأی خود را تغییر دهند. مورد دوم مربوط به کیفیت است. دیپفیکهای بیش از حد واقعی میتوانند رایدهندگان را قبل از اینکه صدا، عکسها و ویدیوهای نادرست حذف شوند، تحت تأثیر قرار دهد. سومین هدف، هدفگذاریهای کوچک است. هوش مصنوعی میتواند رایدهندگان را غرق در تبلیغاتی کند که در مقیاس بسیار زیادی شخصی شدهاند. شناسایی شبکههای رباتهای تبلیغاتی سختتر از تلاشهای موجود برای انتشار اطلاعات نادرست است. از آنجا که مردم عادت کردهاند به همه چیز شک کنند، این موضوع اعتماد رایدهندگان به هموطنان خود را نیز- که در آمریکا برای دهههای متوالی رو به کاهش بوده- ممکن است آسیب بزند.
این نکات اگر چه نگرانکنندهاند، اما دلایلی وجود دارد که باور کنیم هوش مصنوعی قرار نیست تجربیات 2500 ساله بشریت در زمینه دموکراسی را از بین ببرد. بسیاری از مردم فکر میکنند که دیگران از خودشان سادهلوحترند. در واقع، متقاعد کردن رایدهندگان به خصوص در مورد موضوعات مهم سیاسی از قبیل انتخاب رئیسجمهور دشوار است (از خودتان بپرسید چه دیپفیکی میتواند انتخاب شما را بین جو بایدن و دونالد ترامپ تغییر دهد). صنعت مبارزات انتخاباتی چند میلیارد دلاری در آمریکا که از انسان برای متقاعد کردن رأیدهندگان استفاده میکند، تنها میتواند تغییرات جزئی در رفتار آنها ایجاد کند.
ابزارهایی که میتوانند دست به تولید تصاویر و متون جعلی قابل باور بزنند، برای چندین و چند دهه متوالی وجود داشتهاند. اگرچه هوش مصنوعی ممکن است یک تکنولوژی در راستای صرفهجویی در کار مزارع ترولهای اینترنتی به شمار آید، اما مشخص نیست که آیا تلاش اصلی آن برای تولید اطلاعات نادرست باشد. الگوریتمهای جدید تصویرساز تواناییهای چشمگیری دارند، اما بدون تنظیم و قضاوت انسان، همچنان مستعد تولید تصاویری بیدقت- و افرادی با شش انگشت در هر دست- هستند. حتی اگر این تاکتیکهای تقویتشده هوش مصنوعی مؤثر واقع شوند، به زودی توسط بسیاری از طرفین ذینفع پذیرفته میشوند: اثر تجمعی این عملیات نفوذ شبکههای اجتماعی را حتی غیرقابل استفادهتر خواهد کرد. در این میان اثبات اینکه میتوان بیاعتمادی را به یک مزیت سیستماتیک برای یکی از طرفین تبدیل کرد، دشوار است.
شرکتهای هوش مصنوعی و پلتفرمهای رسانههای اجتماعی که اطلاعات نادرست منتشر میکنند، میگویند که بر روی خطرات و ریسکهای موجود متمرکز شدهاند. اوپنایآی به عنوان شرکت پشتیبان چتجیپیتی میگوید که استفاده از این امکان را برای شناسایی عملیاتهای نفوذ سیاسی مورد نظارت قرار خواهد داد. پلتفرمهای بیگتک هم که به دلیل انتشار اطلاعات نادرست در انتخابات 2016 و البته حذف بیش از حد در سال 2020 مورد انتقاد قرار دارند، در شناسایی حسابهای مشکوک بهبود یافتهاند (اگرچه برای داوری در مورد صحت محتوای تولید شده توسط افراد واقعی دچار تنبلی هستند). آلفابت و متا استفاده از رسانههای دستکاریشده در تبلیغات سیاسی را ممنوع کرده و میگویند که به سرعت به تصاویر دیپفیک پاسخ خواهند داد. شرکتهای دیگر نیز در تلاش هستند تا استانداردی تکنولوژیکی برای تعیین منشأ تصاویر و ویدیوهای واقعی ایجاد کنند.
با این حال، تنظیم و کنترل داوطلبانه محدودیتهایی دارد و خطراتی را به همراه خواهد داشت. مدلهای متا که متن تولید میکنند و مدلهایی مانند استیبلدیفیوژن که تصویر میسازد، این قابلیت را دارند که بدون نظارت مورد استفاده قرار گیرند. و در این میان همه پلتفرمها نیز یکسان ایجاد نمیشوند. تیکتاک یکی از رسانههای اجتماعی اشتراکگذاری ویدیو است، با دولت چین ارتباط دارد و این برنامه برای ترویج ویروسپذیری از هر منبعی از جمله حسابهای جدید طراحی شده است. توییتر (که اکنون ایکس نامیده میشود) پس از خرید توسط ایلان ماسک تیم نظارتی خود را کاهش داده و این هم این پلتفرم را تبدیل به بهشتی برای رباتها کرده است. آژانس رگولاتور ی انتخابات در آمریکا در حال بررسی یک الزام برای افشای کمپینهایی است که از تصاویر تولیدشده مصنوعی استفاده میکنند. روشی معقول- اگرچه بازیگران بدخواه از آن پیروی نمیکنند!
انتهای پیام
باسلام . بزرگترین آفت خبرنگاری این است که برود از سایت یک خبرگذاری دیگر کپی کند یا ترجمه کند . بعبارت دیگر وقتی که یک خبرنگار بدون تحقیق و تفحص و بررسی ابعاد خبر یا یک تحلیل میاید از یک سایت کپی میکند این بدین معنی است که به مرجع خبر اعتماد دارد . جک درسی مدیر سابق تویتر اولا بدلیل نقض آزادی بیان به کنگره احضار و سپس اخراج شد . مارک زاکربرگ مدیرعامل متا و فیس بوک افشاگری کرد و گفت که توسط اف بی ای تحت فشار بوده مجبور به سانسور محتوی در دوره انتخابات ۲۰۲۰ شده است . آنها اخبار مربوط به فساد خانواده بایدن پسرش هانتربایدن را بعنوان اخبار فیک سانسور کردند که امروز چندین افشارگر بخصوص شریک تجاری بایدن درجلوی کمیته قضایی کنگره اعتراف کرده است .
بنابراین اگر میگویند خبر وجود تقلب در انتخابات فیک بوده این موضوع ممکن است بعدا تبدیل به حقیقت بشود مثلا یک عده افشاگر بیایند و با مدرک و سند و شواهد ثابت کنندکه تقلب در انتخابات ۲۰۲۰ حقیقت دارد . در مورد اتفاقات شش ژانویه
شبکه فاکس نیوز توسط مجری معروف آقای تاکرکارسون
چندین کلیپ ویدیو از اتفاقات آنروز پخش کرد که معلوم شد پلیس واشنگتن و اف بی ای در این اقدام شورشی دست داشتند و یک برنامه از قبل طراحی شده بود . برای اینکه شخص رئیس جمهور را بدنام کنند تا دفعات بعد نتواند در انتخابات شرکت کند .
در حال حاضر گزارشگران مستقل و آزاد
بدون داشتن گرایش سیاسی و بدون وابستگی به ارگان یا سازمان خاصی اخبار و حوادث را آنگونه که هست بیان میکنند و بینده و خواننده بیشتری دارند . و منبع موثقی هستند زیرا مردم عادی از محل وقوع خبر بدون سانسور فیلم و گزارش تهیه میکنند بدون ویرایش ارایه میشود . همچنانکه پس از اختراع کتاب اینترنتی فروش کتاب کاغذی از بین میرود و یا پس از اختراع دوربین عکاسی دیجیتال
دوربینهای سنتی فیلم ونگاتیو از بین رفت .
الان در این دوره با وجود گوشیهای هوشمند
و انتشار اخبار مستقیم از این به بعد خبرگذاریهای بزرگ و استودیوهای گران قیمت با کارمندان زیاد وداشتن تحلیگران خبر از رونق افتاده و از این به بعد رو به افول است .