خرید تور تابستان

تأثیر هوش مصنوعی بر «انتخابات آینده»

شقنا آینده- اکونومیست در پاسخ این پرسش نوشت: با این که هوش مصنوعی می‌تواند کارزارهای تولید اطلاعات جعلی و نادرست را آسان‌تر کند، اما اهمیت آن به مراتب کمتر از آن چیزی است که به نظر می‌رسد!

به گزارش سرویس ترجمه شفقنا از هفته‌نامه اکونومیست؛ موضوع اصلی سیاست از همان ابتدا متقاعد کردن بوده؛ با این حال همواره پروپاگاندا و تبلیغات هم در کمین سیاست بوده است. کمپین‌های تبلیغاتی بدبینی را ترویج می‌دهند، در مسایل و مشکلات موجود اغراق می‌کنند و دروغ می‌گویند و در عین حال این دروغ‌ها را از هر راه ممکن منتقل می‌کنند. توطئه‌های ضد واکسن زمانی به جای پادکست از طریق جزوه‌های مختلف تبلیغ می‌شد. حتی در این راستا ضدماسک‌ها یک قرن قبل از کرونا هم مشغول بودند و در دوران آنفولانزای اسپانیایی یک کمپین اطلاعات نادرست به راه انداخته بودند. در آن زمان آن‌ها این اطلاعات نادرست و پیام‌های جعلی درباره پزشکی را از طریق تلگرام (در واقع از طریق سیم‌ها نه اپلیکیشن‌های گوشی‌های هوشمند) ارسال می‌کردند. این در مورد انتخابات هم مصداق دارد. در حقیقت چون مردم فرشته نیستند، انتخابات هیچ گاه عاری از باطل و باورهای غلط نبوده است.

اما از آن‌جایی که جهان در سال 2024 چند انتخابات مهم خواهد داشت، یک پدیده جدید باعث نگرانی‌های بسیاری شده است. در گذشته، اطلاعات نادرست و جعلی را همیشه انسان‌ها تولید می‌کردند. اما به تازگی پیشرفت‌های حوزه هوش مصنوعی تبلیغات مصنوعی را نیز ممکن کرده است. از آن‌جایی که یک سری از کشورهایی مانند آمریکا، بریتانیا، هند، اندونزی، مکزیک و تایوان که جمعیت مجموع‌شان بالغ بر حدود 4 میلیارد نفر است در سال 2024 رای‌گیری‌هایی خواهند داشت؛ این ترس در میان ناظران شدت گرفته که ممکن است در سال 2024 شاهد افزایش و شدت گرفتن کمپین‌های اطلاعات نادرست باشیم. اما آیا شهروندان خود این کشورها هم باید نگران این موضوع باشند؟

مهم است که در مورد چیزهایی که ابزارهای مولد هوش مصنوعی مانند چت‌جی‌پی‌تی انجام می‌دهند- و البته چیزهایی که تغییر نمی‌دهند- دقیق فکر کنیم. پیش از آمدن این ابزارها اطلاعات نادرست یکی از مشکلات بزرگ دموکراسی‌ها بود. اصلأ ایده مخرب تقلب در انتخابات ریاست جمهوری آمریکا در سال 2020 بود که باعث شد آشوبگران در ششم ژانویه به ساختمان کنگره هجوم آورند. اما فراموش نکنید که انتشار این ایده را دونالد ترامپ و دیگر بزرگان جمهوری‌خواه و رسانه‌های گروهی محافظه‌کار با استفاده از ابزارهای متعارف آغاز کردند. فعالان حزب حاکم هند هم در این بین شایعات خود را از طریق تاپیک‌های واتس‌اپ منتشر کردند. هم‌چنین مبلغان حزب کمونیست چین نیز از طریق رسانه‌های خبری به ظاهر مشروع، منظور خود را به تایوانی‌ها منتقل کردند. همه این‌ها بدون استفاده از ابزارهای مولد هوش مصنوعی انجام شد.

در این وضعیت مدل‌های هوش مصنوعی چه چیزی را می‌توانند در سال 2024 تغییر دهند؟ یکی از این چیزها کمیت اطلاعات نادرست است: اگر حجم مطالب بیهوده و جعلی در 1000 یا 100000 ضرب شود، ممکن است مردم متقاعد شوند که رأی خود را تغییر دهند. مورد دوم مربوط به کیفیت است. دیپ‌فیک‌های بیش از حد واقعی می‌توانند رای‌دهندگان را قبل از اینکه صدا، عکس‌ها و ویدیوهای نادرست حذف شوند، تحت تأثیر قرار دهد. سومین هدف، هدف‌گذاری‌های کوچک است. هوش مصنوعی می‌تواند رای‌دهندگان را غرق در تبلیغاتی کند که در مقیاس بسیار زیادی شخصی شده‌اند. شناسایی شبکه‌های ربات‌های تبلیغاتی سخت‌تر از تلاش‌های موجود برای انتشار اطلاعات نادرست است. از آن‌جا که مردم عادت کرده‌اند به همه چیز شک کنند، این موضوع اعتماد رای‌دهندگان به هموطنان خود را نیز- که در آمریکا برای دهه‌های متوالی رو به کاهش بوده- ممکن است آسیب بزند.

این نکات اگر چه نگران‌کننده‌اند، اما دلایلی وجود دارد که باور کنیم هوش مصنوعی قرار نیست تجربیات 2500 ساله بشریت در زمینه دموکراسی را از بین ببرد. بسیاری از مردم فکر می‌کنند که دیگران از خودشان ساده‌لوح‌ترند. در واقع، متقاعد کردن رای‌دهندگان به خصوص در مورد موضوعات مهم سیاسی از قبیل انتخاب رئیس‌جمهور دشوار است (از خودتان بپرسید چه دیپ‌فیکی می‌تواند انتخاب شما را بین جو بایدن و دونالد ترامپ تغییر دهد). صنعت مبارزات انتخاباتی چند میلیارد دلاری در آمریکا که از انسان برای متقاعد کردن رأی‌دهندگان استفاده می‌کند، تنها می‌تواند تغییرات جزئی در رفتار آن‌ها ایجاد کند.

ابزارهایی که می‌توانند دست به تولید تصاویر و متون جعلی قابل باور بزنند، برای چندین و چند دهه متوالی وجود داشته‌اند. اگرچه هوش مصنوعی ممکن است یک تکنولوژی در راستای صرفه‌جویی در کار مزارع ترول‌های اینترنتی به شمار آید، اما مشخص نیست که آیا تلاش اصلی آن برای تولید اطلاعات نادرست باشد. الگوریتم‌های جدید تصویرساز توانایی‌های چشم‌گیری دارند، اما بدون تنظیم و قضاوت انسان، هم‌چنان مستعد تولید تصاویری بی‌دقت- و افرادی با شش انگشت در هر دست- هستند. حتی اگر این تاکتیک‌های تقویت‌شده هوش مصنوعی مؤثر واقع شوند، به زودی توسط بسیاری از طرفین ذی‌نفع پذیرفته می‌شوند: اثر تجمعی این عملیات نفوذ شبکه‌های اجتماعی را حتی غیرقابل استفاده‌تر خواهد کرد. در این میان اثبات این‌که می‌توان بی‌اعتمادی را به یک مزیت سیستماتیک برای یکی از طرفین تبدیل کرد، دشوار است.

شرکت‌های هوش مصنوعی و پلتفرم‌های رسانه‌های اجتماعی که اطلاعات نادرست منتشر می‌کنند، می‌گویند که بر روی خطرات و ریسک‌های موجود متمرکز شده‌اند. اوپن‌ای‌آی به عنوان شرکت پشتیبان چت‌جی‌پی‌تی می‌گوید که استفاده از این امکان را برای شناسایی عملیات‌های نفوذ سیاسی مورد نظارت قرار خواهد داد. پلتفرم‌های بیگ‌تک هم که به دلیل انتشار اطلاعات نادرست در انتخابات 2016 و البته حذف بیش از حد در سال 2020 مورد انتقاد قرار دارند، در شناسایی حساب‌های مشکوک بهبود یافته‌اند (اگرچه برای داوری در مورد صحت محتوای تولید شده توسط افراد واقعی دچار تنبلی هستند). آلفابت و متا استفاده از رسانه‌های دستکاری‌شده در تبلیغات سیاسی را ممنوع کرده و می‌گویند که به سرعت به تصاویر دیپ‌فیک پاسخ خواهند داد. شرکت‌های دیگر نیز در تلاش هستند تا استانداردی تکنولوژیکی برای تعیین منشأ تصاویر و ویدیوهای واقعی ایجاد کنند.

با این حال، تنظیم و کنترل داوطلبانه محدودیت‌هایی دارد و خطراتی را به همراه خواهد داشت. مدل‌های متا که متن تولید می‌کنند و مدل‌هایی مانند استیبل‌دیفیوژن که تصویر می‌سازد، این قابلیت را دارند که بدون نظارت مورد استفاده قرار گیرند. و در این میان همه پلتفرم‌ها نیز یکسان ایجاد نمی‌شوند. تیک‌تاک یکی از رسانه‌های اجتماعی اشتراک‌گذاری ویدیو است، با دولت چین ارتباط دارد و این برنامه برای ترویج ویروس‌پذیری از هر منبعی از جمله حساب‌های جدید طراحی شده است. توییتر (که اکنون ایکس نامیده می‌شود) پس از خرید توسط ایلان ماسک تیم نظارتی خود را کاهش داده و این هم این پلتفرم را تبدیل به بهشتی برای ربات‌ها کرده است. آژانس رگولاتور ی انتخابات در آمریکا در حال بررسی یک الزام برای افشای کمپین‌هایی است که از تصاویر تولیدشده مصنوعی استفاده می‌کنند. روشی معقول- اگرچه بازیگران بدخواه از آن پیروی نمی‌کنند!

انتهای پیام

بانک صادرات

نوشته های مشابه

یک پیام

  1. باسلام . بزرگترین آفت خبرنگاری این است که برود از سایت یک خبرگذاری دیگر کپی کند یا ترجمه کند . بعبارت دیگر وقتی که یک خبرنگار بدون تحقیق و تفحص و بررسی ابعاد خبر یا یک تحلیل میاید از یک سایت کپی میکند این بدین معنی است که به مرجع خبر اعتماد دارد . جک درسی مدیر سابق تویتر اولا بدلیل نقض آزادی بیان به کنگره احضار و سپس اخراج شد . مارک زاکربرگ مدیرعامل متا و فیس بوک افشاگری کرد و گفت که توسط اف بی ای تحت فشار بوده مجبور به سانسور محتوی در دوره انتخابات ۲۰۲۰ شده است . آنها اخبار مربوط به فساد خانواده بایدن پسرش هانتربایدن را بعنوان اخبار فیک سانسور کردند که امروز چندین افشارگر بخصوص شریک تجاری بایدن درجلوی کمیته قضایی کنگره اعتراف کرده است .
    بنابراین اگر میگویند خبر وجود تقلب در انتخابات فیک بوده این موضوع ممکن است بعدا تبدیل به حقیقت بشود مثلا یک عده افشاگر بیایند و با مدرک و سند و شواهد ثابت کنندکه تقلب در انتخابات ۲۰۲۰ حقیقت دارد . در مورد اتفاقات شش ژانویه
    شبکه فاکس نیوز توسط مجری معروف آقای تاکرکارسون
    چندین کلیپ ویدیو از اتفاقات آنروز پخش کرد که معلوم شد پلیس واشنگتن و اف بی ای در این اقدام شورشی دست داشتند و یک برنامه از قبل طراحی شده بود . برای اینکه شخص رئیس جمهور را بدنام کنند تا دفعات بعد نتواند در انتخابات شرکت کند .
    در حال حاضر گزارشگران مستقل و آزاد
    بدون داشتن گرایش سیاسی و بدون وابستگی به ارگان یا سازمان خاصی اخبار و حوادث را آنگونه که هست بیان میکنند و بینده و خواننده بیشتری دارند . و منبع موثقی هستند زیرا مردم عادی از محل وقوع خبر بدون سانسور فیلم و گزارش تهیه میکنند بدون ویرایش ارایه میشود . همچنانکه پس از اختراع کتاب اینترنتی فروش کتاب کاغذی از بین میرود و یا پس از اختراع دوربین عکاسی دیجیتال
    دوربینهای سنتی فیلم ونگاتیو از بین رفت .
    الان در این دوره با وجود گوشیهای هوشمند
    و انتشار اخبار مستقیم از این به بعد خبرگذاریهای بزرگ و استودیوهای گران قیمت با کارمندان زیاد وداشتن تحلیگران خبر از رونق افتاده و از این به بعد رو به افول است .

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا