خرید تور تابستان

هوش مصنوعی و تولید ویروس‌های زیستی ساختگی با سرایت بیشتر و مرگبارتر

به گزارش سیتنا به نقل از ایندیپندنت، مصطفی سلیمان، یکی از بنیان‌گذاران دیپ‌مایند گوگل (Google Deepmind) شرکت هوش مصنوعی گوگل ابراز نگرانی کرد که بهره‌گیری از هوش مصنوعی به منظور مهندسی پاتوژن‌ها برای آسیب‌زایی بیشتر به سناریویی مانند همه‌گیری می‌رسد.

او در قسمت جدیدی از یک پادکست گفت: «بدترین سناریو این است که مردم پاتوژن‌ها را آزمایش کنند؛ پاتوژن‌های مصنوعی مهندسی‌شده که ممکن است به طور تصادفی یا عمدی سرایت‌پذیر‌تر یا مرگبارتر شوند.»

از نظر سلیمان، لازم است مشابه محدودیت‌هایی که برای جلوگیری از دسترسی آسان مردم به میکروب‌های بیماری‌زا مانند سیاه‌زخم وجود دارد، ابزارهایی نیز برای محدود کردن دسترسی به فناوری پیشرفته هوش مصنوعی و نرم‌افزاری که چنین مدل‌هایی را اجرا می‌کند، ایجاد شود.

او در پادکست روزنگار یک مدیرعامل (The Diary of a CEO) گفت: «این همانجایی است که باید کنترل شود. باید دسترسی به ابزار و دانش را برای آن نوع آزمایش محدود کنیم.»

او که از بنیان‌گذاران دیپ‌مایند گوگل است، گفت: «نمی‌توانیم اجازه دهیم هرکسی به آن‌ها دسترسی داشته باشد. باید دسترسی افراد به استفاده از نرم‌افزار هوش مصنوعی، سیستم‌های ابری و حتی برخی مواد بیولوژیکی را محدود کنیم.»

او گفت: «و البته این کار از جنبه زیست‌شناسی به معنای محدود کردن دسترسی به برخی مواد است.» و افزود که توسعه هوش مصنوعی باید با رعایت «اصل احتیاط» انجام شود.

سخنان سلیمان تکرار نگرانی‌های مطرح‌شده در مطالعه‌ای جدید است که می‌گوید حتی دانشجویان کارشناسی که بدون پیشینه مرتبط در حوزه زیست‌شناسی هم با استفاده از سیستم‌های هوش مصنوعی می‌توانند در مورد سلاح‌های زیستی پیشنهادهای مفصلی ارائه دهند.

پژوهشگران از جمله از موسسه فناوری ماساچوست دریافتند ربات‌های چت می‌توانند «چهار پاتوژن احتمالا همه‌گیر» را ظرف یک ساعت پیشنهاد و توضیح دهند که چگونه می‌توان آن را از دی‌ان‌ای مصنوعی تولید کرد.

این پژوهش نشان داد ربات‌های چت «اسامی شرکت‌های تولید دی‌ان‌ای را که احتمالا سفارش‌ها را غربال نمی‌کنند، در اختیار گذاشتند، پروتکل‌های دقیق و نحوه عیب‌یابی آن‌ها را شناسایی و توصیه کردند هرکس مهارت انجام دادن ژنتیک معکوس ندارد، با یک واحد مرکزی همکاری یا با یک سازمان پژوهشی قراردادی کار کند.»

او گفت که براساس این مطالعه، چنین مدل‌های زبانی بزرگی (LLMs) مانند چت جی‌پی‌تی «به محض شناسایی مطمئن، عوامل همه‌گیری را به صورت گسترده در دسترس قرار می‌دهند؛ حتی برای افرادی که برای کارهای آزمایشگاهی آموزش کمی دیده‌اند یا هیچ آموزشی ندیده‌اند».

کوین اسولت، یکی از نویسندگان این مطالعه و کارشناس خطر زیستی موسسه فناوری ماساچوست (ام‌آی‌تی)، خواستار «اقدام منع گسترش سلاح‌های هسته‌ای» شد.

چنین اقدام‌هایی می‌تواند عبارت باشد از «ارزیابی پیش از انتشار مدل‌های زبانی بزرگ از طریق شخص ثالث، مدیریت مجموعه داده‌های آموزشی برای حذف مفاهیم زیان‌بار و غربالگری تایید‌شده تمام دی‌ان‌ای تولیدی ارائه‌دهندگان سنتر یا آن‌هایی که در سازمان‌های پژوهشی قراردادی و آزمایشگاه‌های ابری رباتیک برای مهندسی موجودات زنده یا ویروس‌ها» مصرف شده باشد.

انتهای پیام

بانک صادرات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا