تریدینگ فایندر

اخلاق استفاده از هوش مصنوعی در پژوهش

کانال تلگرامی جامعه‌ بهتر بسازیم نوشت: «رعایت اصول اخلاقی در استفاده از هوش مصنوعی در پژوهش نه تنها یک الزام حرفه‌ای بلکه بنیانی حیاتی برای حفظ صداقت علمی، اعتماد عمومی و اعتبار نهادهای علمی به‌شمار می‌رود.
استفاده نادرست یا غیرشفاف از هوش مصنوعی می‌تواند به تحریف واقعیت‌ها، تولید دانش غیرقابل اتکاء و در نهایت بی‌اعتمادی جامعه علمی و عمومی منجر شود.

مصادیق اخلاق پژوهشی هوش مصنوعی
۱. انسان‌محوری
هوش مصنوعی باید در خدمت نیازها و ارزش‌های انسانی باشد و کرامت و حقوق افراد را تضمین کند.

۲. شفافیت‌سازی در استفاده از هوش مصنوعی
چنانچه در هر مرحله از تهیه یا تحلیل محتوای علمی از ابزارهای هوش مصنوعی استفاده شده باشد، پدیدآورندگان موظف هستند تمامی موارد استفاده از هوش مصنوعی را ذکر نمایند.

۳. مسئولیت‌پذیری علمی، اخلاقی و حقوقی
مسئولیت کامل محتوای علمی اعم از صحت، اصالت و تطابق با معیارهای علمی و اخلاقی همچنان بر عهده پژوهشگران، اساتید و دانشجویان است و استفاده از ابزارهای هوش مصنوعی هیچگونه مسئولیتی را از آن‌ها سلب نمی‌کند. همچنین این ابزارها تحت هیچ شرایطی به‌عنوان صاحب امتیاز یا پدیدآورنده آثار علمی شناخته نمی‌شوند.

۴. حفظ صداقت علمی
در بهره‌گیری از ابزارهای هوش مصنوعی، حفظ اصول صداقت و امانت‌داری علمی الزامی است. صحت و درستی مطالب علمی باید حاکم و مانع جعل، تحریف یا سرقت ادبی و علمی شود.

۵. عدالت و عدم تبعیض
دسترسی برابر به مزایای هوش مصنوعی برای همه گروه‌ها تضمین و از ایجاد تبعیض خودداری شود.

۶. حفظ حریم خصوصی، محرمانگی، امنیت داده و حقوق مالکیت فکری در زمان اشتراک‌گذاری اطلاعات با ابزارهای هوش مصنوعی

پژوهشگران باید آگاهی کامل از جنبه‌های فنی و اخلاقی از جمله ملاحظات و سیاست‌های حریم خصوصی، مالکیت داده، امنیت اطلاعات، محل میزبانی و نحوه پردازش اطلاعات داشته باشند. به‌ویژه توجه شود که برخی ابزارها ممکن است داده‌های ورودی را برای آموزش مجدد مدل‌ها ذخیره کنند.

وارد کردن اطلاعات حساس، شخصی یا منتشرنشده به ابزارهای عمومی تنها در صورتی مجاز است که تضمین روشنی درباره عدم استفاده مجدد از داده‌ها موجود و مخاطرات افشای اطلاعات به دقت ارزیابی شده باشد. پژوهشگران باید از سازوکارهای امن (مانند اجرای مدل‌های هوش مصنوعی که به صورت آفلاین یا بر روی سرویس‌های امن دانشگاهی قرار دارد) برای تحلیل داده‌های حساس بهره گیرند. وارد کردن داده‌ها و اطلاعات حساس یا محرمانه پژوهش به سرویس‌های هوش مصنوعی برخط که تحت کنترل پژوهشگر نیستند اکیداً ممنوع است.

۷. انصاف و نداشتن سوگیری (آگاهی از محدودیت‌های ابزارها)
پژوهشگر باید آگاه باشد که سامانه‌های هوش مصنوعی ممکن است سوگیری‌های الگوریتمی یا محتوایی داشته باشند. بنابراین هنگام استفاده از خروجی این ابزارها باید با دید نقادانه به بررسی آن پرداخته و از وارد شدن هرگونه سوگیری غیرموجه جنسیتی، قومی، سیاسی و … به محتوای علمی خود جلوگیری شود و مسئولیت پالایش و حذف سوگیری‌های احتمالی از هوش مصنوعی بر عهده پژوهشگر است.

۸. پایداری و محیط‌زیست
برای کاهش مصرف انرژی توصیه می‌شود کاربران تأثیر محیط‌زیستی استفاده از مدل‌های هوش مصنوعی را لحاظ و در حد امکان از مدل‌های کوچک‌تر، کم‌مصرف و محلی برای وظایف با پیچیدگی کمتر استفاده و تأثیرات محیط‌زیستی ابزارها را ارزیابی نمایند.

۹. رعایت دستورالعمل‌های ناشران و کارفرمایان در خصوص به‌کارگیری هوش مصنوعی
پژوهشگران موظف هستند پیش از ارسال آثار پژوهشی به ناشران علمی یا ارائه آن‌ها به کارفرمایان از دستورالعمل‌ها و سیاست‌های مرتبط با استفاده از هوش مصنوعی در هر نهاد یا ناشر اطلاع کامل کسب و آن‌ها را رعایت کنند. برخی ناشران یا سازمان‌ها ممکن است استفاده از هوش مصنوعی را در مراحل خاصی از فرآیند پژوهش، محدود یا مشروط نمایند. عدم رعایت این دستورالعمل‌ها می‌تواند به رد اثر، ابطال انتشار یا پیامدهای حقوقی و اخلاقی منجر شود. بدیهی است ناآگاهی از دستورالعمل‌ها از صاحب اثر رفع مسئولیت نمی‌کند.

۱۰. پایبندی به قوانین مالکیت فکری و قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی
پژوهشگران موظف خواهند بود که کلیه قوانین و مقررات مصوب مجلس شورای اسلامی، وزارت علوم، تحقیقات و فناوری و سایر مراجع ذیصلاح در خصوص موضوع مالکیت فکری، قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی و همچنین منشور و موازین اخلاق پژوهش را مطالعه و رعایت نمایند.»

منبع: راهنمای استفاده از هوش مصنوعی در پژوهش، ویراست نخست. وزارت علوم، تحقیقات و فناوری، مؤسسه تحقیقات سیاست علمی کشور

انتهای پیام

بانک صادرات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا