اخلاق استفاده از هوش مصنوعی در پژوهش

کانال تلگرامی جامعه بهتر بسازیم نوشت: «رعایت اصول اخلاقی در استفاده از هوش مصنوعی در پژوهش نه تنها یک الزام حرفهای بلکه بنیانی حیاتی برای حفظ صداقت علمی، اعتماد عمومی و اعتبار نهادهای علمی بهشمار میرود.
استفاده نادرست یا غیرشفاف از هوش مصنوعی میتواند به تحریف واقعیتها، تولید دانش غیرقابل اتکاء و در نهایت بیاعتمادی جامعه علمی و عمومی منجر شود.
مصادیق اخلاق پژوهشی هوش مصنوعی
۱. انسانمحوری
هوش مصنوعی باید در خدمت نیازها و ارزشهای انسانی باشد و کرامت و حقوق افراد را تضمین کند.
۲. شفافیتسازی در استفاده از هوش مصنوعی
چنانچه در هر مرحله از تهیه یا تحلیل محتوای علمی از ابزارهای هوش مصنوعی استفاده شده باشد، پدیدآورندگان موظف هستند تمامی موارد استفاده از هوش مصنوعی را ذکر نمایند.
۳. مسئولیتپذیری علمی، اخلاقی و حقوقی
مسئولیت کامل محتوای علمی اعم از صحت، اصالت و تطابق با معیارهای علمی و اخلاقی همچنان بر عهده پژوهشگران، اساتید و دانشجویان است و استفاده از ابزارهای هوش مصنوعی هیچگونه مسئولیتی را از آنها سلب نمیکند. همچنین این ابزارها تحت هیچ شرایطی بهعنوان صاحب امتیاز یا پدیدآورنده آثار علمی شناخته نمیشوند.
۴. حفظ صداقت علمی
در بهرهگیری از ابزارهای هوش مصنوعی، حفظ اصول صداقت و امانتداری علمی الزامی است. صحت و درستی مطالب علمی باید حاکم و مانع جعل، تحریف یا سرقت ادبی و علمی شود.
۵. عدالت و عدم تبعیض
دسترسی برابر به مزایای هوش مصنوعی برای همه گروهها تضمین و از ایجاد تبعیض خودداری شود.
۶. حفظ حریم خصوصی، محرمانگی، امنیت داده و حقوق مالکیت فکری در زمان اشتراکگذاری اطلاعات با ابزارهای هوش مصنوعی
پژوهشگران باید آگاهی کامل از جنبههای فنی و اخلاقی از جمله ملاحظات و سیاستهای حریم خصوصی، مالکیت داده، امنیت اطلاعات، محل میزبانی و نحوه پردازش اطلاعات داشته باشند. بهویژه توجه شود که برخی ابزارها ممکن است دادههای ورودی را برای آموزش مجدد مدلها ذخیره کنند.
وارد کردن اطلاعات حساس، شخصی یا منتشرنشده به ابزارهای عمومی تنها در صورتی مجاز است که تضمین روشنی درباره عدم استفاده مجدد از دادهها موجود و مخاطرات افشای اطلاعات به دقت ارزیابی شده باشد. پژوهشگران باید از سازوکارهای امن (مانند اجرای مدلهای هوش مصنوعی که به صورت آفلاین یا بر روی سرویسهای امن دانشگاهی قرار دارد) برای تحلیل دادههای حساس بهره گیرند. وارد کردن دادهها و اطلاعات حساس یا محرمانه پژوهش به سرویسهای هوش مصنوعی برخط که تحت کنترل پژوهشگر نیستند اکیداً ممنوع است.
۷. انصاف و نداشتن سوگیری (آگاهی از محدودیتهای ابزارها)
پژوهشگر باید آگاه باشد که سامانههای هوش مصنوعی ممکن است سوگیریهای الگوریتمی یا محتوایی داشته باشند. بنابراین هنگام استفاده از خروجی این ابزارها باید با دید نقادانه به بررسی آن پرداخته و از وارد شدن هرگونه سوگیری غیرموجه جنسیتی، قومی، سیاسی و … به محتوای علمی خود جلوگیری شود و مسئولیت پالایش و حذف سوگیریهای احتمالی از هوش مصنوعی بر عهده پژوهشگر است.
۸. پایداری و محیطزیست
برای کاهش مصرف انرژی توصیه میشود کاربران تأثیر محیطزیستی استفاده از مدلهای هوش مصنوعی را لحاظ و در حد امکان از مدلهای کوچکتر، کممصرف و محلی برای وظایف با پیچیدگی کمتر استفاده و تأثیرات محیطزیستی ابزارها را ارزیابی نمایند.
۹. رعایت دستورالعملهای ناشران و کارفرمایان در خصوص بهکارگیری هوش مصنوعی
پژوهشگران موظف هستند پیش از ارسال آثار پژوهشی به ناشران علمی یا ارائه آنها به کارفرمایان از دستورالعملها و سیاستهای مرتبط با استفاده از هوش مصنوعی در هر نهاد یا ناشر اطلاع کامل کسب و آنها را رعایت کنند. برخی ناشران یا سازمانها ممکن است استفاده از هوش مصنوعی را در مراحل خاصی از فرآیند پژوهش، محدود یا مشروط نمایند. عدم رعایت این دستورالعملها میتواند به رد اثر، ابطال انتشار یا پیامدهای حقوقی و اخلاقی منجر شود. بدیهی است ناآگاهی از دستورالعملها از صاحب اثر رفع مسئولیت نمیکند.
۱۰. پایبندی به قوانین مالکیت فکری و قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی
پژوهشگران موظف خواهند بود که کلیه قوانین و مقررات مصوب مجلس شورای اسلامی، وزارت علوم، تحقیقات و فناوری و سایر مراجع ذیصلاح در خصوص موضوع مالکیت فکری، قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی و همچنین منشور و موازین اخلاق پژوهش را مطالعه و رعایت نمایند.»
منبع: راهنمای استفاده از هوش مصنوعی در پژوهش، ویراست نخست. وزارت علوم، تحقیقات و فناوری، مؤسسه تحقیقات سیاست علمی کشور
انتهای پیام




