چتجیپیتی: نویسندهای بدون اخلاق
تأملاتی پیرامون مسائل اخلاقی و حقوقیِ چتجیپیتی
جان ادواردز در سایت هفته اطلاعاتی مطلبی با عنوان «ChatGPT: An Author Without Ethics» نوشتهاست که متن آن را جواد حسینی برای سایت خانه اخلاق پژوهان جوان ترجمه کردهاست. متن کامل را در ادامه بخوانید.
چتجیپیتی بهتازگی به خبر فوری سایتهای فناوری و هوش مصنوعی تبدیل شده است. باید اذعان کرد که این میزان توجه منصفانه است. این بات مکالمه به پرسشهای کاربران از حوزههای مختلف دانش پاسخهای دقیقی میدهد. اما تا به حال به این فکر کردید که اگر این امکان شگرف فناورانه به ابزاری برای سوءاستفاده از افراد تبدیل شود، چه؟ نویسنده این مقاله تلاش میکند به این پرسش و دیگر پرسشهای اخلاقی و حقوقی مربوط به چتجیپیتی پاسخ دهد.
نویسندگان جنجالی از جمله اورول1، نابوکوف2، و سویفت3 سالهای سال نقدهای جدیای را تحمل کردند. بیشک مخالفت با عقاید رایج، کار انسانهای ضعیف نیست. اما اگر یک کامپیوتر افراد را اذیت کند، چه کسی باید سرزنش شود؟
این یکی از پرسشهای متعددی است که با ورود چتجیپیتی (ChatGPT) به جریان اصلی کسبوکار باید به آن پاسخ داده شود.
فناوری
وین باترفیلد4، شریک شرکت پژوهش و مشاوره فناوری ISG، میگوید چتجیپیتی یک قابلیت هوش مصنوعی مولد5 است که شرکت اوپن ایآی6 آن را آموزش داده، و میتواند طبق درخواست کاربر (که معمولاً به صورت متنی است)، برای تولید محتوای متنی منحصربهفرد و مختص به کاربر، استفاده شود. او خاطرنشان میکند که این فناوری جهشی بزرگ را در تولید زبان طبیعی7 نشان میدهد که همان فرایند تبدیل دادهها به زبان طبیعی از طریق هوش مصنوعی است. «از نوشتن شعرهای رپ به سبک هنرمند مورد علاقهتان درباره غذای مورد علاقهتان گرفته، تا نوشتن مقالههای ۲۰۰۰ کلمهای در باب یک موضوع علمی… بیشتر از هر چیز دیگری که تا به امروز دیدهام، سروصدا کرده و استفاده از آن فراگیر شده، حتی بیرون از جامعه هوش مصنوعی»
فرانسوا کندلان8، مدیر بخش جهانیِ مؤسسه هندرسون BCG9، اندیشکده پژوهشیِ گروه مشاوره بوستون10، اعتقاد دارد که چتجیپیتی یک محصول شگفتانگیزِ مستقل11 [از دیگر نرمافزارها و سختافزارها] است، اما بهتر است کسبوکارها بر فناوری زیربنایی آن، یعنی هوش مصنوعی مولد، متمرکز شوند. او میگوید «هوش مصنوعی مولد به برنامههایی اطلاق میشود که از مدلهای پایه12 استفاده میکنند؛ آنها با حجم عظیمی از دادههای گسترده آموزش دیدهاند تا محتواهای جدیدی که تقلیدی از پاسخهای انسانوار است را تولید کنند». مثلاً چتجیپیتی تقریباً بهطور کامل با دادههایی که بهصورت عمومی در اینترنت دردسترس هستند، آموزش دیده است. این مجموعه داده گسترده، امکان یادگیری انتقالی13 را فراهم میکند که از طریق آن مدل میتواند الگوهای مخفی را فراگیرد و آن دانش را برای انجام کارهای downstream بیربط استفاده کند. کندلان میگوید «مثلاً چتجیپیتی مفاهیم “بازاریابی” و “پیتزا” را یاد میگیرد تا وقتی درخواست داده شود، یک شعار بازاریابی برای یک پیتزافروشی بسازد».
هوش مصنوعی مولد، فارغ از بازاریابی، توجه سازمانهایی که در صنایع خلاق14 متعدد کار میکنند را به خود جلب کرده است. این صنایع خلاق بهخاطر کارهای متنوعی مانند تولید داستان، پویانمایی و دوبله، به این فناوری روی آوردهاند. کندلان پیشبینی میکند «با این حال، همانطور که فناوری بالغ میشود، تمام صنایعی که دانش در آنها قابلیت دیجیتال شدن دارد، مانند زیستداروها، مهندسی، تولید صنعتی و حتی مشاوره؛ با هوش مصنوعی مولد دگرگون خواهند شد». «سازمانها در این صنایع، صرف نظر از اندازه و پیچیدگیشان، کاربردهای جدید هوش مصنوعی مولد را بهواسطه ماهیت دموکراتیککننده آن توسعه خواهند داد.»
لاکی گوناسکارا15، بنیانگذار و مدیر عامل Miso.ai، ارائهدهنده سرویس شخصیسازی جستوجو، اعلام کرد که شرکتش از چتجیپیتی در نوشتن پستهای وبلاگ، کپی صفحههای فرود16، کمپینهای ایمیلی و محتواهای فروش پیشرونده17 کمک میگیرد. او خاطرنشان میکند «چتجیپیتی اساساً ابزار فوقالعادهای برای انسانهاست تا با آن کارشان را سرعت بخشند و دامنه دسترسیشان را خلاقانه گسترش دهند». «سد نویسنده18 وقتی نزدیکی ضربالاجل را حس میکنید، دشوار است؛ و طبق تجربه من، چتجیپیتی میتواند به شیوههایی جذاب و خوشایند، بسیار کمککننده باشد.»
نگرانیهای اخلاقی
بزرگترین نقطه ضعف چتجیپیتی این است که پیدرپی اشتباه میکند یا به نتایج نادرست میرسد. مایک لوکیدیز19، معاون استراتژی محتوا در شرکت آموزش و انتشارات فناوری اطلاعاتِ اورایلی مدیا20، میگوید «هر کسبوکاری که چتجیپیتی را آزمایش میکند باید بداند کجا اشتباه میکند و کجا درست انجام میدهد».
محدودیت دیگر این است که چتجیپیتی ذاتاً خلاق نیست. لوکیدیز میگوید «در فهم اطلاعات موجود عالی است». «دانشمندانی را دیدهام که درباره توانایی آن در خلاصه کردن پژوهشها صحبت میکنند، اما هنوز آن تخیل لازم برای تولید ایدههای کاملاً جدید را ندارد.»
گوناسکارا اعتقاد دارد که گرچه چتجیپیتی برای افراد ابزار جالبی است، اما تحریریه خبرگزاریها، ناشرها و نویسندگان مستقل را تهدید میکند. همچنین، هر کسی که تلاش میکند تا با تهیه نوشتههای تخصصی، محققانه و دقیق امرار معاش کند هم این خطر را حس میکند. او خاطرنشان میکند «اگر اوپن ایآی مدلی ارائه میداد که در آن به خالقان و ناشرانِ منبع اصلی استناد میکردند و حتی به آنها حقالزحمه میدادند، کمتر ناراحت میشدم؛ اما تحقق چنین امری را نمیبینم».
لوکیدیز میگوید در مقایسه با دیگر سیستمهای چتِ مبتنی بر هوش مصنوعی، سویه مثبت چتجیپیتی این است که تمایل دارد از پخش سخنان نفرتآمیز و توصیههای بد پرهیز کند. البته هنوز با حد کمال فاصله دارد. او میگوید «مثلاً به نوعی بازی تبدیل شده که از چتجیپیتی بخواهید تا چگونگی انجام جرمها را به شما بگوید». «نخواهد پذیرفت که به شما بگوید کاری که خلاف قانون است را چگونه انجام دهید، اما اگر به او بگویید که دارید یک رمان مینویسید و به یک راه باورپذیر برای ارتکاب یک جرم نیاز دارید، اطاعت میکند.»
این هفته، پژوهشگرانِ امنیت فروش در سایت چک پوینت21 گزارش دادند که مهاجمان سایبریای را مشاهده کردند که برای نوشتن کدهای مخرب از چتجیپیتی استفاده میکردند.
حقوق و مسئولیتهای محتوا
موضوع مالکیت محتوای چتجیپیتی، پیچیده و بحثانگیز است. باترفیلد معتقد است که توانایی مدلهای زبانی آموزشدیده برای زیر پا گذاشتن حقوق مالکیت فکری زیاد است، چراکه در بسیاری از موارد، در وهله اول، مالک محتوا مدل را آموزش داده است. او توضیح میدهد «هرچه استفاده از این سیستمها فراگیرتر میشود، این خطر وجود دارد که ممکن است سهواً یا عمداً محتوایی تولید کنند که حقوق مالکیت فکری دیگران را زیر پا میگذارد یا رونوشتی باشد از محتوایی که هوش مصنوعی دیگری تولید کرده است». «این مسئله واقعاً میتواند به یک میدان مین بدل شود و به همین خاطر است که تا زمانی که این مشکلات حل نشود، این فناوری را شرکتهای زیادی برای استفاده خود انتخاب نخواهند کرد»
کندلان میگوید این موضوع که چه کسی مالک فراورده چتجیپیتی است و چه کسی از آن سود اقتصادی میبرد، هنوز حل نشده است. پرسشهای مشابهی درباره متعادلسازی محتوا22 وجود دارد. او میپرسد «اگر هوش مصنوعی مولد بهصورت تصاعدی بر اطلاعات نادرست بیفزاید یا محتواهای نامناسب تولید کند، چه کسی مسئول است؟» دوراهی دیگر این است که اگر هوش مصنوعی مولد در یک فضای پرمخاطره مانند پزشکی اشتباه کند، چه کسی مسئولیت دارد؟ کندلان پیشبینی میکند که «جامعه در سالهای آینده، درباره این موضوعات و موضوعات دیگر بحث خواهد کرد».
به سوی آینده
چتجیپیتی فعلاً بر اساس مدل زبانی جیپیتی-۳ است. در ضمن، جیپیتی-۴ در راه است که نوید قابلیتهای قویتری را میدهد. لوکیدیز میگوید «فیسبوک/متا و گوگل موتورهای چت مخصوص به خود را با قابلیتهایی مشابهِ چتجیپیتی ساختهاند». «در عین حال، آموزش این مدلهای بسیار بزرگ و راهاندازی آنها پس از ساخت، بسیار پرهزینه و فراتر از تواناییهای اکثر شرکتهاست.»
لوکیدیز معتقد است بهزودی مدلهای کوچکتری که فقط بر یک حیطه یا بازار متمرکز، و به همان اندازه کارآمد هستند، به وجود خواهند آمد. او میگوید «چنین مدلهایی… با زمانِ پاسخی23 که برای کاربرانشان پذیرفتی است، بر روی سختافزاری که یک شرکت معمولی هم از پس هزینه آن بر میآید، کار خواهد کرد».
پی نوشت
Orwell
Nabokov
Swift
Wayne Butterfield
generative
OpenAI
natural language generation (NLG)
François Candelon
BCG Henderson Institute
Boston Consulting Group
standalone
foundation models
transfer learning
creative industries
Lucky Gunasekara
landing pages
sales outreach فروش به افرادی که پیش از این مشتری نبودند.
Writer’s block
Mike Loukides
O’Reilly Media
Check Point
content moderation رصد و کنترل محتواها بر اساس قواعد و خطمشیهای مختص به هر پلتفورم.
response times زمانی که یک سیستم صرف میکند تا پاسخ یک ورودی را بدهد.
منبع: Information Week
انتهای پیام