خرید تور نوروزی

چت‌جی‌پی‌تی: نویسنده‌ای بدون اخلاق

تأملاتی پیرامون مسائل اخلاقی و حقوقیِ چت‌جی‌پی‌تی

جان ادواردز در سایت هفته اطلاعاتی مطلبی با عنوان «ChatGPT: An Author Without Ethics» نوشته‌است که متن آن را جواد حسینی برای سایت خانه اخلاق پژوهان جوان ترجمه کرده‌است. متن کامل را در ادامه بخوانید.

چت‌جی‌پی‌تی به‌تازگی به خبر فوری سایت‌های فناوری و هوش مصنوعی تبدیل شده است. باید اذعان کرد که این میزان توجه منصفانه است. این بات مکالمه به پرسش‌های کاربران از حوزه‌های مختلف دانش پاسخ‌های دقیقی می‌دهد. اما تا به حال به این فکر کردید که اگر این امکان شگرف فناورانه به ابزاری برای سوءاستفاده از افراد تبدیل شود، چه؟ نویسنده این مقاله تلاش می‌کند به این پرسش و دیگر پرسش‌های اخلاقی و حقوقی مربوط به چت‌جی‌پی‌تی پاسخ دهد.

نویسندگان جنجالی از جمله اورول1، نابوکوف2، و سویفت3 سال‌های سال نقدهای جدی‌ای را تحمل کردند. بی‌شک مخالفت با عقاید رایج، کار انسان‌های ضعیف نیست. اما اگر یک کامپیوتر افراد را اذیت کند، چه کسی باید سرزنش شود؟

این یکی از پرسش‌های متعددی است که با ورود چت‌جی‌پی‌تی (ChatGPT) به جریان اصلی کسب‌وکار باید به آن پاسخ داده شود.

فناوری

وین باترفیلد4، شریک شرکت پژوهش و مشاوره فناوری ISG، می‌گوید چت‌جی‌پی‌تی یک قابلیت هوش مصنوعی مولد5 است که شرکت اوپن ای‌آی6 آن را آموزش داده، و می‌تواند طبق درخواست کاربر (که معمولاً به صورت متنی است)، برای تولید محتوای متنی منحصربه‌فرد و مختص به کاربر، استفاده شود. او خاطرنشان می‌کند که این فناوری جهشی بزرگ را در تولید زبان طبیعی7 نشان می‌دهد که همان فرایند تبدیل داده‌ها به زبان طبیعی از طریق هوش مصنوعی است. «از نوشتن شعرهای رپ به سبک هنرمند مورد علاقه‌تان درباره غذای مورد علاقه‌تان گرفته، تا نوشتن مقاله‌های ۲۰۰۰ کلمه‌ای در باب یک موضوع علمی… بیشتر از هر چیز دیگری که تا به امروز دیده‌ام، سروصدا کرده و استفاده از آن فراگیر شده، حتی بیرون از جامعه هوش مصنوعی»

فرانسوا کندلان8، مدیر بخش جهانیِ مؤسسه هندرسون BCG9، اندیشکده پژوهشیِ گروه مشاوره بوستون10، اعتقاد دارد که چت‌جی‌پی‌تی یک محصول شگفت‌انگیزِ مستقل11 [از دیگر نرم‌افزارها و سخت‌افزارها] است، اما بهتر است کسب‌وکارها بر فناوری زیربنایی آن، یعنی هوش مصنوعی مولد، متمرکز شوند. او می‌گوید «هوش مصنوعی مولد به برنامه‌هایی اطلاق می‌شود که از مدل‌های پایه12 استفاده می‌کنند؛ آنها با حجم عظیمی از داده‌های گسترده آموزش دیده‌اند تا محتواهای جدیدی که تقلیدی از پاسخ‌های انسان‌وار است را تولید کنند». مثلاً چت‌جی‌پی‌تی تقریباً به‌طور کامل با داده‌هایی که به‌صورت عمومی در اینترنت دردسترس هستند، آموزش دیده است. این مجموعه داده گسترده، امکان یادگیری انتقالی13 را فراهم می‌کند که از طریق آن مدل می‌تواند الگوهای مخفی را فراگیرد و آن دانش را برای انجام کارهای downstream بی‌ربط استفاده کند. کندلان می‌گوید «مثلاً چت‌جی‌پی‌تی مفاهیم “بازاریابی” و “پیتزا” را یاد می‌گیرد تا وقتی درخواست داده شود، یک شعار بازاریابی برای یک پیتزافروشی بسازد».

هوش مصنوعی مولد، فارغ از بازاریابی، توجه سازمان‌هایی که در صنایع خلاق14 متعدد کار می‌کنند را به خود جلب کرده است. این صنایع خلاق به‌خاطر کارهای متنوعی مانند تولید داستان، پویانمایی و دوبله، به این فناوری روی آورده‌اند. کندلان پیش‌بینی می‌کند «با این حال، همانطور که فناوری بالغ می‌شود، تمام صنایعی که دانش در آنها قابلیت دیجیتال شدن دارد، مانند زیست‌داروها، مهندسی، تولید صنعتی و حتی مشاوره؛ با هوش مصنوعی مولد دگرگون خواهند شد». «سازمان‌ها در این صنایع، صرف نظر از اندازه و پیچیدگی‌شان، کاربردهای جدید هوش مصنوعی مولد را به‌واسطه ماهیت دموکراتیک‌کننده آن توسعه خواهند داد.»

لاکی گوناسکارا15، بنیان‌گذار و مدیر عامل Miso.ai، ارائه‌دهنده سرویس شخصی‌سازی جست‌وجو، اعلام کرد که شرکتش از چت‌جی‌پی‌تی در نوشتن پست‌های وبلاگ، کپی صفحه‌های فرود16، کمپین‌های ایمیلی و محتواهای فروش پیش‌رونده17 کمک می‌گیرد. او خاطرنشان می‌کند «چت‌جی‌پی‌تی اساساً ابزار فوق‌العاده‌ای برای انسان‌هاست تا با آن کارشان را سرعت بخشند و دامنه دسترسی‌شان را خلاقانه گسترش دهند». «سد نویسنده18 وقتی نزدیکی ضرب‌الاجل را حس می‌کنید، دشوار است؛ و طبق تجربه من، چت‌جی‌پی‌تی می‌تواند به شیوه‌هایی جذاب و خوشایند، بسیار کمک‌کننده باشد.»

نگرانی‌های اخلاقی

بزرگ‌ترین نقطه ضعف چت‌جی‌پی‌تی این است که پی‌درپی اشتباه می‌کند یا به نتایج نادرست می‌رسد. مایک لوکیدیز19، معاون استراتژی محتوا در شرکت آموزش و انتشارات فناوری اطلاعاتِ اورایلی مدیا20، می‌گوید «هر کسب‌وکاری که چت‌جی‌پی‌تی را آزمایش می‌کند باید بداند کجا اشتباه می‌کند و کجا درست انجام می‌دهد».

محدودیت دیگر این است که چت‌جی‌پی‌تی ذاتاً خلاق نیست. لوکیدیز می‌گوید «در فهم اطلاعات موجود عالی است». «دانشمندانی را دیده‌ام که درباره توانایی آن در خلاصه کردن پژوهش‌ها صحبت می‌کنند، اما هنوز آن تخیل لازم برای تولید ایده‌های کاملاً جدید را ندارد.»

گوناسکارا اعتقاد دارد که گرچه چت‌جی‌پی‌تی برای افراد ابزار جالبی است، اما تحریریه خبرگزاری‌ها، ناشرها و نویسندگان مستقل را تهدید می‌کند. همچنین، هر کسی که تلاش می‌کند تا با تهیه نوشته‌های تخصصی، محققانه و دقیق امرار معاش کند هم این خطر را حس می‌کند. او خاطرنشان می‌کند «اگر اوپن ای‌آی مدلی ارائه می‌داد که در آن به خالقان و ناشرانِ منبع اصلی استناد می‌کردند و حتی به آنها حق‌الزحمه می‌دادند، کمتر ناراحت می‌شدم؛ اما تحقق چنین امری را نمی‌بینم».

لوکیدیز می‌گوید در مقایسه با دیگر سیستم‌های چتِ مبتنی بر هوش مصنوعی، سویه مثبت چت‌جی‌پی‌تی این است که تمایل دارد از پخش سخنان نفرت‌آمیز و توصیه‌های بد پرهیز کند. البته هنوز با حد کمال فاصله دارد. او می‌گوید «مثلاً به نوعی بازی تبدیل شده که از چت‌جی‌پی‌تی بخواهید تا چگونگی انجام جرم‌ها را به شما بگوید». «نخواهد پذیرفت که به شما بگوید کاری که خلاف قانون است را چگونه انجام دهید، اما اگر به او بگویید که دارید یک رمان می‌نویسید و به یک راه باورپذیر برای ارتکاب یک جرم نیاز دارید، اطاعت می‌کند.»

این هفته، پژوهشگرانِ امنیت فروش در سایت چک پوینت21 گزارش دادند که مهاجمان سایبری‌ای را مشاهده کردند که برای نوشتن کدهای مخرب از چت‌جی‌پی‌تی استفاده می‌کردند.

چت‌جی‌پی‌تی: نویسنده‌ای بدون اخلاق
چت‌جی‌پی‌تی: نویسنده‌ای بدون اخلاق

حقوق و مسئولیت‌های محتوا

موضوع مالکیت محتوای چت‌جی‌پی‌تی، پیچیده و بحث‌انگیز است. باترفیلد معتقد است که توانایی مدل‌های زبانی آموزش‌دیده برای زیر پا گذاشتن حقوق مالکیت فکری زیاد است، چراکه در بسیاری از موارد، در وهله اول، مالک محتوا مدل را آموزش داده است. او توضیح می‌دهد «هرچه استفاده از این سیستم‌ها فراگیرتر می‌شود، این خطر وجود دارد که ممکن است سهواً یا عمداً محتوایی تولید کنند که حقوق مالکیت فکری دیگران را زیر پا می‌گذارد یا رونوشتی باشد از محتوایی که هوش مصنوعی دیگری تولید کرده است». «این مسئله واقعاً می‌تواند به یک میدان مین بدل شود و به همین خاطر است که تا زمانی که این مشکلات حل نشود، این فناوری را شرکت‌های زیادی برای استفاده خود انتخاب نخواهند کرد»

کندلان می‌گوید این موضوع که چه کسی مالک فراورده چت‌جی‌پی‌تی است و چه کسی از آن سود اقتصادی می‌برد، هنوز حل نشده است. پرسش‌های مشابهی درباره متعادل‌سازی محتوا22 وجود دارد. او می‌پرسد «اگر هوش مصنوعی مولد به‌صورت تصاعدی بر اطلاعات نادرست بیفزاید یا محتواهای نامناسب تولید کند، چه کسی مسئول است؟» دوراهی دیگر این است که اگر هوش مصنوعی مولد در یک فضای پرمخاطره مانند پزشکی اشتباه کند، چه کسی مسئولیت دارد؟ کندلان پیش‌بینی می‌کند که «جامعه در سال‌های آینده، درباره این موضوعات و موضوعات دیگر بحث خواهد کرد».

به سوی آینده

چت‌جی‌پی‌تی فعلاً بر اساس مدل زبانی جی‌پی‌تی-۳ است. در ضمن، جی‌پی‌تی-۴ در راه است که نوید قابلیت‌های قوی‌تری را می‌دهد. لوکیدیز می‌گوید «فیس‌بوک/متا و گوگل موتورهای چت مخصوص به خود را با قابلیت‌هایی مشابهِ چت‌جی‌پی‌تی ساخته‌اند». «در عین حال، آموزش این مدل‌های بسیار بزرگ و راه‌اندازی آنها پس از ساخت، بسیار پرهزینه و فراتر از توانایی‌های اکثر شرکت‌هاست.»

لوکیدیز معتقد است به‌زودی مدل‌های کوچک‌تری که فقط بر یک حیطه یا بازار متمرکز، و به همان اندازه کارآمد هستند، به وجود خواهند آمد. او می‌گوید «چنین مدل‌هایی… با زمانِ پاسخی23 که برای کاربران‌شان پذیرفتی است، بر روی سخت‌افزاری که یک شرکت معمولی هم از پس هزینه آن بر می‌آید، کار خواهد کرد».

پی نوشت

Orwell
Nabokov
Swift
Wayne Butterfield
generative
OpenAI
natural language generation (NLG)
François Candelon
BCG Henderson Institute
Boston Consulting Group
standalone
foundation models
transfer learning
creative industries
Lucky Gunasekara
landing pages
sales outreach فروش به افرادی که پیش از این مشتری نبودند.
Writer’s block
Mike Loukides
O’Reilly Media
Check Point
content moderation رصد و کنترل محتواها بر اساس قواعد و خط‌مشی‌های مختص به هر پلتفورم.
response times زمانی که یک سیستم صرف می‌کند تا پاسخ یک ورودی را بدهد.

منبع: Information Week

انتهای پیام

بانک صادرات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا