خرید تور تابستان

ایلان ماسک: هوش مصنوعی خطرناک است و باید قانونمند شود

ایلان ماسک در جلسه‌ای که اخیراً با سرمایه‌گذاران تسلا داشته، درباره هوش مصنوعی ابراز نگرانی کرده است. او اعتقاد دارد که احتمالاً برخی از اقداماتش باعث افزایش سرعت پیشرفت این فناوری خطرناک شده است. ماسک این اظهارات را در پاسخ به سرمایه‌گذاری بیان کرده که از او پرسیده بود هوش مصنوعی می‌تواند در تولید خودروها به کمک این شرکت بیاید یا خیر.

به گزارش دیجیاتو به نقل از اینسایدر، ایلان ماسک در رویداد Investor Day جدید تسلا در پاسخ به سؤال سرمایه‌گذاران اعلام کرد که به نظرش هوش مصنوعی نمی‌تواند به این زودی‌ها به تسلا در تولید خودروها کمک کند. او در ادامه ضمن ابراز نگرانی درباره این فناوری گفت: «کمی از بابت مسائل مربوط به هوش مصنوعی نگرانم. فکر می‌کنم این چیزی است که همه ما باید نگرانش باشیم.»

او درباره نیاز به قانون‌گذاری در این حوزه افزود: «ما به‌نوعی مرجع قانونی یا چیزی شبیه به آن برای نظارت بر توسعه هوش مصنوعی و اطمینان از عملکرد این فناوری در جهت منافع عمومی نیاز داریم.» ماسک اعتقاد دارد که هوش مصنوعی یک فناوری بسیار خطرناک است.

ایلان ماسک هم در توسعه هوش مصنوعی مؤثر بوده؟

این کارآفرین پرحاشیه که اخیراً دوباره ثروتمندترین فرد دنیا شده است، می‌گوید او هم احتمالاً در توسعه سریع هوش مصنوعی نقش داشته است. این اظهارنظر به‌احتمال‌زیاد به نقش ماسک در تأسیس شرکت OpenAI اشاره دارد که حالا با چت‌بات ChatGPT به شهرتی جهانی دست یافته و این صنعت را متحول کرده است.

سخنان اخیر ایلان ماسک شبیه به حرف‌های «میرا موراتی»، مدیر ارشد فناوری OpenAI، است که مدتی قبل گفته بود ابزارهای هوش مصنوعی باید قانونمند شوند؛ چرا که افراد خرابکار در حالت فعلی می‌توانند از آن‌ها سوءاستفاده کنند.

مدیرعامل تسلا در ماه گذشته میلادی در اجلاس دولت‌های جهانی در دبی گفته بود که هوش مصنوعی می‌تواند تهدیدی برای جامعه باشد. او همچنین در سال 2018 گفته بود که از بابت دو چیز بیش از بقیه نگران است: دشواری‌های تولید تسلا مدل 3 و خطرات هوش مصنوعی.

با وجود تمام این گفته‌‌ها، طبق گزارشی، ایلان ماسک می‌خواهد با تشکیل یک تیم از فعالان حوزه هوش مصنوعی، رقیب ChatGPT را توسعه دهد.

بانک صادرات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا