پاسخ هوش مصنوعی در Stack Overflow ممنوع است

اگر ذر‌ه‌ای در دنیای برنامه نویسی قدم گذاشته باشید، حتما با وبسایت معظم Stack Overflow برخورد داشته‌اید. این وبسایت یکی از مراجع معظم برنامه‌نویسان در زمان گرفتاری و چه‌کنم چه‌کنم است که تمام حوزه‌های برنامه‌نویسی را شامل می‌شود. اکنون این وبسایت، به طور موقت کاربران را از اشتراک گذاری پاسخ هوش مصنوعی در Stack Overflow (که توسط ربات چت هوش مصنوعی ChatGPT در بخش پرسش و پاسخ برای برنامه نویسان انجام می‌شود) منع کرده است.

پاسخ هوش مصنوعی در Stack Overflow ممنوع است

به گزارش گروه دانش و فناوری اقتصاد ۱۰۰ و به نقل از سخت افزارمگ،در ابتدا باید به این نکته اشاره کنیم که مدیران سایت گفتند که این ممنوعیت موقتی است و پس از مشورت با جامعه برنامه‌نویسان، حکم نهایی آن صادر خواهد شد. اما، همانطور که مدیران این وبسایت توضیح دادند، ربات ChatGPT به سادگی تولید پاسخ‌ها را برای کاربران بسیار آسان می‌کند و سایت را با پاسخ‌هایی پر می‌کند که در نگاه اول درست به نظر می‌رسند اما در بررسی دقیق اغلب اشتباه هستند.

ChatGPT یک ربات چت آزمایشی است که توسط OpenAI ایجاد شده و بر اساس مولد متن تکمیل خودکار GPT-3.5 آن کار می‌کند. یک نسخه نمایشی وب برای این ربات هفته گذشته منتشر شد و از آن زمان با استقبال پرشور کاربران در سراسر وب مواجه شد. رابط کاربری ربات افراد را تشویق می کند تا سؤال بپرسند و در عوض نتایج چشمگیری را در طیف وسیعی از پرس‌و‌جوها ارائه می‌دهد. از تولید اشعار، آهنگ‌ها، و اسکریپت‌های تلویزیونی گرفته تا پاسخ به سؤالات بی‌اهمیت و نوشتن و اشکال‌زدایی خطوط کد.

اما در حالی که بسیاری از کاربران تحت تأثیر قابلیت‌های ChatGPT قرار گرفته‌اند، دیگران به تمایل مداوم آن برای ایجاد پاسخ‌های قابل قبول اما نادرست اشاره کرده‌اند. به عنوان مثال از ربات بخواهید که بیوگرافی یک شخصیت عمومی را بنویسد و ممکن است با اطمینان کامل داده‌های بیوگرافی نادرست را وارد کند. از آن بخواهید توضیح دهد که چگونه نرم افزار را برای یک عملکرد خاص برنامه ریزی کند و به طور مشابه می‌تواند کد قابل باور اما در نهایت نادرست تولید کند.

این یکی از چندین نقص شناخته شده مدل‌های تولید متن با هوش مصنوعی است که به عنوان مدل‌های زبان بزرگ یا LLM شناخته می‌شود. این سیستم‌ها با تجزیه و تحلیل الگوها در مجموعه‌های عظیمی از متن تولید شده از وب آموزش می‌بینند. آن‌ها به دنبال نظم‌های آماری در این داده‌ها می‌گردند و از آن‌ها برای پیش‌بینی کلمات بعدی در هر جمله استفاده می‌کنند. با این حال، این بدان معناست که آن‌ها فاقد قوانین سخت‌شده برای نحوه عملکرد سیستم‌های خاص در جهان هستند، که منجر به تمایل آنها به تولید «حمله‌های روان» می‌شود.

با توجه به مقیاس عظیم این سیستم‌ها، نمی‌توان با قطعیت گفت که چند درصد از خروجی آن‌ها نادرست است. اما در مورد وبسایت Stack Overflow، این شرکت در حال حاضر قضاوت کرده است که خطر گمراه کردن کاربران بسیار بیشتر از کمک کردن به آن‌هاست به همین دلیل آن را ممنوع کرده است.

تصمیم Stack Overflow از این نظر قابل توجه است. زیرا کارشناسان در جامعه هوش مصنوعی در حال حاضر در حال بحث در مورد تهدید بالقوه ناشی از این مدل‌های زبان بزرگ هستند. برخی دیگر می‌گویند توانایی این سیستم‌ها برای تولید متن ارزان (با سرعت بالا و دقت کم) در مقیاس بزرگ تنها خطر اشتراک گذاری آن را افزایش می‌دهد.

تا به امروز، شواهد کمی از اثرات مضر مدل‌های LLM در دنیای واقعی وجود دارد. اما این اتفاق اخیر در Stack Overflow از این استدلال حمایت می‌کند که مقیاس این سیستم‌ها واقعاً چالش‌های جدیدی را ایجاد می‌کند.

نگرانی این است که این الگو ممکن است در پلتفرم‌های دیگر نیز تکرار شود و سیل محتوای هوش مصنوعی صدای کاربران واقعی را با داده‌های قابل قبول اما نادرست پر کند. این که دقیقاً چگونه می‌تواند در حوزه‌های مختلف در سراسر وب اجرا شود، به ماهیت دقیق پلتفرم و قابلیت‌های تعدیل آن بستگی دارد. اینکه آیا این مشکلات را می‌توان در آینده با استفاده از ابزارهایی مانند فیلترهای اسپم بهبودیافته کاهش داد یا نه، باید منتظر ماند و دید.

در همین حال، پاسخ‌ها به بیانیه Stack Overflow در تابلوهای بحث و گفتگوی خود سایت و در انجمن‌های مرتبط مانند Hacker News به طور گسترده حمایت می‌شوند و کاربران این هشدار را اضافه می‌کنند که ممکن است برای مدیران Stack Overflow شناسایی پاسخ‌های تولید شده توسط هوش مصنوعی در وهله اول دشوار باشد.

بسیاری از کاربران تجربیات خود را از استفاده از این ربات بازگو کرده‌اند، یکی از افراد در هکر نیوز گفت که پاسخ‌های آن به سوالات مربوط به مشکلات کدگذاری اغلب اشتباه بوده تا درست. این کاربر در ادامه گفت: “بخش ترسناک قضیه این بود که چقدر با اطمینان نادرست بود. متن به نظر خوب است، اما خطاهای بزرگی وجود داشت.”

دیگران مسئله تعدیل هوش مصنوعی را به خود ChatGPT سپردند و از ربات خواستند تا استدلال‌هایی برای و علیه ممنوعیت خود ایجاد کند. 

 

کیف پول من

خرید ارز دیجیتال
به ساده‌ترین روش ممکن!

✅ خرید ساده و راحت
✅ صرافی معتبر کیف پول من
✅ ثبت نام سریع با شماره موبایل
✅ احراز هویت آنی با کد ملی و تاریخ تولد
✅ واریز لحظه‌ای به کیف پول شخصی شما

آیا دلار دیجیتال (تتر) گزینه مناسبی برای سرمایه گذاری است؟

استفاده از ویجت خرید ارز دیجیتال به منزله پذیرفتن قوانین و مقررات صرافی کیف پول من است.



وبگردی

ارسال نظر

 
.

اخبار سلامت

سینما در سینما