کارشناسان امنیت سایبری: توقف توسعه مدلهای هوش مصنوعی جدید بیمعنی است
اقتصاد ۱۰۰ - برخلاف رهبران صنعت فناوری که خواستار توقف توسعه هوش مصنوعی به مدت شش ماه شده بودند، کارشناسان امنیت سایبری نظر دیگری دارند.
به گزارش گروه دانش و فناوری به نقل از دیجیاتو، هفته گذشته، گروهی از فعالان فناوری و متخصصان هوش مصنوعی ازجمله ایلان ماسک، با ارائه یک نامه سرگشاده خواستند تا توسعه سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 بهدلیل «خطرات آن برای جامعه و بشریت» به مدت شش ماه متوقف شود. هرچند توقف این روند میتواند به درک بهتر و تنظیم خطرات اجتماعی ایجادشده توسط هوش مصنوعی کمک کند، برخی افراد استدلال کردهاند که این تلاش توسط رقبای برخی رهبران این حوزه مانند OpenAI انجام شده است تا بتوانند در این فضا به رقابت بپردازند.
نظر کارشناسان امنیت سایبری درباره توقف توسعه هوش مصنوعی
با وجود نگرانیهایی که در مورد خطرات اجتماعی ناشی از هوش مصنوعی مولد وجود دارد، بسیاری از کارشناسان امنیت سایبری همچنین اشاره کردهاند که وقفه در توسعه هوش مصنوعی بههیچوجه کمککننده نخواهد بود. درعوض، آنها استدلال کردهاند که این تصمیم فرصت موقتی برای تیمهای امنیتی ایجاد خواهد کرد تا بتوانند روشهای دفاعی خود را توسعه دهند.
یکی از قانعکنندهترین استدلالهایی که علیه توقف تحقیقات هوش مصنوعی ارائه شده است، ادعا میکند که این تصمیم فقط بر فروشندگان تأثیرگذار خواهد بود و نه عوامل تهدید. طبق این استدلال، مجرمان سایبری همچنان توانایی توسعه حملات جدید و همچنین تقویت تکنیکهای تهاجمی خود را خواهند داشت.
«استیو گروبمن»، مدیر ارشد فناوری McAfee، به VentureBeat گفت:
«توقف توسعه نسل بعدی هوش مصنوعی مانع حرکت این فناوری به سمتهای خطرناک نخواهد شد. با پیشرفت فناوری، وجود سازمانها و شرکتهایی با آیین و استانداردهایی که به پیشرفت فناوری ادامه میدهند، برای اطمینان از اینکه از فناوری به مسئولانهترین شکل ممکن استفاده میشود، ضروری است.»
درواقع کارشناسان این صنعت پیشنهاد میکنند که بهجای توقف توسعه مدلهای جدید، تمرکز روی نحوه مدیریت خطرات مرتبط با استفاده مخرب از هوش مصنوعی مولد و ترغیب فروشندگان هوش مصنوعی به شفافیت بیشتر میتواند به کاهش خطرات مربوط به این زمینه کمک بیشتری کند.
ارسال نظر