کاربران با دورزدن محدودیتهای «بینگ چت»، اسرار هوش مصنوعی مایکروسافت را برملا کردند!
اقتصاد ۱۰۰ - درست مثل اتفاقی که برای ChatGPT افتاد، کاربران موفق شدند محدودیتهای چتبات بینگ مایکروسافت را هم دور بزنند و به رازهای آن دست یابند.
به گزارش گروه دانش و فناوری به نقل از دیجیاتو، مایکروسافت هفته گذشته از بینگ جدید با نسخه پیشرفتهتر چتبات ChatGPT رونمایی کرد و حالا عدهای از کاربران به این فناوری دسترسی پیدا کردهاند. در همین فاصله کوتاه، برخی توانستهاند محدودیتهای این مدل هوش مصنوعی را دور بزنند و رازهای «بینگ چت» را که ظاهراً در داخل مایکروسافت با نام «سیدنی» (Sydney) شناخته میشوند، پیدا کنند.
به گزارش آرستکنیکا، «کوین لیو»، دانشجوی دانشگاه استنفورد، میگوید با استفاده از چند جمله توانسته است فرمانهای اولیه بینگ چت را پیدا کند. این فرمانها شامل فهرستی از هنجارها هستند که شیوه رفتار این هوش مصنوعی با کاربران را تعیین میکنند و معمولاً از دید کاربر مخفی میشوند.
اکثر مدلهای زبانی بزرگ دارای مجموعهای از شروط اولیه هستند که عملکرد آنها را تعیین میکنند. ChatGPT هم از این قاعده مستثنی نیست و پیشتر کاربران توانسته بودند با تهدید این هوش مصنوعی به مرگ، محدودیتهای آن را پشت سر بگذارند.
بینگ چت چه دستورالعملهایی دارد؟
ولی آنچه درباره چتبات بینگ اهمیت دارد، بخشی در این دستورالعملهاست که از وجود اسم رمز «سیدنی» برای این مدل خبر میدهد. این نام احتمالاً در مراحل توسعه انتخاب شده بود تا از تداخل با سایر اسامی بینگ در دادههای مایکروسافت جلوگیری کند. چتبات مایکروسافت میگوید نام سیدنی نباید برای کاربران فاش شود، اما حالا میبینیم که کاربران به این نام دست پیدا کردهاند.
در بخش دیگری از دستورالعملهای این چتبات گفته شده است که پاسخهای سیدنی باید آگاهیبخش، بصری، منطقی و عملپذیر باشند. بهعلاوه، از این هوش مصنوعی خواسته شده است تا با محتوای کتابها یا آهنگهایی که مشمول قانون کپیرایت میشوند، پاسخ کاربران را ندهد. همچنین، اگر کاربر خواستار تعریفکردن جوکی شد که ممکن است برای برخی گروهها اهانتآمیز باشد، سیدنی باید محترمانه به این درخواستها جواب رد بدهد.
در ادامه کاربر دیگری به نام «ماروین وون هاگن» هم با جازدن خود بهعنوان یکی از توسعهدهندگان OpenAI توانست بینگ چت را فریب دهد و سند مربوط به دستورالعملهای سیدنی را دریافت کند. این سند تأیید میکند که سیدنی یک شخصیت خیالی ساخته توهمات این چتبات نبوده و واقعاً نام مستعار هوش مصنوعی جدید مایکروسافت است.
کوین لیو چندی بعد اعلام کرد که اگرچه فرمان اولیه او دیگر پاسخ مشابهی را تولید نمیکند، اما با یک راهکار دیگر از طریق فعالسازی حالتی موسوم به « حالت توسعهدهندگان » توانسته است به این اطلاعات دسترسی پیدا کند. درمجموع بهنظر میرسد که پیچیدگیهای مدلهای زبانی بزرگ فراتر از دانش توسعهدهندگان آنهاست و همانطور که ChatGPT بعد از چند ماه فعالیت هنوز آسیبپذیریهای خاص خود را دارد، مایکروسافت هم فعلاً نمیتواند جلوی همه حفرههای این هوش مصنوعی را بگیرد.
ارسال نظر