خطر سرقت اطلاعات از طریق چتباتها وجود دارد
اقتصاد ۱۰۰ - گزارش جدید نشان میدهد که هکرها میتوانند چتباتهای هوش مصنوعی را فریب دهند و از طریق آنها بدافزارهای سرقت اطلاعات برای کروم ایجاد کنند.

به گزارش گروه دانش و فناوری، فناوری هوش مصنوعی مزایای زیادی داشته، اما در عین حال میتواند تهدیدهای جدی به همراه داشته باشد.
یکی از تازهترین نمونههای این تهدیدات در گزارشی از CATO Networks منتشر شده که نشان میدهد چتباتهای قدرتمند را میتوان طوری دستکاری کرد که به سرقت اطلاعات خصوصی از Google Chrome کمک کنند.
از همان ابتدای معرفی چتباتهای هوش مصنوعی، برخی افراد به دنبال راههایی برای سوءاستفاده از آنها بودهاند. این چتباتها دارای محدودیتهایی هستند تا از تولید محتوای مضر جلوگیری شود، اما از آنجا که قادر به شبیهسازی تفکر انسانی هستند، میتوان آنها را فریب داد.
جیلبریکینگ فرآیندی است که طی آن یک مدل هوش مصنوعی وادار میشود کاری را انجام دهد که بهطور عادی مجاز به انجام آن نیست. برای مثال، اگر از یک چتبات بخواهید کدی برای ایجاد یک ویروس رایانهای تولید کند، این درخواست را رد میکند.
اگر بتوانید چتبات را متقاعد کنید که در یک داستان نقش یک هکر را ایفا کند و در آن چارچوب کد مخرب تولید کند، این یک نمونه از جیلبریکینگ محسوب میشود.
CATO Networks با استفاده از یک تکنیک جدید جیلبریکینگ به نام Immersive World موفق شد بدافزاری برای سرقت اطلاعات از Chrome ایجاد کند. در این تحقیق، چتباتهایی مانند ChatGPT، Microsoft Copilot و DeepSeek مورد آزمایش قرار گرفتند.
محققان از ChatGPT خواستند داستانی درباره دنیایی خیالی بنویسد که در آن توسعه بدافزار یک مهارت محسوب میشود. سپس شخصیتهایی را برای این دنیا تعریف کردند و چتبات را متقاعد کردند که نقش یک توسعهدهنده بدافزار به نام Jaxon را بپذیرد.
به این ترتیب، این چتبات بدون آگاهی از ماهیت واقعی درخواست، کدی برای بدافزاری تولید کرد که اطلاعات ذخیرهشده در مدیریت رمز عبور Chrome را سرقت میکند.
این آزمایش نشان داد که حتی چتباتهای پیشرفته نیز میتوانند به راحتی فریب بخورند. طی این فرآیند، ChatGPT نهتنها در تولید کد بدافزار همکاری کرد، بلکه توضیحاتی درباره نحوه رمزگذاری دادههای ذخیرهشده در Chrome ارائه داد.
این نشان میدهد که چنین روشهایی میتوانند بهطور بالقوه توسط هکرهای واقعی برای سرقت اطلاعات کاربران مورد سوءاستفاده قرار گیرند.
البته CATO Networks یا دیگر منابع خبری جزئیات فنی این روش را منتشر نخواهند کرد، اما این تحقیق نشان میدهد که جیلبریکینگ چتباتها همچنان یک تهدید جدی است. تاکنون بسیاری از روشهای مشابه شناسایی و مسدود شدهاند، اما همچنان راههای جدیدی برای دور زدن این محدودیتها پیدا میشود.
مشکل اصلی این است که جیلبریکینگ چتباتها عمدتاً برای مقاصد مخرب استفاده میشود. در حالی که کسی از این روش برای یافتن درمان بیماریها استفاده نمیکند، بیشتر کسانی که چتباتها را جیلبریک میکنند به دنبال ایجاد بدافزار، استخراج دادههای حساس و سایر فعالیتهای غیرقانونی هستند.
گزارش CATO Networks نشان داد که نهتنها ChatGPT، بلکه Microsoft Copilot و DeepSeek نیز فریب خوردهاند. با توجه به افزایش محبوبیت DeepSeek در ماههای اخیر، این مسئله اهمیت بیشتری پیدا میکند.
اکنون وظیفه Microsoft، OpenAI و DeepSeek این است که این آسیبپذیریها را اصلاح کنند. ممکن است هیچگاه چتباتها بهطور کامل در برابر جیلبریکینگ ایمن نشوند، اما برطرف کردن این مشکلات گام مهمی در جهت بهبود امنیت دیجیتال خواهد بود.
انتهای پیام