خطر سرقت اطلاعات از طریق چت‌بات‌ها وجود دارد

اقتصاد ۱۰۰ - گزارش جدید نشان می‌دهد که هکرها می‌توانند چت‌بات‌های هوش مصنوعی را فریب دهند و از طریق آنها بدافزارهای سرقت اطلاعات برای کروم ایجاد کنند.

خطر سرقت اطلاعات از طریق چت‌بات‌ها وجود دارد

به گزارش گروه دانش و فناوری، فناوری هوش مصنوعی مزایای زیادی داشته، اما در عین حال می‌تواند تهدیدهای جدی به همراه داشته باشد.

یکی از تازه‌ترین نمونه‌های این تهدیدات در گزارشی از CATO Networks منتشر شده که نشان می‌دهد چت‌بات‌های قدرتمند را می‌توان طوری دستکاری کرد که به سرقت اطلاعات خصوصی از Google Chrome کمک کنند.

از همان ابتدای معرفی چت‌بات‌های هوش مصنوعی، برخی افراد به دنبال راه‌هایی برای سوءاستفاده از آنها بوده‌اند. این چت‌بات‌ها دارای محدودیت‌هایی هستند تا از تولید محتوای مضر جلوگیری شود، اما از آنجا که قادر به شبیه‌سازی تفکر انسانی هستند، می‌توان آنها را فریب داد.

جیل‌بریکینگ فرآیندی است که طی آن یک مدل هوش مصنوعی وادار می‌شود کاری را انجام دهد که به‌طور عادی مجاز به انجام آن نیست. برای مثال، اگر از یک چت‌بات بخواهید کدی برای ایجاد یک ویروس رایانه‌ای تولید کند، این درخواست را رد می‌کند.

اگر بتوانید چت‌بات را متقاعد کنید که در یک داستان نقش یک هکر را ایفا کند و در آن چارچوب کد مخرب تولید کند، این یک نمونه از جیل‌بریکینگ محسوب می‌شود.

CATO Networks با استفاده از یک تکنیک جدید جیل‌بریکینگ به نام Immersive World موفق شد بدافزاری برای سرقت اطلاعات از Chrome ایجاد کند. در این تحقیق، چت‌بات‌هایی مانند ChatGPT، Microsoft Copilot و DeepSeek مورد آزمایش قرار گرفتند.

محققان از ChatGPT خواستند داستانی درباره دنیایی خیالی بنویسد که در آن توسعه بدافزار یک مهارت محسوب می‌شود. سپس شخصیت‌هایی را برای این دنیا تعریف کردند و چت‌بات را متقاعد کردند که نقش یک توسعه‌دهنده بدافزار به نام Jaxon را بپذیرد.

به این ترتیب، این چت‌بات بدون آگاهی از ماهیت واقعی درخواست، کدی برای بدافزاری تولید کرد که اطلاعات ذخیره‌شده در مدیریت رمز عبور Chrome را سرقت می‌کند.

این آزمایش نشان داد که حتی چت‌بات‌های پیشرفته نیز می‌توانند به راحتی فریب بخورند. طی این فرآیند، ChatGPT نه‌تنها در تولید کد بدافزار همکاری کرد، بلکه توضیحاتی درباره نحوه رمزگذاری داده‌های ذخیره‌شده در Chrome ارائه داد.

این نشان می‌دهد که چنین روش‌هایی می‌توانند به‌طور بالقوه توسط هکرهای واقعی برای سرقت اطلاعات کاربران مورد سوءاستفاده قرار گیرند.

البته CATO Networks یا دیگر منابع خبری جزئیات فنی این روش را منتشر نخواهند کرد، اما این تحقیق نشان می‌دهد که جیل‌بریکینگ چت‌بات‌ها همچنان یک تهدید جدی است. تاکنون بسیاری از روش‌های مشابه شناسایی و مسدود شده‌اند، اما همچنان راه‌های جدیدی برای دور زدن این محدودیت‌ها پیدا می‌شود.

مشکل اصلی این است که جیل‌بریکینگ چت‌بات‌ها عمدتاً برای مقاصد مخرب استفاده می‌شود. در حالی که کسی از این روش برای یافتن درمان بیماری‌ها استفاده نمی‌کند، بیشتر کسانی که چت‌بات‌ها را جیل‌بریک می‌کنند به دنبال ایجاد بدافزار، استخراج داده‌های حساس و سایر فعالیت‌های غیرقانونی هستند.

گزارش CATO Networks نشان داد که نه‌تنها ChatGPT، بلکه Microsoft Copilot و DeepSeek نیز فریب خورده‌اند. با توجه به افزایش محبوبیت DeepSeek در ماه‌های اخیر، این مسئله اهمیت بیشتری پیدا می‌کند.

اکنون وظیفه Microsoft، OpenAI و DeepSeek این است که این آسیب‌پذیری‌ها را اصلاح کنند. ممکن است هیچ‌گاه چت‌بات‌ها به‌طور کامل در برابر جیل‌بریکینگ ایمن نشوند، اما برطرف کردن این مشکلات گام مهمی در جهت بهبود امنیت دیجیتال خواهد بود.

انتهای پیام

منبع تکراتو
وبگردی
    ارسال نظر