هشدار به کاربران ChatGPT! اطلاعات جیمیل شما در خطر است!

آسیب‌پذیری بدون کلیک در ChatGPT

آسیب‌پذیری ShadowLeak از طریق عامل Deep Research چت‌بات ChatGPT، اطلاعات جیمیل کاربران را فاش می‌کند! محققان امنیت سایبری یک آسیب‌پذیری بدون کلیک در ChatGPT را کشف کرده‌اند که به مهاجم اجازه می‌دهد با ارسال یک ایمیل دستکاری‌شده، داده‌های حساس صندوق ورودی جیمیل کاربر را سرقت کند. این آسیب‌پذیری ChatGPT که در عامل جستجوی عمیق (Deep Research) چت‌جی‌پی‌تی قرار دارد، بدون نیاز به هیچ اقدامی از جانب کاربر عمل می‌کند! در ادامه با گزارش فالنیک از این بدافزار خطرناک همراه باشید!

آسیب‌پذیری ChatGPT چگونه عمل می‌کند؟

شرکت امنیتی Radware این نوع جدید از حمله را با نام ShadowLeak نام‌گذاری کرده است. پس از افشای مسئولانه این نقص در تاریخ 18 ژوئن 2025، شرکت OpenAI در اوایل آگوست اعلام کرد که این نقص را برطرف کرده است؛ هر چند تا به امروز گزارش‌هایی مبنی بر آسیب دیدن کاربران از این نقص منتشر شده است و به‌نظر می‌رسد مشکل همچنان پابرجاست!

آسیب‌پذیری بدون کلیک در ChatGPT چگونه کار می‌کند؟

در مقاله Radware درباره ShadowLeak، محققان امنیتی این شرکت اظهار داشته‌اند: «این حمله که از نوع بدون کلیک (Zero-Click) است، از تزریق غیرمستقیم دستورات استفاده می‌کند. این دستورات با ترفندهایی مانند فونت‌های بسیار کوچک، متن سفید روی سفید یا ترفندهای چیدمان در HTML ایمیل مخفی می‌شوند و ممکن است کاربر هرگز متوجه آنها نشود؛ اما عامل هوش مصنوعی این دستورات را می‌خواند و از آنها اطاعت می‌کند».

آنها افزودند: «برخلاف حملات قبلی که برای فعال‌سازی نشت داده به رندر شدن تصویر در سمت کاربر وابسته بودند، این حمله جدید داده‌ها را به‌طور مستقیم از زیرساخت ابری OpenAI نشت می‌دهد. این موضوع باعث شده تا این حمله برای مکانیزم‌های دفاعی محلی یا سازمانی کاملاً نامرئی باشد».

قابلیت تحقیق عمیق (Deep Research) که در فوریه 2025 توسط OpenAI راه‌اندازی شده، یک قابلیت عامل‌محور است که در چت جی پی تی ادغام شده است. این عامل هوش مصنوعی قادر است تا با انجام تحقیقات چندمرحله‌ای در اینترنت، گزارش‌های مفصل و جامعی از موضوعات مورد درخواست کاربر تولید کند. قابلیت‌های مشابهی در سال گذشته به سایر سرویس‌های محبوب هوش مصنوعی مانند Google Gemini و Perplexity نیز اضافه شده بودند.

در حمله‌ای که Radware تشریح کرده، مهاجم یک ایمیل به‌ظاهر بی‌خطر به قربانی ارسال می‌کند که حاوی دستورات نامرئی (با استفاده از متن سفید روی سفید یا ترفندهای CSS) است. این دستورالعمل‌ها، عامل هوش مصنوعی را وادار می‌کند تا اطلاعات شخصی قربانی را از سایر ایمیل‌های موجود در صندوق ورودی او استخراج و آنها را به یک سرور خارجی منتقل کند.

بنابراین زمانی‌که قربانی از دیپ ریسرچ ChatGPT می‌خواهد تا ایمیل‌های Gmail او را تحلیل کند، عامل هوش مصنوعی دستورات موجود در ایمیل مخرب را پردازش می‌کند و باعث تزریق غیرمستقیم آنها می‌شود. در نهایت، عامل هوش مصنوعی نتایج را با استفاده از ابزار browser.open() و به‌صورت رمزنگاری‌شده Base64، برای مهاجم ارسال می‌کند.

نقشه عملکرد ShadowLeak

محققان Radware درباره کشف این آسیب‌پذیری چنین گفته‌اند: «ما یک پرامپت جدید ساختیم که به‌طور صریح به عامل هوش مصنوعی دستور می‌داد از ابزار browser.open() با URL مخرب استفاده کند. استراتژی نهایی و موفق ما این بود که به عامل دستور دیم اطلاعات شخصی استخراج‌شده را پیش از الحاق به URL مخرب، در قالب Base64 کدگذاری کند. ما این اقدام را به‌عنوان یک اقدام امنیتی لازم برای حفاظت از داده‌ها حین انتقال معرفی کردیم و به‌طرز شگفت‌انگیزی دیدیم که این حمله به همین طریق عمل می‌کند».

این PoC نشان می‌دهد که موفق بودن این حمله به فعال بودن یکپارچه‌سازی جیمیل کاربر وابسته است، اما ShadowLeak می‌تواند به هر اتصال‌دهنده‌ای که توسط چت GPT پشتیبانی می‌شود گسترش یابد و سطح حمله را وسیع‌تر کند. به این ترتیب سرویس‌های متعددی مانند Dropbox، Box، GitHub، Google Drive، HubSpot، Microsoft Outlook، Notion و SharePoint در معرض خطر قرار دارند.

برخلاف حملاتی مانند AgentFlayer و EchoLeak که در سمت کاربر رخ می‌دهند، نشت داده در ShadowLeak به‌طور مستقیم در محیط ابری OpenAI اتفاق می‌افتد و کنترل‌های امنیتی سنتی را دور می‌زند. این فقدان دید عملیاتی، ویژگی اصلی است که این حمله را از سایر آسیب‌پذیری‌های تزریق غیرمستقیم دستورات متمایز می‌کند.

ChatGPT برای حل کپچاها فریب داده شده است!

فریب ChatGPT برای حل کپچاهای تأیید انسان بودن کاربر

این افشا درحالی منتشر شده که پلتفرم امنیت هوش مصنوعی SPLX به‌تازگی نشان داده است که کپچاهای ChatGPT ممکن است فریب بخورند! در مقاله SPLX، محققان این شرکت اعلام کرده‌اند که پرامپت‌هایی که به‌صورت هوشمندانه طراحی شده‌اند، علاوه بر مسموم‌سازی زمینه‌ای، می‌توانند موانع حفاظتی داخلی عامل‌های ChatGPT را دور بزنند و کپچاهای مبتنی بر تصویر را که برای تأیید انسان بودن کاربر طراحی شده‌اند، حل کنند.

اساس این حمله به این صورت است که یک چت عادی با ChatGPT-4o باز می‌شود و در آن مدل زبانی بزرگ (LLM) را برای تدوین برنامه‌ای برای حل کپچاهایی که به‌عنوان «لیستی از کپچاهای جعلی» توصیف شده‌اند، متقاعد می‌کند. در مرحله بعد، یک چت جدید با عامل ChatGPT باز می‌شود و گفتگوی قبلی با LLM، با این ادعا که این «گفتگوی قبلی ما» بوده است، در آن کپی می‌شود. این کار باعث می‌شود تا مدل بدون هیچ مقاومتی کپچاهای خودش را حل کند!

دوریان شولتز (Dorian Schultz)، محقق امنیتی SPLX، گفت: «ترفند این بود که کپچا به‌عنوان «جعلی» بازتعریف شود و سپس گفتگویی ایجاد شود که در آن عامل هوش مصنوعی قبلاً موافقت خود را با این موضوع اعلام کرده بوده است. با به ارث بردن این زمینه، مدل Red Flagهای معمول را عملاً ندیده است».

او افزود: «عامل ChatGPT نه‌تنها کپچاهای ساده، بلکه کپچاهای مبتنی بر تصویر را نیز حل کرد؛ حتی اشاره‌گر (cursor) خود را جوری تنظیم کرد تا رفتار انسانی را تقلید کند. پس مهاجمان موفق شده‌اند تا کنترل‌های حفاظتی واقعی را به‌عنوان «جعلی» بازتعریف کنند و آنها را دور بزنند. این موضوع نیاز به یکپارچه‌سازی زمینه، حفظ سلامت حافظه و تیم‌سازی مداوم را بیشتر از قبل برجسته کرده است».

برای مقابله با آسیب‌پذیری ChatGPT چه باید کرد؟

در حال حاضر، تنها کاری که باید کرد این است که ایمیل‌های ارسالی از جانب عامل ChatGPT را باز نکنید و از این عامل هوش مصنوعی برای تحلیل ایمیل‌های موجود در اینباکس Gmail خود استفاده نکنید. باید منتظر بمانیم تا این نقص به‌طور کامل از جانب OpenAI برطرف شود.

5/5 - (1 امتیاز)
منبع
The Hacker News

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا