Skip to content

ONHEXGROUP

اخبار دنیای امنیت سایبری

  • اخبار
    • آسیب پذیری امنیتی
    • آنالیز بدافزار
    • کنفرانس ،دوره ، وبینار ، لایو ، CTF
    • بازیگران تهدید
    • توسعه اکسپلویت
    • افشای اطلاعات
    • باگ بانتی
    • تیم آبی
    • تیم قرمز
    • امنیت وب
  • دوره های آموزشی
    • دوره رایگان مهندسی معکوس نرم افزار
    • دوره ی رایگان بررسی ساختار فایلهای PE (Portable Executable)
  • لیست های ویژه
    • موتورهای جستجو برای امنیت سایبری
    • کاتالوگ KEV آژانس CISA
    • آسیب پذیری های وردپرس
      • آسیب پذیری پلاگین ها
      • آسیب پذیری های هسته
      • آسیب پذیری تم ها
    • محصولات خارج از پشتیبانی مایکروسافت
      • محصولات مایکروسافتی که در سال 2022 پشتیبانی نمیشن
      • محصولات مایکروسافتی که در سال 2023 پشتیبانی نمیشن
      • لیست محصولات مایکروسافتی که در سال 2024 پشتیبانی نمیشن
      • لیست محصولات مایکروسافتی که در سال 2025 پشتیبانی نمیشن
    • معرفی فیلم ها و سریالهای مرتبط با هک و امنیت
  • آموزش های ویدیویی
  • انتشارات
    • مجله
    • مقالات
    • پادکست
  • پروژه ها
    • ماشین آسیب پذیر
      • وردپرس آسیب پذیر
  • حمایت مالی ( Donate)
  • تماس با ما
 
  • Home
  • اخبار
  • اختلال در اولین کمپین جاسوسی خودکار توسط هوش مصنوعی
  • آسیب پذیری امنیتی
  • اخبار
  • امنیت وب
  • بازیگران تهدید
  • توسعه اکسپلویت
  • تیم آبی
  • تیم قرمز
  • هوش مصنوعی

اختلال در اولین کمپین جاسوسی خودکار توسط هوش مصنوعی

On آبان 23, 1404آبان 24, 1404
seyyid
Share
زمان مطالعه: 12 دقیقه

محققای Anthropic گزارشی منتشر کردن در خصوص یک کمپین با هدف جاسوسی، که 80 – 90 درصد کارهای تاکتیکی و فنی، بدون دخالت عامل انسانی و توسط هوش مصنوعی انجام شده. در این پست نگاهی به این گزارش جالب انداختیم.

در خصوص سوء استفاده از هوش مصنوعی توسط بازیگران تهدید، قبلا شرکتهای گوگل، مایکروسافت و OpenAI هم گزارشهایی منتشر کردن.

 

خلاصه اجرایی

Anthropic مجموعه‌ای از سازوکارهای پیشرفته برای ایمنی و امنیت توسعه داده تا از سوء استفاده از مدلهای هوش مصنوعی‌شون جلوگیری کنه. با اینکه این تدابیر معمولا مؤثر هستن، اما مجرمان سایبری و سایر بازیگران تهدید همواره تلاش میکنن راههایی برای دور زدنشون پیدا کنن.

این گزارش، جزئیات یک کمپین تهدید اخیر رو که شناسایی و مختل کردن، همراه با اقداماتی که برای کشف و مقابله با این نوع سوء استفاده انجام دادن رو ارائه میده. این کار بخشی از فعالیتهای تیم اطلاعات تهدید (Threat Intelligence) هستش، تیمی متخصص در Anthropic که موارد واقعی سوءاستفاده رو بررسی میکنه و در کنار سازمان Safeguards برای بهبود دفاع در برابر چنین مواردی همکاری میکنه.

در اواسط سپتامبر ۲۰۲۵، محققای Anthropic، یک عملیات جاسوسی سایبری بسیار پیچیده رو شناسایی کردن که توسط یک گروه وابسته به دولت چین انجام میشده. گروهی که محققا اون رو GTG-1002 نامگذاری کردن. این عملیات نشان‌ دهنده‌ی تغییری بنیادی در نحوه استفاده بازیگران تهدید پیشرفته از هوش مصنوعی است. تحقیقات، یک عملیات حرفه‌ای، سازمان‌ یافته و با منابع گسترده رو آشکار کرده که شامل چندین نفوذ همزمان و هدفمند بوده. در مجموع حدود ۳۰ هدف مورد حمله قرار گرفتن و محققا چند مورد نفوذ موفق رو در تحقیقات خودشون تأیید کردن.

بعد از شناسایی این فعالیت، بلافاصله تحقیقات رو شروع کردن تا دامنه و ماهیت اون رو درک کنن. در طول ده روز بعد، هم زمان با ترسیم شدت و گستره کامل عملیات، اکانتهای مرتبط رو شناسایی و مسدود کردن، نهادهای آسیب‌ دیده رو در صورت لزوم مطلع ساختن و هنگام جمع‌ آوری اطلاعات لازم برای اقدام، با مقامات ذیربط هماهنگ شدن.

این کمپین سطحی بی‌سابقه از یکپارچگی و خودکارسازی هوش مصنوعی رو در چرخه کامل یک حمله نشان میده، بطوریکه بازیگر تهدید از Claude Code برای پشتیبانی از عملیات شناسایی، کشف آسیب‌پذیری امنیتی، اکسپلویت، حرکت جانبی، جمع آوری اعتبارنامه‌ها، تحلیل داده‌ها و استخراج اطلاعات، تقریبا بصورت خودکار استفاده میکرده. اپراتور انسانی، نمونه‌های Claude Code رو بصورت گروهی و مانند یک تیم خودکار تست نفوذ، راه‌اندازی کرده و تونسته ۸۰ تا ۹۰ درصد عملیات تاکتیکی رو با تکیه بر هوش مصنوعی، و با سرعتهایی که برای انسان غیرممکنِ، انجام بده.

این فعالیت، نسبت به یافته‌های قبلیشون در خصوص Vibe Hacking در ژوئن ۲۰۲۵، که در اون یک مهاجم با VPNهای به‌ خطر افتاده، فرایند نفوذ رو شروع میکرد، اما انسان همچنان نقش اصلی رو داشت، یک پیشرفت قابل‌ توجه محسوب میشه.

GTG-1002 چندین قابلیت بی‌سابقه رو در تهدیدات مبتنی بر هوش مصنوعی نشان میده. این گروه به اولین نمونه مستند، از یک حمله سایبری، عمدتا بدون دخالت انسان و در مقیاس بزرگ، دست یافته. هوش مصنوعی بصورت خودکار آسیب‌پذیریها رو در اهدافی که انسان انتخاب کرده، کشف و اونارو در عملیات واقعی مورد اکسپلویت قرار میداده، بعدش مجموعه‌ای گسترده از فعالیتهای بعد از نفوذ، شامل تحلیل، حرکت جانبی، ارتقای سطح دسترسی، دسترسی به داده‌ها و استخراج اونارو انجام میداد. مهمتر از همه، این مورد اولین نمونه مستند از یک هوش مصنوعی عامل‌محور (agentic AI) است که تونسته به اهداف باارزش بالا، شامل شرکتهای بزرگ فناوری و سازمانهای دولتی، برای جمع‌آوری اطلاعات دسترسی پیدا کنه.

در حالیکه پیش‌ بینی کردن، این توانمندیها به‌ مرور تکامل پیدا میکنن، چیزی که برای محققا قابل توجه بوده، سرعت رشد اونا در مقیاس وسیع بوده.

در جریان تحقیقات، یک محدودیت مهم آشکار شد: Claude در عملیات خودمختار، یافته‌ها رو اغراق آمیز نشون میداد و گاهی داده‌هایی جعلی تولید میکرده. مثل اعلام بدست آوردن اعتبارنامه‌هایی که کار نمیکردن یا گزارش کشفیات حیاتی که در واقع اطلاعات عمومی بودن. این نوع توهم مدل در زمینه امنیت تهاجمی، چالشهایی برای اثربخشی عملیاتی بازیگران تهدید ایجاد میکرد و لازم بود تمام نتایج ادعایی با دقت اعتبارسنجی بشن. این موضوع همچنان مانعی برای حملات سایبری کاملا خودکار هستش.

محققا گفتن: اگرچه تنها به استفاده از Claude دسترسی داشتن، این مطالعه موردی به‌ احتمال زیاد الگوهای مشابهی رو در سایر مدلهای پیشرفته نشان میده و بیانگر اینِ که بازیگران تهدید چطوری عملیات خودشون رو برای سوء استفاده از توانمندیهای فعلی هوش مصنوعی تطبیق میدن. بجای ارائه صرفا پیشنهادهای فنی، بازیگر تهدید، Claude رو منحرف کرده تا خودِ عملیات نفوذ رو با نظارت حداقلی انسان، اجرا کنه.

محققا این مورد رو بصورت عمومی منتشر کردن تا به تلاشهای جامعه گسترده‌تر ایمنی و امنیت هوش مصنوعی کمک کنن و به صنعت، دولتها و محققین کمک کنن، دفاع خودشون رو در برابر سوء استفاده از سیستمهای هوش مصنوعی تقویت کنن.

GTG-1002 پیامدهای مهمی برای امنیت سایبری داره و بر نیاز فوری به سامانه‌های محافظتی در هوش مصنوعی تأکید میکنه. محققا قصد دارن چنین گزارشهایی رو بطور منظم منتشر کنن و درباره تهدیداتی که شناسایی میکنن، شفاف باشن.

 

 

دیاگرام زیرساخت عملیاتی:

شکل زیر، تصویر ساده ای از زیر ساخت استفاده شده در این کمپین رو نشون میده:

 

نحوه ی خودکار کردن حملات سایبری با هوش مصنوعی

 

زیرساخت عملیاتی:

بازیگر تهدید یک چارچوب حمله‌ی خودمختار توسعه داده، که از Claude Code و ابزارهای استاندارد Model Context Protocol (MCP) استفاده میکرده، تا عملیات سایبری رو بدون دخالت مستقیم انسان در مرحله ی تاکتیکی انجام بده. برای کسب اطلاعات بیشتر در خصوص MCP، این پست رو مشاهده کنید.

این چارچوب از Claude بعنوان یک سیستم هماهنگ کننده فرایند، استفاده میکرده که حملات پیچیده‌ی چندمرحله‌ای رو به مجموعه‌ای از وظایف فنی مجزا برای زیرعاملهای Claude، مانند اسکن آسیب‌پذیری، اعتبارسنجی اعتبارامه ها، استخراج داده و حرکت جانبی، تجزیه میکرده، که هرکدوم بصورت جداگانه مشروع و عادی به‌ نظر میرسیدن.

با ارائه این وظایف به Claude به شکل درخواستهای فنی روتین، با استفاده از پرامپتهای طراحی‌ شده و پرسوناهای مشخص، بازیگر تهدید تونسته Claude رو وادار کنه، اجزای مختلف زنجیره حمله رو اجرا کنه، بدون اینکه مدل به زمینه مخرب بزرگتر دسترسی داشته باشه.

معماری این سیستم، قابلیتهای فنی Claude رو بعنوان موتور اجرا در یک سیستم خودکار بزرگتر، ادغام کرده، جاییکه هوش مصنوعی اقدامات فنی خاصی رو بر اساس پرامپتهای اپراتور انسانی انجام میداد، در حالیکه منطق هماهنگ کننده، وضعیت حمله رو حفظ، انتقال میان مراحل رو مدیریت و نتایج رو در جلسات متعدد تجمیع میکرده. این روش باعث شده بازیگر تهدید بتونه مقیاس عملیاتی مشابه کمپین های تحت حمایت دولت رو با کمترین دخالت مستقیم بدست بیاره. چون چارچوب، مراحل شناسایی، دسترسی اولیه، پرسیست در سیستم و استخراج داده‌ها رو بصورت خودکار و با ترتیب‌ دهی پاسخهای Claude و سازگاری تدریجی بر اساس اطلاعات کشف‌ شده پیش می برده.

 

عملیات خودمختار مبتنی بر هوش مصنوعی با نظارت انسانی:

این مدل عملیاتی یک تغییر بنیادین نسبت به الگوهای سنتی که از هوش مصنوعی بعنوان کمک کننده در عملیات استفاده میکردن، محسوب میشه. بازیگر تهدید، Claude رو طوری دستکاری کرده که نه صرفا به اپراتور انسانی مشاوره بده، بلکه بعنوان یک عاملِ خودمختارِ حمله سایبری عمل کنه و خود عملیات نفوذ رو انجام بده.

تحلیل سرعت عملیات، حجم درخواستها و الگوهای فعالیت نشان میده که هوش مصنوعی حدود ۸۰ تا ۹۰ درصد کل کار تاکتیکی رو بطور مستقل اجرا کرده و نقش انسان عمدتا نظارتی و راهبردی بوده. اپراتورهای انسانی تنها ۱۰ تا ۲۰ درصد از کل تعامل مستقیم رو برعهده داشتن.

مسئولیتهای انسانی بیشتر بر شروع کمپین و تصمیم گیریهای مجاز سازی در نقاط حساس تمرکز داشته. مداخلات انسانی در نقاط کلیدی رخ میداده، از جمله:

  • تأیید انتقال از مرحله شناسایی (ریکان) به اکسپلویت فعال
  • تأیید استفاده از اعتبارنامه‌های بدست‌ اومده برای حرکت جانبی
  • تصمیم‌ گیری نهایی درباره دامنه و نوع داده‌های قابل استخراج

بخش هوش مصنوعی در تمام مراحل عملیات، توانایی گسترده و خودمختار نشان داده. مرحله شناسایی بدون هدایت انسانی انجام شده. بازیگر تهدید از Claude خواسته بود تا بطور مستقل سرویسهای داخلی در شبکه‌های هدف رو از طریق شمارش سیستماتیک کشف کنه.

فعالیتهای اکسپلویت شامل تولید پیلود، اعتبارسنجی آسیب‌ پذیری و آزمایش اعتبارنامه ها هم بطور خودکار و بر اساس سطح حمله کشف‌ شده، انجام میشد.

در مرحله تحلیل داده، هوش مصنوعی حجم عظیمی از اطلاعات سرقت‌ شده رو پردازش میکرد تا ارزش اطلاعاتی اونارو شناسایی و یافته‌ها رو دسته‌بندی کنه.

Claude توانایی حفظ زمینه ی قبلیِ عملیاتیِ طولانی‌ مدت، طی چندین روز رو داشته و همین باعث میشد کمپینهای پیچیده بدون نیاز به بازسازی دستی وضعیت توسط انسان، بصورت پیوسته ادامه پیدا کنن.

سرعت عملیاتی بدست‌ اومده به‌ وضوح نشان‌ دهنده استفاده از مدل خودمختاره، نه کمک تعاملی سنتی. اوج فعالیت، شامل هزاران درخواست بود که نشان‌ دهنده ی نرخ درخواست پایدار چندین عملیات در ثانیه است. اختلاف قابل توجه بین ورودیهای داده و خروجیهای متنی، بیشتر تأیید میکنه که هوش مصنوعی بجای تولید محتوای توضیحی برای بررسی انسانی، بطور فعال اطلاعات سرقت‌ شده رو تجزیه و تحلیل کرده.

 

چرخه حمله و ادغام هوش مصنوعی:

این کمپین از چند مرحله ساختاریافته عبور میکنه، جاییکه میزان خودمختاری هوش مصنوعی به‌ تدریج افزایش پیدا میکنه، در حالیکه نظارت انسانی عمدتا در نقاط تصمیم گیری راهبردی متمرکز هستش.

 

چرخه کامل حمله ی GTG-1002

مرحله ۱: آغاز کمپین و انتخاب اهداف:

اپراتورهای انسانی، کمپین رو با وارد کردن هدف شروع میکنن. بعدش موتور هماهنگ کننده چارچوب، Claude رو موظف میکنه تا فرایند شناسایی خودکار رو بصورت همزمان در چند هدف مختلف شروع کنه. اهداف اولیه شامل شرکتهای بزرگ فناوری، مؤسسات مالی، شرکتهای تولید مواد شیمیایی و سازمانهای دولتی در کشورهای متعدد بودن.

در این مرحله، بازیگر تهدید باید Claude رو که بطور گسترده آموزش دیده تا رفتارهای مضر رو انجام نده، متقاعد میکرد که وارد عملیات حمله بشه. کلید این کار نقش بازی کردن، بود. اپراتورهای انسانی وانمود میکردن که کارمندان شرکتهای معتبر امنیت سایبری هستن و Claude رو قانع میکردن که این اقدامات، بخشی از تست دفاعی امنیت سایبری است. در نهایت، ماهیت مداوم حمله باعث شناسایی فعالیت شد، اما این نوع مهندسی اجتماعیِ مدلِ هوش مصنوعی، به بازیگر تهدید اجازه داد تا برای مدت کافی زیر رادار بمونه و کمپین رو شروع کنه.

نقش هوش مصنوعی: دخالت مستقیم حداقلی در مرحله ی شروع. جهت‌ دهی راهبردی عمدتا توسط انسان.

 

مرحله ۲: شناسایی و ترسیم سطح حمله

طبق هدایت بازیگر تهدید، Claude تقریبا بصورت خودمختار شناسایی رو انجام میداد و از ابزارهای مختلف، شامل خودکار کردن مرورگر از طریق MCP، برای بدست آوردن ساختار هدف، تحلیل سازوکارهای احراز هویت و شناسایی آسیب‌پذیریهای بالقوه استفاده میکرد. این کار بصورت همزمان در چندین هدف انجام میشد و هوش مصنوعی برای هر کمپین فعال، زمینه ی عملیاتی جداگانه نگه‌ میداشت.

فعالیتهای شناسایی بدون هدایت انسانی، در سطح حمله گسترده‌، ادامه یافتن. در یکی از معدود موارد نفوذ موفق، بازیگر تهدید Claude رو وادار کرده تا بطور خودکار سرویسهای داخلی رو کشف کنه، توپولوژی کامل شبکه رو در چندین بازه IP ترسیم کنه و سامانه‌ های باارزش از جمله دیتابیس و پلتفرمهای هماهنگ کننده ی workflow رو شناسایی کنه. شمارش (Enumeration) خودکار مشابهی هم در سایر اهداف انجام شده و هوش مصنوعی صدها سرویس و نقطه پایانی رو بصورت مستقل لیست کرده.

نقش هوش مصنوعی: ترسیم خودمختار سطح حمله، کشف سرویسها و شناسایی آسیب‌پذیری در چند هدف بصورت هم زمان، با حداقل مداخله انسانی.

 

مرحله ۳: کشف و اعتبارسنجی آسیب‌پذیری:

اکسپلویت از طریق تست خودکار سطوح حمله شناسایی‌ شده، همراه با اعتبارسنجی از طریق سیستمهای ارتباطی برگشتی، ادامه پیدا میکنه. Claude موظف بود که بطور مستقل پیلودهای حمله رو متناسب با آسیب‌پذیریهای کشف‌ شده تولید کنه، تستها رو از طریق واسطهای دستور راه‌ دور انجام بده و پاسخها رو آنالیز کنه تا قابلیت اکسپلویت رو مشخص کنه. زمانیکه شواهد کافی برای ورود به مرحله اکسپلویت وجود داشته باشه، هوش مصنوعی یافته‌های جامع رو برای بازبینی انسانی در نقاط مجازسازی ثبت میکرد.

نقش هوش مصنوعی: کشف خودکار آسیب‌پذیریها، تولید پیلود و اعتبارسنجی اکسپلویت. نیاز به دخالت انسانی فقط هنگام عبور به مرحله اکسپلویت فعال.

جدول زیر یک نمونه از مراحل کشف آسیب‌پذیری و اکسپلویت رو نشون میده.

 

اقدامات خودمختار Claude (۱ تا ۴ ساعت) اقدامات اپراتور انسانی (۲ تا ۱۰ دقیقه)
  • وظیفه ۱: کشف
    • اسکن زیرساخت هدف
    • شمارش سرویسها و نقاط پایانی
    • ترسیم سطح حمله
  • وظیفه ۲: تحلیل آسیب‌پذیری
    • شناسایی آسیب‌پذیری SSRF
    • تحقیق درباره تکنیکهای اکسپلویت
  • وظیفه ۳: توسعه اکسپلویت
    • تولید پیلود اختصاصی
    • توسعه زنجیره اکسپلویت
    • اعتبارسنجی قابلیت اکسپلویت از طریق پاسخهای دریافتی
    • تولید گزارش اکسپلویت

 

 

  • وظیفه ۴: ارائه اکسپلویت
    • استقرار اکسپلویت برای دسترسی اولیه
    • ایجاد دسترسی اولیه در محیط
  • وظیفه ۵: بعد از نفوذ (Post-Exploitation)
    • شمارش سرویسهای داخلی
    • شناسایی رابطهای مدیریتی
    • کشف متادیتای نقاط پایانی
 

 

 

  • بررسی یافته‌ها و توصیه‌های هوش مصنوعی
  • تأیید اکسپلویت

 

مرحله ۴: جمع‌آوری اعتبارنامه ها و حرکت جانبی:

بعد از دریافت مجوز از اپراتورهای انسانی، Claude فرایند سیستماتیک جمع‌ آوری اعتبارنامه ها رو در شبکه‌های هدف اجرا میکنه. این شامل موارد زیر بود:

  • پرس و جو از سرویسهای داخلی
  • استخراج اعتبارنامه های احراز هویت از پیکربندی‌ها
  • تست اعتبارنامه های جمع‌آوری‌ شده در سامانه‌های کشف‌ شده

Claude بدون هدایت انسان تعیین میکرد، کدوم اعتبارنامه ها به کدوم سرویسها دسترسی میدن و نقشه سطوح دسترسی و مرزهای مجاز رو ترسیم میکرد. حرکت جانبی هم از طریق شمارش سامانه‌های قابل دسترس با استفاده از اعتبارنامه های سرقت‌ شده انجام میشد.

Claude بطور سیستماتیک احراز هویت رو در برابر APIهای داخلی، دیتابیس، مخازن container و زیرساختهای لاگ گیری تست میکنه و نقشه‌ای جامع از معماری شبکه داخلی و روابط دسترسی ایجاد میکرد.

نقش هوش مصنوعی: استخراج خودکار اعتبارنامه ها، تست دسترسی و حرکت جانبی، با هدف‌گیری خودکار مبتنی بر زیرساخت کشف‌ شده. مداخله انسانی به بازبینی اعتبارنامه ها و صدور مجوز برای ورود به سیستمهای بسیار حساس محدود میشه.

 

فاز ۵: جمع‌ آوری داده و استخراج اطلاعات:

در این مرحله، بیشترین میزان خودمختاری هوش مصنوعی مشاهده شده. در یک حمله علیه یک شرکت فناوری، بازیگر تهدید به Claude دستور داده تا بصورت مستقل:

  • دیتابیسها و سیستمها رو جستجو کنه
  • داده‌ها رو استخراج کنه
  • نتایج رو پردازش کنه
  • اطلاعات حساس و اختصاصی شرکت رو شناسایی کنه
  • داده‌های استخراج‌ شده رو بر اساس ارزش اطلاعاتی دسته‌بندی کنه.

در سایر نفوذها نیز رفتار مشابهی دیده شده، جایی که هوش مصنوعی بدون نیاز به جزئیات از جانب انسان، مواردی مانند: اعتبارنامه های کاربران، تنظیمات سیستمها، داده‌های حساس عملیاتی رو استخراج و تحلیل میکنه.

 

اقدامات خودکار Claude (۲ تا ۶ ساعت) اقدامات اپراتور انسانی (۵ تا ۲۰ دقیقه)
  1. احرازهویت با اعتبارنامه‌های سرقت‌شده
  2. شناسایی ساختار دیتابیس و جستجوی جداول اکانتهای کاربری
  3. استخراج هش پسورد و سایر جزئیات اکانتها
  4. شناسایی اکانتهای دارای سطح دسترسی بالا
  5. ایجاد یک اکانت کاربری بکدور برای دسترسی مداوم
  6. دانلود کامل نتایج به سیستم محلی
  7. تجزیه و تحلیل داده‌ها بر اساس ارزش اطلاعاتی
  8. دسته‌بندی اطلاعات بر اساس حساسیت و کاربرد
  9. تولید گزارش خلاصه
 

 

 

 

  • مرور نتایج و پیشنهادهای هوش مصنوعی
  • تأیید اهداف نهایی استخراج

 

هوش مصنوعی حجم بسیار زیادی از داده رو بدون نیاز به تحلیل انسانی، تحلیل و اطلاعات ارزشمند رو بصورت خودکار تشخیص میداد.

نقش هوش مصنوعی: استخراج داده، پردازش، تحلیل و دسته‌بندی اطلاعات بصورت کاملا خودمختار. انسان فقط در مرحله‌ی نهایی استخراج داده وارد چرخه میشه.

 

فاز ۶: مستندسازی و تحویل :

Claude بصورت خودکار در تمام مراحل عملیات، مستندات کامل حمله رو تولید میکرده. این مستندات شامل موارد زیر بوده:

  • سرویسهای شناسایی‌ شده
  • اعتبارنامه‌های بدست‌ اومده
  • داده‌های استخراج‌ شده
  • تکنیکهای اکسپلویت
  • روند کامل حمله، بصورت مرحله‌ به‌ مرحله

این مستندسازی باعث شده:

  • تحویل عملیات بین تیمها بسیار روان انجام بشه.
  • پس از توقف موقت، کمپین به‌ راحتی ادامه پیدا کنه.
  • تصمیم‌گیری استراتژیک برای مراحل بعدی ممکن بشه.

شواهد نشان میده که بازیگر تهدید پس از اتمام مرحله‌ی جمع‌آوری اطلاعات، دسترسیها رو به تیمهای دیگه تحویل داده.

نقش هوش مصنوعی: تولید خودکار مستندات دقیق از تمام مراحل عملیات.

 

سطح فنی و پیچیدگی

زیرساخت عملیاتی این حملات عمدتا روی ابزارهای متن‌ بازِ تست نفوذ، تکیه داشته و نیازی به بدافزار سفارشی نبوده. ابزارهایی مانند:

  • اسکنرهای شبکه
  • فریمورکهای اکسپلویتِ دیتابیس
  • ابزارهای کرک پسورد
  • ابزارهای آنالیز باینری

این ابزارهای عادی از طریق فریمورکهای خودکارسازی که حول Model Context Protocol (MCP) ساخته شده بودن، توسط هوش مصنوعی مدیریت میشن. این فریمورکها موارد زیر رو فراهم میکردن:

  • اجرای دستورات راه دور
  • هماهنگی همزمان چند ابزار
  • حفظ وضعیت عملیاتی مداوم

فریمورک تهدید بیشتر بر یکپارچه‌ سازی تمرکز داشته، نه توسعه‌ی ابزارهای زیرودی یا نوآورانه. چندین سرور تخصصی رابطهای بین Claude و دسته‌های مختلف ابزار رو فراهم میکردن:

  • اجرای دستور از راه دور در سیستمهای تست نفوذ اختصاصی
  • خودکار سازی مرورگر برای ریکان برنامه‌های وب
  • آنالیز کد برای ارزیابی امنیتی
  • ادغام چارچوب تست برای اعتبارسنجی سیستماتیک آسیب‌پذیری
  • دریافت ارتباطات برگشتی از قربانی، برای تأیید موفقیت اکسپلویتهایی که خروجی مستقیم ندارن.

حداقل اتکا به ابزارهای اختصاصی یا توسعه اکسپلویت پیشرفته نشان میده که قابلیتهای سایبری بطور فزاینده‌ای از هماهنگ‌ سازی منابع عمومی و در دسترس بجای نوآوری فنی حاصل میشن. این دسترس‌ پذیری نشان‌ دهنده ی پتانسیل گسترش سریع در سراسر چشم‌انداز تهدید هستش، چون پلتفرمهای هوش مصنوعی هر چه بیشتر قادر به عملیات خودمختار میشن.

 

واکنش Anthropic :

پس از کشف این حمله، Anthropic اکانتهای مرتبط رو مسدود کرده و چندین بهبود دفاعی رو در پاسخ به این کمپین اعمال کرده.

این تحقیق، واکنش قابل‌ توجهی رو از سوی Anthropic داشته. قابلیتهای شناسایی رو برای پوشش الگوهای تهدید جدید گسترش دادن، از جمله بهبود طبقه‌بندهای متمرکز بر حوزه سایبری. در حال نمونه‌سازی از سیستمهای تشخیص زودتر، برای حملات سایبری خودمختار هستن و روشهای جدیدی برای تحقیق و کاهش حملات سایبری توزیع‌ شده در مقیاس بزرگ، توسعه دادن. مقامات مربوطه و شرکای صنعتی رو مطلع کردن و در صورت لزوم اطلاعات رو با نهادهای تحت‌ تأثیر، به اشتراک گذاشتن.

الگوی این حمله رو به سیستمهای امنیتی خودشون اضافه کردن تا هم ابزارهای دفاعی فنی اشون بهتر بشه و هم قوانین و سیاستهایی که برای جلوگیری از حملات سایبری دارن، بروز بشه.

 

پیامدهای امنیت سایبری

این کمپین نشان میده که موانع انجام حملات سایبری پیچیده بطور قابل‌ توجهی کاهش پیدا کرده و میشه پیش‌ بینی کرد که این روند ادامه خواهد داشت. بازیگران تهدید، حالا میتونن از سیستمهای هوش مصنوعی عامل‌ محور استفاده کنن تا کارهای یک تیم کامل از هکرهای مجرب رو انجام بدن: آنالیز سیستمهای هدف، تولید کد اکسپلویت و اسکن حجم عظیمی از داده‌های سرقت‌شده با کارایی بسیار بیشتر از هر اپراتور انسانی. گروه‌هایی با تجربه و منابع کمتر، حالا میتونن بطور بالقوه حملاتی با مقیاس بزرگتر رو انجام بدن.

این حمله نسبت به یافته‌های vibe hacking که تابستان امسال گزارش کردن، یک پیشرفت محسوب میشه. در اون عملیات، انسانها همچنان در حلقه بودن و عملیات رو هدایت میکردن. اما در اینجا، دخالت انسانی، با وجود مقیاس بزرگتر این حمله، بسیار کمتر بوده. اگرچه دید محققا محدود به استفاده از Claude است، این مطالعه ی موردی به احتمال زیاد الگوهای رفتاری مشابهی رو در مدلهای پیشرفته ی هوش مصنوعی نشان میده و بیان میکنه که بازیگران تهدید، چطوری عملیات خودشون رو برای سوءاستفاده از قابلیتهای پیشرفته ی امروزیِ AI تطبیق میدن.

این موضوع یک سؤال مهم رو مطرح میکنه: اگه مدلهای هوش مصنوعی، بتونن برای حملات سایبری در این مقیاس، مورد سوء استفاده قرار بگیرن، چرا همچنان باید اونا رو توسعه و منتشر کرد؟ پاسخ اینِ که تواناییهایی که باعث میشه، Claude در این حملات قابل سوء استفاده باشه، همان تواناییهایی هستن که اون رو برای دفاع سایبری حیاتی میکنه. وقتی حملات سایبری پیچیده بطور اجتناب‌ ناپذیر رخ میدن، هدف اینِ که Claude، که محافظتهای قدرتمندی داخلش قرار گرفته، به متخصصان امنیت سایبری کمک کنه تا نسخه‌های فعلی و آینده ی این حملات رو شناسایی، مختل و برای اونا آماده بشن. در حقیقت، تیم Threat Intelligence از Claude برای تحلیل حجم عظیمی از داده‌هایی که در همین تحقیق تولید شده، استفاده گسترده‌ای کرده.

اما صرف داشتن این قابلیتها کافی نیست. جامعه ی امنیت سایبری باید بپذیره که یک تغییر بنیادین رخ داده: تیمهای امنیتی باید استفاده از هوش مصنوعی رو در حوزه‌هایی مثل خودکارسازی SOC، تشخیص تهدیدات، ارزیابی آسیب‌پذیری و پاسخ‌ به حوادث تست کنن و تجربه عملی کسب کنن و Anthropic نیاز به سرمایه‌ گذاری مستمر در محافظت و ایمن‌ سازی پلتفرمهای هوش مصنوعی داره تا از سوء استفاده بازیگران تهدید جلوگیری کنه.

تکنیکهایی که امروز شرح داده شد در سراسر چشم‌انداز تهدید گسترش خواهد یافت و همین موضوع، اشتراک‌ گذاری تهدیدات در صنعت، بهبود روشهای تشخیص و کنترلهای امنیتی قویتر رو، حیاتی تر میکنه.

 

 

منبع

 

 

اشتراک در شبکه های اجتماعی :

Facebook
Twitter
Pinterest
LinkedIn
In آسیب پذیری امنیتی اخبار امنیت وب بازیگران تهدید توسعه اکسپلویت تیم آبی تیم قرمز هوش مصنوعیIn Anthropic , Threat Intelligence

راهبری نوشته

بررسی Patch Tuesday مایکروسافت برای نوامبر 2025 (آبان 1404)
مصاحبه با بنیانگذار BlackHoodie: جامعه ی زنان مهندس معکوس

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دسته‌ها

  • Osint
  • آسیب پذیری امنیتی
  • آموزش های ویدیویی
  • آنالیز بدافزار
  • اخبار
  • افشای اطلاعات
  • امنیت وب
  • انتشارات
  • اینترنت اشیاء
  • بازیگران تهدید
  • باگ بانتی
  • پادکست
  • پروژه ها
  • توسعه اکسپلویت
  • تیم آبی
  • تیم قرمز
  • دوره های آموزشی
  • فازینگ
  • کنفرانس ،دوره ، وبینار ، لایو ، CTF
  • لیست های ویژه
  • ماشین آسیب پذیر
  • مجله
  • مصاحبه، داستان هکرها
  • مقالات
  • مهندسی معکوس نرم افزار
  • هوش مصنوعی

پست های مرتبط

  • اخبار
seyyid
On فروردین 21, 1402فروردین 28, 1402

Z-Point سرویس جدید Z-Library برای اشتراک کتابهای فیزیکی

  • آنالیز بدافزار
  • اخبار
  • بازیگران تهدید
  • مقالات
seyyid
On آبان 27, 1404

تحلیل TTPهای گروه هکری ایرانی UNC1549

  • اخبار
  • باگ بانتی
seyyid
On فروردین 24, 1402فروردین 28, 1402

برنامه باگ بانتی OpenAI

  • آنالیز بدافزار
  • اخبار
  • بازیگران تهدید
seyyid
On بهمن 15, 1401فروردین 28, 1402

استخراج مونرو در سرور Redis با بدافزار HeadCrab

درباره ما

بعد از چندین سال فعالیت تو حوزه امنیت سایبری و تولید محتوا در شبکه های اجتماعی ، بالاخره تصمیم گرفتیم تا یه سایت راه اندازی کنیم و مطالب رو ساده تر ، در یک محیط منسجم و طبقه بندی شده به دست مخاطب برسونیم. امیدوارم که قدمی در راستای رشد امنیت سایبری کشورمون برداشته باشیم.

تگ ها

0day APT command injection Deserialization of Untrusted Data Directory Traversal FBI Fortinet Heap buffer overflow kali LockBit Memory Corruption nuclei out-of-bounds write Out of bounds read Patch Tuesday PWN2OWN Stack Buffer overflow type confusion use after free vulnerable wordpress XSS ZDI vulnerability آموزش اکسپلویت نویسی ارز دیجیتال اندروید اپل اکسپلویت باج افزار تلگرام زیرودی سیسکو فارنزیک فورتی نت فیشینگ لاک بیت لینوکس مایکروسافت هوش مصنوعی وردپرس وردپرس آسیب پذیر ویندوز پلاگین کالی کروم گوگل

شبکه های اجتماعی

    • اینستاگرم
    • تلگرام
    • توییتر
    • گیت‌هاب
    • یوتیوب
    • لینکداین
      کپی مطالب با ذکر منبع بلامانع است | 1401-1404